struct bio *bio;
        int ret = 0;
 
-       BUG_ON(!PageLocked(page));
-       BUG_ON(PageUptodate(page));
+       VM_BUG_ON(!PageLocked(page));
+       VM_BUG_ON(PageUptodate(page));
        bio = get_swap_bio(GFP_KERNEL, page_private(page), page,
                                end_swap_bio_read);
        if (bio == NULL) {
 
 {
        int error;
 
-       BUG_ON(!PageLocked(page));
-       BUG_ON(PageSwapCache(page));
-       BUG_ON(PagePrivate(page));
-       BUG_ON(!PageSwapBacked(page));
+       VM_BUG_ON(!PageLocked(page));
+       VM_BUG_ON(PageSwapCache(page));
+       VM_BUG_ON(!PageSwapBacked(page));
+
        error = radix_tree_preload(gfp_mask);
        if (!error) {
                page_cache_get(page);
  */
 void __delete_from_swap_cache(struct page *page)
 {
-       BUG_ON(!PageLocked(page));
-       BUG_ON(!PageSwapCache(page));
-       BUG_ON(PageWriteback(page));
-       BUG_ON(PagePrivate(page));
+       VM_BUG_ON(!PageLocked(page));
+       VM_BUG_ON(!PageSwapCache(page));
+       VM_BUG_ON(PageWriteback(page));
 
        radix_tree_delete(&swapper_space.page_tree, page_private(page));
        set_page_private(page, 0);
        swp_entry_t entry;
        int err;
 
-       BUG_ON(!PageLocked(page));
-       BUG_ON(!PageUptodate(page));
+       VM_BUG_ON(!PageLocked(page));
+       VM_BUG_ON(!PageUptodate(page));
 
        for (;;) {
                entry = get_swap_page();
 
 {
        int count;
 
-       BUG_ON(!PageLocked(page));
+       VM_BUG_ON(!PageLocked(page));
        count = page_mapcount(page);
        if (count <= 1 && PageSwapCache(page))
                count += page_swapcount(page);
        struct swap_info_struct * p;
        swp_entry_t entry;
 
-       BUG_ON(PagePrivate(page));
-       BUG_ON(!PageLocked(page));
+       VM_BUG_ON(!PageLocked(page));
 
        if (!PageSwapCache(page))
                return 0;
        if (page) {
                int one_user;
 
-               BUG_ON(PagePrivate(page));
                one_user = (page_count(page) == 2);
                /* Only cache user (+us), or swap space full? Free it! */
                /* Also recheck PageSwapCache after page is locked (above) */
 {
        struct backing_dev_info *bdi;
 
-       BUG_ON(!PageLocked(page));      /* It pins the swap_info_struct */
+       VM_BUG_ON(!PageLocked(page));   /* It pins the swap_info_struct */
 
        if (PageSwapCache(page)) {
                swp_entry_t entry = { .val = page_private(page) };