static inline enum zone_type gfp_zone(gfp_t flags)
 {
+       int base = 0;
+
+#ifdef CONFIG_NUMA
+       if (flags & __GFP_THISNODE)
+               base = MAX_NR_ZONES;
+#endif
+
 #ifdef CONFIG_ZONE_DMA
        if (flags & __GFP_DMA)
-               return ZONE_DMA;
+               return base + ZONE_DMA;
 #endif
 #ifdef CONFIG_ZONE_DMA32
        if (flags & __GFP_DMA32)
-               return ZONE_DMA32;
+               return base + ZONE_DMA32;
 #endif
        if ((flags & (__GFP_HIGHMEM | __GFP_MOVABLE)) ==
                        (__GFP_HIGHMEM | __GFP_MOVABLE))
-               return ZONE_MOVABLE;
+               return base + ZONE_MOVABLE;
 #ifdef CONFIG_HIGHMEM
        if (flags & __GFP_HIGHMEM)
-               return ZONE_HIGHMEM;
+               return base + ZONE_HIGHMEM;
 #endif
-       return ZONE_NORMAL;
+       return base + ZONE_NORMAL;
 }
 
 /*
 
 #define MAX_ZONES_PER_ZONELIST (MAX_NUMNODES * MAX_NR_ZONES)
 
 #ifdef CONFIG_NUMA
+
+/*
+ * The NUMA zonelists are doubled becausse we need zonelists that restrict the
+ * allocations to a single node for GFP_THISNODE.
+ *
+ * [0 .. MAX_NR_ZONES -1]              : Zonelists with fallback
+ * [MAZ_NR_ZONES ... MAZ_ZONELISTS -1]  : No fallback (GFP_THISNODE)
+ */
+#define MAX_ZONELISTS (2 * MAX_NR_ZONES)
+
+
 /*
  * We cache key information from each zonelist for smaller cache
  * footprint when scanning for free pages in get_page_from_freelist().
        unsigned long last_full_zap;            /* when last zap'd (jiffies) */
 };
 #else
+#define MAX_ZONELISTS MAX_NR_ZONES
 struct zonelist_cache;
 #endif
 
 struct bootmem_data;
 typedef struct pglist_data {
        struct zone node_zones[MAX_NR_ZONES];
-       struct zonelist node_zonelists[MAX_NR_ZONES];
+       struct zonelist node_zonelists[MAX_ZONELISTS];
        int nr_zones;
 #ifdef CONFIG_FLAT_NODE_MEM_MAP
        struct page *node_mem_map;
 
                        !zlc_zone_worth_trying(zonelist, z, allowednodes))
                                continue;
                zone = *z;
-               if (unlikely(NUMA_BUILD && (gfp_mask & __GFP_THISNODE) &&
-                       zone->zone_pgdat != zonelist->zones[0]->zone_pgdat))
-                               break;
                if ((alloc_flags & ALLOC_CPUSET) &&
                        !cpuset_zone_allowed_softwall(zone, gfp_mask))
                                goto try_next_zone;
        z = zonelist->zones;  /* the list of zones suitable for gfp_mask */
 
        if (unlikely(*z == NULL)) {
-               /* Should this ever happen?? */
+               /*
+                * Happens if we have an empty zonelist as a result of
+                * GFP_THISNODE being used on a memoryless node
+                */
                return NULL;
        }
 
        }
 }
 
+/*
+ * Build gfp_thisnode zonelists
+ */
+static void build_thisnode_zonelists(pg_data_t *pgdat)
+{
+       enum zone_type i;
+       int j;
+       struct zonelist *zonelist;
+
+       for (i = 0; i < MAX_NR_ZONES; i++) {
+               zonelist = pgdat->node_zonelists + MAX_NR_ZONES + i;
+               j = build_zonelists_node(pgdat, zonelist, 0, i);
+               zonelist->zones[j] = NULL;
+       }
+}
+
 /*
  * Build zonelists ordered by zone and nodes within zones.
  * This results in conserving DMA zone[s] until all Normal memory is
        int order = current_zonelist_order;
 
        /* initialize zonelists */
-       for (i = 0; i < MAX_NR_ZONES; i++) {
+       for (i = 0; i < MAX_ZONELISTS; i++) {
                zonelist = pgdat->node_zonelists + i;
                zonelist->zones[0] = NULL;
        }
                /* calculate node order -- i.e., DMA last! */
                build_zonelists_in_zone_order(pgdat, j);
        }
+
+       build_thisnode_zonelists(pgdat);
 }
 
 /* Construct the zonelist performance cache - see further mmzone.h */