return numa_cpumask_lookup_table[node];
 }
 
+#define cpumask_of_node(node) (&numa_cpumask_lookup_table[node])
+
 static inline int node_to_first_cpu(int node)
 {
-       cpumask_t tmp;
-       tmp = node_to_cpumask(node);
-       return first_cpu(tmp);
+       return cpumask_first(cpumask_of_node(node));
 }
 
 int of_node_to_nid(struct device_node *device);
                                        node_to_cpumask(pcibus_to_node(bus)) \
                                )
 
+#define cpumask_of_pcibus(bus) (pcibus_to_node(bus) == -1 ?            \
+                                cpu_all_mask :                         \
+                                cpumask_of_node(pcibus_to_node(bus)))
+
 /* sched_domains SD_NODE_INIT for PPC64 machines */
 #define SD_NODE_INIT (struct sched_domain) {           \
        .span                   = CPU_MASK_NONE,        \
 
        u64 route;
 
        if (nr_cpus_node(spu->node)) {
-               cpumask_t spumask = node_to_cpumask(spu->node);
-               cpumask_t cpumask = node_to_cpumask(cpu_to_node(cpu));
+               const struct cpumask *spumask = cpumask_of_node(spu->node),
+                       *cpumask = cpumask_of_node(cpu_to_node(cpu));
 
-               if (!cpus_intersects(spumask, cpumask))
+               if (!cpumask_intersects(spumask, cpumask))
                        return;
        }
 
 
 static int __node_allowed(struct spu_context *ctx, int node)
 {
        if (nr_cpus_node(node)) {
-               cpumask_t mask = node_to_cpumask(node);
+               const struct cpumask *mask = cpumask_of_node(node);
 
-               if (cpus_intersects(mask, ctx->cpus_allowed))
+               if (cpumask_intersects(mask, &ctx->cpus_allowed))
                        return 1;
        }