+++ /dev/null
-#ifndef _ASM_X86_PDA_H
-#define _ASM_X86_PDA_H
-
-#ifndef __ASSEMBLY__
-#include <linux/stddef.h>
-#include <linux/types.h>
-#include <linux/cache.h>
-#include <linux/threads.h>
-#include <asm/page.h>
-#include <asm/percpu.h>
-
-/* Per processor datastructure. %gs points to it while the kernel runs */
-struct x8664_pda {
-       unsigned long unused1;
-       unsigned long unused2;
-       unsigned long unused3;
-       unsigned long unused4;
-       int unused5;
-       unsigned int unused6;           /* 36 was cpunumber */
-       short in_bootmem;               /* pda lives in bootmem */
-} ____cacheline_aligned_in_smp;
-
-DECLARE_PER_CPU(struct x8664_pda, __pda);
-
-#define cpu_pda(cpu)           (&per_cpu(__pda, cpu))
-
-#define read_pda(field)                percpu_read(__pda.field)
-#define write_pda(field, val)  percpu_write(__pda.field, val)
-#define add_pda(field, val)    percpu_add(__pda.field, val)
-#define sub_pda(field, val)    percpu_sub(__pda.field, val)
-#define or_pda(field, val)     percpu_or(__pda.field, val)
-
-/* This is not atomic against other CPUs -- CPU preemption needs to be off */
-#define test_and_clear_bit_pda(bit, field)                             \
-       x86_test_and_clear_bit_percpu(bit, __pda.field)
-
-#endif
-
-#endif /* _ASM_X86_PDA_H */