-#ifdef CONFIG_X86_32
-# include "edac_32.h"
-#else
-# include "edac_64.h"
+#ifndef _ASM_X86_EDAC_H
+#define _ASM_X86_EDAC_H
+
+/* ECC atomic, DMA, SMP and interrupt safe scrub function */
+
+static __inline__ void atomic_scrub(void *va, u32 size)
+{
+       u32 i, *virt_addr = va;
+
+       /*
+        * Very carefully read and write to memory atomically so we
+        * are interrupt, DMA and SMP safe.
+        */
+       for (i = 0; i < size / 4; i++, virt_addr++)
+               __asm__ __volatile__("lock; addl $0, %0"::"m"(*virt_addr));
+}
+
 #endif
 
+++ /dev/null
-#ifndef ASM_EDAC_H
-#define ASM_EDAC_H
-
-/* ECC atomic, DMA, SMP and interrupt safe scrub function */
-
-static __inline__ void atomic_scrub(void *va, u32 size)
-{
-       unsigned long *virt_addr = va;
-       u32 i;
-
-       for (i = 0; i < size / 4; i++, virt_addr++)
-               /* Very carefully read and write to memory atomically
-                * so we are interrupt, DMA and SMP safe.
-                */
-               __asm__ __volatile__("lock; addl $0, %0"::"m"(*virt_addr));
-}
-
-#endif
 
+++ /dev/null
-#ifndef ASM_EDAC_H
-#define ASM_EDAC_H
-
-/* ECC atomic, DMA, SMP and interrupt safe scrub function */
-
-static __inline__ void atomic_scrub(void *va, u32 size)
-{
-       unsigned int *virt_addr = va;
-       u32 i;
-
-       for (i = 0; i < size / 4; i++, virt_addr++)
-               /* Very carefully read and write to memory atomically
-                * so we are interrupt, DMA and SMP safe.
-                */
-               __asm__ __volatile__("lock; addl $0, %0"::"m"(*virt_addr));
-}
-
-#endif