]> pilppa.org Git - linux-2.6-omap-h63xx.git/blob - include/asm-powerpc/eeh.h
Merge master.kernel.org:/pub/scm/linux/kernel/git/mchehab/v4l-dvb
[linux-2.6-omap-h63xx.git] / include / asm-powerpc / eeh.h
1 /*
2  * eeh.h
3  * Copyright (C) 2001  Dave Engebretsen & Todd Inglett IBM Corporation.
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License as published by
7  * the Free Software Foundation; either version 2 of the License, or
8  * (at your option) any later version.
9  *
10  * This program is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13  * GNU General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License
16  * along with this program; if not, write to the Free Software
17  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18  */
19
20 #ifndef _PPC64_EEH_H
21 #define _PPC64_EEH_H
22 #ifdef __KERNEL__
23
24 #include <linux/config.h>
25 #include <linux/init.h>
26 #include <linux/list.h>
27 #include <linux/string.h>
28
29 struct pci_dev;
30 struct device_node;
31
32 #ifdef CONFIG_EEH
33
34 extern int eeh_subsystem_enabled;
35
36 /* Values for eeh_mode bits in device_node */
37 #define EEH_MODE_SUPPORTED      (1<<0)
38 #define EEH_MODE_NOCHECK        (1<<1)
39 #define EEH_MODE_ISOLATED       (1<<2)
40
41 /* Max number of EEH freezes allowed before we consider the device
42  * to be permanently disabled. */
43 #define EEH_MAX_ALLOWED_FREEZES 5
44
45 void __init eeh_init(void);
46 unsigned long eeh_check_failure(const volatile void __iomem *token,
47                                 unsigned long val);
48 int eeh_dn_check_failure(struct device_node *dn, struct pci_dev *dev);
49 void __init pci_addr_cache_build(void);
50
51 /**
52  * eeh_add_device_early
53  * eeh_add_device_late
54  *
55  * Perform eeh initialization for devices added after boot.
56  * Call eeh_add_device_early before doing any i/o to the
57  * device (including config space i/o).  Call eeh_add_device_late
58  * to finish the eeh setup for this device.
59  */
60 void eeh_add_device_early(struct device_node *);
61 void eeh_add_device_tree_early(struct device_node *);
62 void eeh_add_device_late(struct pci_dev *);
63
64 /**
65  * eeh_remove_device - undo EEH setup for the indicated pci device
66  * @dev: pci device to be removed
67  *
68  * This routine should be called when a device is removed from
69  * a running system (e.g. by hotplug or dlpar).  It unregisters
70  * the PCI device from the EEH subsystem.  I/O errors affecting
71  * this device will no longer be detected after this call; thus,
72  * i/o errors affecting this slot may leave this device unusable.
73  */
74 void eeh_remove_device(struct pci_dev *);
75
76 /**
77  * eeh_remove_device_recursive - undo EEH for device & children.
78  * @dev: pci device to be removed
79  *
80  * As above, this removes the device; it also removes child
81  * pci devices as well.
82  */
83 void eeh_remove_bus_device(struct pci_dev *);
84
85 /**
86  * EEH_POSSIBLE_ERROR() -- test for possible MMIO failure.
87  *
88  * If this macro yields TRUE, the caller relays to eeh_check_failure()
89  * which does further tests out of line.
90  */
91 #define EEH_POSSIBLE_ERROR(val, type)   ((val) == (type)~0 && eeh_subsystem_enabled)
92
93 /*
94  * Reads from a device which has been isolated by EEH will return
95  * all 1s.  This macro gives an all-1s value of the given size (in
96  * bytes: 1, 2, or 4) for comparing with the result of a read.
97  */
98 #define EEH_IO_ERROR_VALUE(size)        (~0U >> ((4 - (size)) * 8))
99
100 #else /* !CONFIG_EEH */
101 static inline void eeh_init(void) { }
102
103 static inline unsigned long eeh_check_failure(const volatile void __iomem *token, unsigned long val)
104 {
105         return val;
106 }
107
108 static inline int eeh_dn_check_failure(struct device_node *dn, struct pci_dev *dev)
109 {
110         return 0;
111 }
112
113 static inline void pci_addr_cache_build(void) { }
114
115 static inline void eeh_add_device_early(struct device_node *dn) { }
116
117 static inline void eeh_add_device_late(struct pci_dev *dev) { }
118
119 static inline void eeh_remove_device(struct pci_dev *dev) { }
120
121 static inline void eeh_add_device_tree_early(struct device_node *dn) { }
122
123 static inline void eeh_remove_bus_device(struct pci_dev *dev) { }
124 #define EEH_POSSIBLE_ERROR(val, type) (0)
125 #define EEH_IO_ERROR_VALUE(size) (-1UL)
126 #endif /* CONFIG_EEH */
127
128 /*
129  * MMIO read/write operations with EEH support.
130  */
131 static inline u8 eeh_readb(const volatile void __iomem *addr)
132 {
133         u8 val = in_8(addr);
134         if (EEH_POSSIBLE_ERROR(val, u8))
135                 return eeh_check_failure(addr, val);
136         return val;
137 }
138 static inline void eeh_writeb(u8 val, volatile void __iomem *addr)
139 {
140         out_8(addr, val);
141 }
142
143 static inline u16 eeh_readw(const volatile void __iomem *addr)
144 {
145         u16 val = in_le16(addr);
146         if (EEH_POSSIBLE_ERROR(val, u16))
147                 return eeh_check_failure(addr, val);
148         return val;
149 }
150 static inline void eeh_writew(u16 val, volatile void __iomem *addr)
151 {
152         out_le16(addr, val);
153 }
154 static inline u16 eeh_raw_readw(const volatile void __iomem *addr)
155 {
156         u16 val = in_be16(addr);
157         if (EEH_POSSIBLE_ERROR(val, u16))
158                 return eeh_check_failure(addr, val);
159         return val;
160 }
161 static inline void eeh_raw_writew(u16 val, volatile void __iomem *addr) {
162         volatile u16 __iomem *vaddr = (volatile u16 __iomem *) addr;
163         out_be16(vaddr, val);
164 }
165
166 static inline u32 eeh_readl(const volatile void __iomem *addr)
167 {
168         u32 val = in_le32(addr);
169         if (EEH_POSSIBLE_ERROR(val, u32))
170                 return eeh_check_failure(addr, val);
171         return val;
172 }
173 static inline void eeh_writel(u32 val, volatile void __iomem *addr)
174 {
175         out_le32(addr, val);
176 }
177 static inline u32 eeh_raw_readl(const volatile void __iomem *addr)
178 {
179         u32 val = in_be32(addr);
180         if (EEH_POSSIBLE_ERROR(val, u32))
181                 return eeh_check_failure(addr, val);
182         return val;
183 }
184 static inline void eeh_raw_writel(u32 val, volatile void __iomem *addr)
185 {
186         out_be32(addr, val);
187 }
188
189 static inline u64 eeh_readq(const volatile void __iomem *addr)
190 {
191         u64 val = in_le64(addr);
192         if (EEH_POSSIBLE_ERROR(val, u64))
193                 return eeh_check_failure(addr, val);
194         return val;
195 }
196 static inline void eeh_writeq(u64 val, volatile void __iomem *addr)
197 {
198         out_le64(addr, val);
199 }
200 static inline u64 eeh_raw_readq(const volatile void __iomem *addr)
201 {
202         u64 val = in_be64(addr);
203         if (EEH_POSSIBLE_ERROR(val, u64))
204                 return eeh_check_failure(addr, val);
205         return val;
206 }
207 static inline void eeh_raw_writeq(u64 val, volatile void __iomem *addr)
208 {
209         out_be64(addr, val);
210 }
211
212 #define EEH_CHECK_ALIGN(v,a) \
213         ((((unsigned long)(v)) & ((a) - 1)) == 0)
214
215 static inline void eeh_memset_io(volatile void __iomem *addr, int c,
216                                  unsigned long n)
217 {
218         void *p = (void __force *)addr;
219         u32 lc = c;
220         lc |= lc << 8;
221         lc |= lc << 16;
222
223         while(n && !EEH_CHECK_ALIGN(p, 4)) {
224                 *((volatile u8 *)p) = c;
225                 p++;
226                 n--;
227         }
228         while(n >= 4) {
229                 *((volatile u32 *)p) = lc;
230                 p += 4;
231                 n -= 4;
232         }
233         while(n) {
234                 *((volatile u8 *)p) = c;
235                 p++;
236                 n--;
237         }
238         __asm__ __volatile__ ("sync" : : : "memory");
239 }
240 static inline void eeh_memcpy_fromio(void *dest, const volatile void __iomem *src,
241                                      unsigned long n)
242 {
243         void *vsrc = (void __force *) src;
244         void *destsave = dest;
245         unsigned long nsave = n;
246
247         while(n && (!EEH_CHECK_ALIGN(vsrc, 4) || !EEH_CHECK_ALIGN(dest, 4))) {
248                 *((u8 *)dest) = *((volatile u8 *)vsrc);
249                 __asm__ __volatile__ ("eieio" : : : "memory");
250                 vsrc++;
251                 dest++;
252                 n--;
253         }
254         while(n > 4) {
255                 *((u32 *)dest) = *((volatile u32 *)vsrc);
256                 __asm__ __volatile__ ("eieio" : : : "memory");
257                 vsrc += 4;
258                 dest += 4;
259                 n -= 4;
260         }
261         while(n) {
262                 *((u8 *)dest) = *((volatile u8 *)vsrc);
263                 __asm__ __volatile__ ("eieio" : : : "memory");
264                 vsrc++;
265                 dest++;
266                 n--;
267         }
268         __asm__ __volatile__ ("sync" : : : "memory");
269
270         /* Look for ffff's here at dest[n].  Assume that at least 4 bytes
271          * were copied. Check all four bytes.
272          */
273         if ((nsave >= 4) &&
274                 (EEH_POSSIBLE_ERROR((*((u32 *) destsave+nsave-4)), u32))) {
275                 eeh_check_failure(src, (*((u32 *) destsave+nsave-4)));
276         }
277 }
278
279 static inline void eeh_memcpy_toio(volatile void __iomem *dest, const void *src,
280                                    unsigned long n)
281 {
282         void *vdest = (void __force *) dest;
283
284         while(n && (!EEH_CHECK_ALIGN(vdest, 4) || !EEH_CHECK_ALIGN(src, 4))) {
285                 *((volatile u8 *)vdest) = *((u8 *)src);
286                 src++;
287                 vdest++;
288                 n--;
289         }
290         while(n > 4) {
291                 *((volatile u32 *)vdest) = *((volatile u32 *)src);
292                 src += 4;
293                 vdest += 4;
294                 n-=4;
295         }
296         while(n) {
297                 *((volatile u8 *)vdest) = *((u8 *)src);
298                 src++;
299                 vdest++;
300                 n--;
301         }
302         __asm__ __volatile__ ("sync" : : : "memory");
303 }
304
305 #undef EEH_CHECK_ALIGN
306
307 static inline u8 eeh_inb(unsigned long port)
308 {
309         u8 val;
310         if (!_IO_IS_VALID(port))
311                 return ~0;
312         val = in_8((u8 __iomem *)(port+pci_io_base));
313         if (EEH_POSSIBLE_ERROR(val, u8))
314                 return eeh_check_failure((void __iomem *)(port), val);
315         return val;
316 }
317
318 static inline void eeh_outb(u8 val, unsigned long port)
319 {
320         if (_IO_IS_VALID(port))
321                 out_8((u8 __iomem *)(port+pci_io_base), val);
322 }
323
324 static inline u16 eeh_inw(unsigned long port)
325 {
326         u16 val;
327         if (!_IO_IS_VALID(port))
328                 return ~0;
329         val = in_le16((u16 __iomem *)(port+pci_io_base));
330         if (EEH_POSSIBLE_ERROR(val, u16))
331                 return eeh_check_failure((void __iomem *)(port), val);
332         return val;
333 }
334
335 static inline void eeh_outw(u16 val, unsigned long port)
336 {
337         if (_IO_IS_VALID(port))
338                 out_le16((u16 __iomem *)(port+pci_io_base), val);
339 }
340
341 static inline u32 eeh_inl(unsigned long port)
342 {
343         u32 val;
344         if (!_IO_IS_VALID(port))
345                 return ~0;
346         val = in_le32((u32 __iomem *)(port+pci_io_base));
347         if (EEH_POSSIBLE_ERROR(val, u32))
348                 return eeh_check_failure((void __iomem *)(port), val);
349         return val;
350 }
351
352 static inline void eeh_outl(u32 val, unsigned long port)
353 {
354         if (_IO_IS_VALID(port))
355                 out_le32((u32 __iomem *)(port+pci_io_base), val);
356 }
357
358 /* in-string eeh macros */
359 static inline void eeh_insb(unsigned long port, void * buf, int ns)
360 {
361         _insb((u8 __iomem *)(port+pci_io_base), buf, ns);
362         if (EEH_POSSIBLE_ERROR((*(((u8*)buf)+ns-1)), u8))
363                 eeh_check_failure((void __iomem *)(port), *(u8*)buf);
364 }
365
366 static inline void eeh_insw_ns(unsigned long port, void * buf, int ns)
367 {
368         _insw_ns((u16 __iomem *)(port+pci_io_base), buf, ns);
369         if (EEH_POSSIBLE_ERROR((*(((u16*)buf)+ns-1)), u16))
370                 eeh_check_failure((void __iomem *)(port), *(u16*)buf);
371 }
372
373 static inline void eeh_insl_ns(unsigned long port, void * buf, int nl)
374 {
375         _insl_ns((u32 __iomem *)(port+pci_io_base), buf, nl);
376         if (EEH_POSSIBLE_ERROR((*(((u32*)buf)+nl-1)), u32))
377                 eeh_check_failure((void __iomem *)(port), *(u32*)buf);
378 }
379
380 #endif /* __KERNEL__ */
381 #endif /* _PPC64_EEH_H */