static void init_evtchn_cpu_bindings(void)
 {
 #ifdef CONFIG_SMP
+       struct irq_desc *desc;
        int i;
+
        /* By default all event channels notify CPU#0. */
-       for (i = 0; i < nr_irqs; i++) {
-               struct irq_desc *desc = irq_to_desc(i);
-               if (!desc)
-                       continue;
+       for_each_irq_desc(i, desc)
                desc->affinity = cpumask_of_cpu(0);
-       }
 #endif
 
        memset(cpu_evtchn, 0, sizeof(cpu_evtchn));
        int irq;
 
        /* Only allocate from dynirq range */
-       for (irq = 0; irq < nr_irqs; irq++)
+       for_each_irq_nr(irq)
                if (irq_bindcount[irq] == 0)
                        break;
 
                mask_evtchn(evtchn);
 
        /* No IRQ <-> event-channel mappings. */
-       for (irq = 0; irq < nr_irqs; irq++)
+       for_each_irq_nr(irq)
                irq_info[irq].evtchn = 0; /* zap event-channel binding */
 
        for (evtchn = 0; evtchn < NR_EVENT_CHANNELS; evtchn++)
                mask_evtchn(i);
 
        /* Dynamic IRQ space is currently unbound. Zero the refcnts. */
-       for (i = 0; i < nr_irqs; i++)
+       for_each_irq_nr(i)
                irq_bindcount[i] = 0;
 
        irq_ctx_init(smp_processor_id());
 
 unsigned long probe_irq_on(void)
 {
        struct irq_desc *desc;
-       unsigned long mask;
-       unsigned int i;
+       unsigned long mask = 0;
+       unsigned int status;
+       int i;
 
        mutex_lock(&probing_active);
        /*
         * something may have generated an irq long ago and we want to
         * flush such a longstanding irq before considering it as spurious.
         */
-       for (i = nr_irqs-1; i > 0; i--) {
-               desc = irq_to_desc(i);
-               if (!desc)
-                       continue;
-
+       for_each_irq_desc_reverse(i, desc) {
                spin_lock_irq(&desc->lock);
                if (!desc->action && !(desc->status & IRQ_NOPROBE)) {
                        /*
         * (we must startup again here because if a longstanding irq
         * happened in the previous stage, it may have masked itself)
         */
-       for (i = nr_irqs-1; i > 0; i--) {
-               desc = irq_to_desc(i);
-               if (!desc)
-                       continue;
-
+       for_each_irq_desc_reverse(i, desc) {
                spin_lock_irq(&desc->lock);
                if (!desc->action && !(desc->status & IRQ_NOPROBE)) {
                        desc->status |= IRQ_AUTODETECT | IRQ_WAITING;
        /*
         * Now filter out any obviously spurious interrupts
         */
-       mask = 0;
-       for (i = 0; i < nr_irqs; i++) {
-               unsigned int status;
-
-               desc = irq_to_desc(i);
-               if (!desc)
-                       continue;
+       for_each_irq_desc(i, desc) {
                spin_lock_irq(&desc->lock);
                status = desc->status;
 
  */
 unsigned int probe_irq_mask(unsigned long val)
 {
-       unsigned int mask;
+       unsigned int status, mask = 0;
+       struct irq_desc *desc;
        int i;
 
-       mask = 0;
-       for (i = 0; i < nr_irqs; i++) {
-               struct irq_desc *desc = irq_to_desc(i);
-               unsigned int status;
-
-               if (!desc)
-                       continue;
+       for_each_irq_desc(i, desc) {
                spin_lock_irq(&desc->lock);
                status = desc->status;
 
 int probe_irq_off(unsigned long val)
 {
        int i, irq_found = 0, nr_irqs = 0;
+       struct irq_desc *desc;
+       unsigned int status;
 
-       for (i = 0; i < nr_irqs; i++) {
-               struct irq_desc *desc = irq_to_desc(i);
-               unsigned int status;
-
-               if (!desc)
-                       continue;
+       for_each_irq_desc(i, desc) {
                spin_lock_irq(&desc->lock);
                status = desc->status;