struct wqicb wqicb;     /* structure used to inform chip of new queue */
        void *wq_base;          /* pci_alloc:virtual addr for tx */
        dma_addr_t wq_base_dma; /* pci_alloc:dma addr for tx */
-       u32 *cnsmr_idx_sh_reg;  /* shadow copy of consumer idx */
+       __le32 *cnsmr_idx_sh_reg;       /* shadow copy of consumer idx */
        dma_addr_t cnsmr_idx_sh_reg_dma;        /* dma-shadow copy of consumer */
        u32 wq_size;            /* size in bytes of queue area */
        u32 wq_len;             /* number of entries in queue */
        u32 cq_size;
        u32 cq_len;
        u16 cq_id;
-       volatile __le32 *prod_idx_sh_reg;       /* Shadowed producer register. */
+       __le32 *prod_idx_sh_reg;        /* Shadowed producer register. */
        dma_addr_t prod_idx_sh_reg_dma;
        void __iomem *cnsmr_idx_db_reg; /* PCI doorbell mem area + 0 */
        u32 cnsmr_idx;          /* current sw idx */
        mmiowb();
 }
 
+/*
+ * Shadow Registers:
+ * Outbound queues have a consumer index that is maintained by the chip.
+ * Inbound queues have a producer index that is maintained by the chip.
+ * For lower overhead, these registers are "shadowed" to host memory
+ * which allows the device driver to track the queue progress without
+ * PCI reads. When an entry is placed on an inbound queue, the chip will
+ * update the relevant index register and then copy the value to the
+ * shadow register in host memory.
+ */
+static inline u32 ql_read_sh_reg(__le32  *addr)
+{
+       u32 reg;
+       reg =  le32_to_cpu(*addr);
+       rmb();
+       return reg;
+}
+
 extern char qlge_driver_name[];
 extern const char qlge_driver_version[];
 extern const struct ethtool_ops qlge_ethtool_ops;
 
        printk(KERN_ERR PFX "tx_ring->base = %p.\n", tx_ring->wq_base);
        printk(KERN_ERR PFX "tx_ring->base_dma = 0x%llx.\n",
               (unsigned long long) tx_ring->wq_base_dma);
-       printk(KERN_ERR PFX "tx_ring->cnsmr_idx_sh_reg = %p.\n",
-              tx_ring->cnsmr_idx_sh_reg);
-       printk(KERN_ERR PFX "tx_ring->cnsmr_idx_sh_reg_dma = 0x%llx.\n",
-              (unsigned long long) tx_ring->cnsmr_idx_sh_reg_dma);
+       printk(KERN_ERR PFX
+              "tx_ring->cnsmr_idx_sh_reg, addr = 0x%p, value = %d.\n",
+              tx_ring->cnsmr_idx_sh_reg,
+              tx_ring->cnsmr_idx_sh_reg
+                       ? ql_read_sh_reg(tx_ring->cnsmr_idx_sh_reg) : 0);
        printk(KERN_ERR PFX "tx_ring->size = %d.\n", tx_ring->wq_size);
        printk(KERN_ERR PFX "tx_ring->len = %d.\n", tx_ring->wq_len);
        printk(KERN_ERR PFX "tx_ring->prod_idx_db_reg = %p.\n",
        printk(KERN_ERR PFX "rx_ring->cq_size = %d.\n", rx_ring->cq_size);
        printk(KERN_ERR PFX "rx_ring->cq_len = %d.\n", rx_ring->cq_len);
        printk(KERN_ERR PFX
-              "rx_ring->prod_idx_sh_reg, addr = %p, value = %d.\n",
+              "rx_ring->prod_idx_sh_reg, addr = 0x%p, value = %d.\n",
               rx_ring->prod_idx_sh_reg,
-              rx_ring->prod_idx_sh_reg ? *(rx_ring->prod_idx_sh_reg) : 0);
+              rx_ring->prod_idx_sh_reg
+                       ? ql_read_sh_reg(rx_ring->prod_idx_sh_reg) : 0);
        printk(KERN_ERR PFX "rx_ring->prod_idx_sh_reg_dma = %llx.\n",
               (unsigned long long) rx_ring->prod_idx_sh_reg_dma);
        printk(KERN_ERR PFX "rx_ring->cnsmr_idx_db_reg = %p.\n",
 
 static int ql_clean_outbound_rx_ring(struct rx_ring *rx_ring)
 {
        struct ql_adapter *qdev = rx_ring->qdev;
-       u32 prod = le32_to_cpu(*rx_ring->prod_idx_sh_reg);
+       u32 prod = ql_read_sh_reg(rx_ring->prod_idx_sh_reg);
        struct ob_mac_iocb_rsp *net_rsp = NULL;
        int count = 0;
 
                }
                count++;
                ql_update_cq(rx_ring);
-               prod = le32_to_cpu(*rx_ring->prod_idx_sh_reg);
+               prod = ql_read_sh_reg(rx_ring->prod_idx_sh_reg);
        }
        ql_write_cq_idx(rx_ring);
        if (netif_queue_stopped(qdev->ndev) && net_rsp != NULL) {
 static int ql_clean_inbound_rx_ring(struct rx_ring *rx_ring, int budget)
 {
        struct ql_adapter *qdev = rx_ring->qdev;
-       u32 prod = le32_to_cpu(*rx_ring->prod_idx_sh_reg);
+       u32 prod = ql_read_sh_reg(rx_ring->prod_idx_sh_reg);
        struct ql_net_rsp_iocb *net_rsp;
        int count = 0;
 
                }
                count++;
                ql_update_cq(rx_ring);
-               prod = le32_to_cpu(*rx_ring->prod_idx_sh_reg);
+               prod = ql_read_sh_reg(rx_ring->prod_idx_sh_reg);
                if (count == budget)
                        break;
        }
         * Check the default queue and wake handler if active.
         */
        rx_ring = &qdev->rx_ring[0];
-       if (le32_to_cpu(*rx_ring->prod_idx_sh_reg) != rx_ring->cnsmr_idx) {
+       if (ql_read_sh_reg(rx_ring->prod_idx_sh_reg) != rx_ring->cnsmr_idx) {
                QPRINTK(qdev, INTR, INFO, "Waking handler for rx_ring[0].\n");
                ql_disable_completion_interrupt(qdev, intr_context->intr);
                queue_delayed_work_on(smp_processor_id(), qdev->q_workqueue,
                 */
                for (i = 1; i < qdev->rx_ring_count; i++) {
                        rx_ring = &qdev->rx_ring[i];
-                       if (le32_to_cpu(*rx_ring->prod_idx_sh_reg) !=
+                       if (ql_read_sh_reg(rx_ring->prod_idx_sh_reg) !=
                            rx_ring->cnsmr_idx) {
                                QPRINTK(qdev, INTR, INFO,
                                        "Waking handler for rx_ring[%d].\n", i);