struct nlattr *tab);
 extern void qdisc_put_rtab(struct qdisc_rate_table *tab);
 
-extern void __qdisc_run(struct net_device *dev);
+extern void __qdisc_run(struct netdev_queue *txq);
 
-static inline void qdisc_run(struct net_device *dev)
+static inline void qdisc_run(struct netdev_queue *txq)
 {
+       struct net_device *dev = txq->dev;
+
        if (!netif_queue_stopped(dev) &&
            !test_and_set_bit(__LINK_STATE_QDISC_RUNNING, &dev->state))
-               __qdisc_run(dev);
+               __qdisc_run(txq);
 }
 
 extern int tc_classify_compat(struct sk_buff *skb, struct tcf_proto *tp,
 
        return 0;
 }
 
-static inline struct sk_buff *dev_dequeue_skb(struct net_device *dev,
-                                             struct netdev_queue *dev_queue,
-                                             struct Qdisc *q)
+static inline struct sk_buff *dequeue_skb(struct netdev_queue *dev_queue,
+                                         struct Qdisc *q)
 {
        struct sk_buff *skb;
 
 }
 
 static inline int handle_dev_cpu_collision(struct sk_buff *skb,
-                                          struct net_device *dev,
                                           struct netdev_queue *dev_queue,
                                           struct Qdisc *q)
 {
+       struct net_device *dev = dev_queue->dev;
        int ret;
 
        if (unlikely(dev->xmit_lock_owner == smp_processor_id())) {
  *                             >0 - queue is not empty.
  *
  */
-static inline int qdisc_restart(struct net_device *dev)
+static inline int qdisc_restart(struct netdev_queue *txq)
 {
-       struct netdev_queue *txq = &dev->tx_queue;
        struct Qdisc *q = txq->qdisc;
-       struct sk_buff *skb;
        int ret = NETDEV_TX_BUSY;
+       struct net_device *dev;
+       struct sk_buff *skb;
 
        /* Dequeue packet */
-       if (unlikely((skb = dev_dequeue_skb(dev, txq, q)) == NULL))
+       if (unlikely((skb = dequeue_skb(txq, q)) == NULL))
                return 0;
 
 
        /* And release queue */
        spin_unlock(&txq->lock);
 
+       dev = txq->dev;
+
        HARD_TX_LOCK(dev, smp_processor_id());
        if (!netif_subqueue_stopped(dev, skb))
                ret = dev_hard_start_xmit(skb, dev);
 
        case NETDEV_TX_LOCKED:
                /* Driver try lock failed */
-               ret = handle_dev_cpu_collision(skb, dev, txq, q);
+               ret = handle_dev_cpu_collision(skb, txq, q);
                break;
 
        default:
        return ret;
 }
 
-void __qdisc_run(struct net_device *dev)
+void __qdisc_run(struct netdev_queue *txq)
 {
+       struct net_device *dev = txq->dev;
        unsigned long start_time = jiffies;
 
-       while (qdisc_restart(dev)) {
+       while (qdisc_restart(txq)) {
                if (netif_queue_stopped(dev))
                        break;
 
                 * 2. we've been doing it for too long.
                 */
                if (need_resched() || jiffies != start_time) {
-                       netif_schedule_queue(&dev->tx_queue);
+                       netif_schedule_queue(txq);
                        break;
                }
        }