]> pilppa.org Git - linux-2.6-omap-h63xx.git/blobdiff - block/cfq-iosched.c
[PATCH] orinoco: orinoco_xmit() should only return valid symbolic constants
[linux-2.6-omap-h63xx.git] / block / cfq-iosched.c
index bb43a1677626b0ab98b2ff9ebabdb0a995a9fee0..2540dfaa3e385def27a44284bf3e552f986ee15d 100644 (file)
@@ -26,18 +26,12 @@ static const int cfq_back_penalty = 2;              /* penalty of a backwards seek */
 static const int cfq_slice_sync = HZ / 10;
 static int cfq_slice_async = HZ / 25;
 static const int cfq_slice_async_rq = 2;
-static int cfq_slice_idle = HZ / 100;
+static int cfq_slice_idle = HZ / 70;
 
 #define CFQ_IDLE_GRACE         (HZ / 10)
 #define CFQ_SLICE_SCALE                (5)
 
 #define CFQ_KEY_ASYNC          (0)
-#define CFQ_KEY_ANY            (0xffff)
-
-/*
- * disable queueing at the driver/hardware level
- */
-static const int cfq_max_depth = 2;
 
 static DEFINE_RWLOCK(cfq_exit_lock);
 
@@ -102,6 +96,8 @@ static struct completion *ioc_gone;
 #define cfq_cfqq_sync(cfqq)            \
        (cfq_cfqq_class_sync(cfqq) || (cfqq)->on_dispatch[SYNC])
 
+#define sample_valid(samples)  ((samples) > 80)
+
 /*
  * Per block device queue structure
  */
@@ -170,7 +166,6 @@ struct cfq_data {
        unsigned int cfq_slice[2];
        unsigned int cfq_slice_async_rq;
        unsigned int cfq_slice_idle;
-       unsigned int cfq_max_depth;
 
        struct list_head cic_list;
 };
@@ -343,17 +338,27 @@ static int cfq_queue_empty(request_queue_t *q)
        return !cfqd->busy_queues;
 }
 
+static inline pid_t cfq_queue_pid(struct task_struct *task, int rw)
+{
+       if (rw == READ || process_sync(task))
+               return task->pid;
+
+       return CFQ_KEY_ASYNC;
+}
+
 /*
  * Lifted from AS - choose which of crq1 and crq2 that is best served now.
  * We choose the request that is closest to the head right now. Distance
- * behind the head are penalized and only allowed to a certain extent.
+ * behind the head is penalized and only allowed to a certain extent.
  */
 static struct cfq_rq *
 cfq_choose_req(struct cfq_data *cfqd, struct cfq_rq *crq1, struct cfq_rq *crq2)
 {
        sector_t last, s1, s2, d1 = 0, d2 = 0;
-       int r1_wrap = 0, r2_wrap = 0;   /* requests are behind the disk head */
        unsigned long back_max;
+#define CFQ_RQ1_WRAP   0x01 /* request 1 wraps */
+#define CFQ_RQ2_WRAP   0x02 /* request 2 wraps */
+       unsigned wrap = 0; /* bit mask: requests behind the disk head? */
 
        if (crq1 == NULL || crq1 == crq2)
                return crq2;
@@ -385,35 +390,47 @@ cfq_choose_req(struct cfq_data *cfqd, struct cfq_rq *crq1, struct cfq_rq *crq2)
        else if (s1 + back_max >= last)
                d1 = (last - s1) * cfqd->cfq_back_penalty;
        else
-               r1_wrap = 1;
+               wrap |= CFQ_RQ1_WRAP;
 
        if (s2 >= last)
                d2 = s2 - last;
        else if (s2 + back_max >= last)
                d2 = (last - s2) * cfqd->cfq_back_penalty;
        else
-               r2_wrap = 1;
+               wrap |= CFQ_RQ2_WRAP;
 
        /* Found required data */
-       if (!r1_wrap && r2_wrap)
-               return crq1;
-       else if (!r2_wrap && r1_wrap)
-               return crq2;
-       else if (r1_wrap && r2_wrap) {
-               /* both behind the head */
-               if (s1 <= s2)
+
+       /*
+        * By doing switch() on the bit mask "wrap" we avoid having to
+        * check two variables for all permutations: --> faster!
+        */
+       switch (wrap) {
+       case 0: /* common case for CFQ: crq1 and crq2 not wrapped */
+               if (d1 < d2)
                        return crq1;
-               else
+               else if (d2 < d1)
                        return crq2;
-       }
+               else {
+                       if (s1 >= s2)
+                               return crq1;
+                       else
+                               return crq2;
+               }
 
-       /* Both requests in front of the head */
-       if (d1 < d2)
+       case CFQ_RQ2_WRAP:
                return crq1;
-       else if (d2 < d1)
+       case CFQ_RQ1_WRAP:
                return crq2;
-       else {
-               if (s1 >= s2)
+       case (CFQ_RQ1_WRAP|CFQ_RQ2_WRAP): /* both crqs wrapped */
+       default:
+               /*
+                * Since both rqs are wrapped,
+                * start with the one that's further behind head
+                * (--> only *one* back seek required),
+                * since back seek takes more time than forward.
+                */
+               if (s1 <= s2)
                        return crq1;
                else
                        return crq2;
@@ -612,15 +629,20 @@ cfq_reposition_crq_rb(struct cfq_queue *cfqq, struct cfq_rq *crq)
        cfq_add_crq_rb(crq);
 }
 
-static struct request *cfq_find_rq_rb(struct cfq_data *cfqd, sector_t sector)
-
+static struct request *
+cfq_find_rq_fmerge(struct cfq_data *cfqd, struct bio *bio)
 {
-       struct cfq_queue *cfqq = cfq_find_cfq_hash(cfqd, current->pid, CFQ_KEY_ANY);
+       struct task_struct *tsk = current;
+       pid_t key = cfq_queue_pid(tsk, bio_data_dir(bio));
+       struct cfq_queue *cfqq;
        struct rb_node *n;
+       sector_t sector;
 
+       cfqq = cfq_find_cfq_hash(cfqd, key, tsk->ioprio);
        if (!cfqq)
                goto out;
 
+       sector = bio->bi_sector + bio_sectors(bio);
        n = cfqq->sort_list.rb_node;
        while (n) {
                struct cfq_rq *crq = rb_entry_crq(n);
@@ -674,7 +696,7 @@ cfq_merge(request_queue_t *q, struct request **req, struct bio *bio)
                goto out;
        }
 
-       __rq = cfq_find_rq_rb(cfqd, bio->bi_sector + bio_sectors(bio));
+       __rq = cfq_find_rq_fmerge(cfqd, bio);
        if (__rq && elv_rq_merge_ok(__rq, bio)) {
                ret = ELEVATOR_FRONT_MERGE;
                goto out;
@@ -877,6 +899,7 @@ static struct cfq_queue *cfq_set_active_queue(struct cfq_data *cfqd)
 static int cfq_arm_slice_timer(struct cfq_data *cfqd, struct cfq_queue *cfqq)
 
 {
+       struct cfq_io_context *cic;
        unsigned long sl;
 
        WARN_ON(!RB_EMPTY(&cfqq->sort_list));
@@ -892,13 +915,23 @@ static int cfq_arm_slice_timer(struct cfq_data *cfqd, struct cfq_queue *cfqq)
        /*
         * task has exited, don't wait
         */
-       if (cfqd->active_cic && !cfqd->active_cic->ioc->task)
+       cic = cfqd->active_cic;
+       if (!cic || !cic->ioc->task)
                return 0;
 
        cfq_mark_cfqq_must_dispatch(cfqq);
        cfq_mark_cfqq_wait_request(cfqq);
 
        sl = min(cfqq->slice_end - 1, (unsigned long) cfqd->cfq_slice_idle);
+
+       /*
+        * we don't want to idle for seeks, but we do want to allow
+        * fair distribution of slice time for a process doing back-to-back
+        * seeks. so allow a little bit of time for him to submit a new rq
+        */
+       if (sample_valid(cic->seek_samples) && cic->seek_mean > 131072)
+               sl = 2;
+
        mod_timer(&cfqd->idle_slice_timer, jiffies + sl);
        return 1;
 }
@@ -1115,13 +1148,6 @@ cfq_dispatch_requests(request_queue_t *q, int force)
        if (cfqq) {
                int max_dispatch;
 
-               /*
-                * if idle window is disabled, allow queue buildup
-                */
-               if (!cfq_cfqq_idle_window(cfqq) &&
-                   cfqd->rq_in_driver >= cfqd->cfq_max_depth)
-                       return 0;
-
                cfq_clear_cfqq_must_dispatch(cfqq);
                cfq_clear_cfqq_wait_request(cfqq);
                del_timer(&cfqd->idle_slice_timer);
@@ -1171,13 +1197,13 @@ __cfq_find_cfq_hash(struct cfq_data *cfqd, unsigned int key, unsigned int prio,
                    const int hashval)
 {
        struct hlist_head *hash_list = &cfqd->cfq_hash[hashval];
-       struct hlist_node *entry, *next;
+       struct hlist_node *entry;
+       struct cfq_queue *__cfqq;
 
-       hlist_for_each_safe(entry, next, hash_list) {
-               struct cfq_queue *__cfqq = list_entry_qhash(entry);
+       hlist_for_each_entry(__cfqq, entry, hash_list, cfq_hash) {
                const unsigned short __p = IOPRIO_PRIO_VALUE(__cfqq->org_ioprio_class, __cfqq->org_ioprio);
 
-               if (__cfqq->key == key && (__p == prio || prio == CFQ_KEY_ANY))
+               if (__cfqq->key == key && (__p == prio || !prio))
                        return __cfqq;
        }
 
@@ -1446,19 +1472,37 @@ out:
        return cfqq;
 }
 
+static void
+cfq_drop_dead_cic(struct io_context *ioc, struct cfq_io_context *cic)
+{
+       read_lock(&cfq_exit_lock);
+       rb_erase(&cic->rb_node, &ioc->cic_root);
+       read_unlock(&cfq_exit_lock);
+       kmem_cache_free(cfq_ioc_pool, cic);
+       atomic_dec(&ioc_count);
+}
+
 static struct cfq_io_context *
 cfq_cic_rb_lookup(struct cfq_data *cfqd, struct io_context *ioc)
 {
-       struct rb_node *n = ioc->cic_root.rb_node;
+       struct rb_node *n;
        struct cfq_io_context *cic;
-       void *key = cfqd;
+       void *k, *key = cfqd;
 
+restart:
+       n = ioc->cic_root.rb_node;
        while (n) {
                cic = rb_entry(n, struct cfq_io_context, rb_node);
+               /* ->key must be copied to avoid race with cfq_exit_queue() */
+               k = cic->key;
+               if (unlikely(!k)) {
+                       cfq_drop_dead_cic(ioc, cic);
+                       goto restart;
+               }
 
-               if (key < cic->key)
+               if (key < k)
                        n = n->rb_left;
-               else if (key > cic->key)
+               else if (key > k)
                        n = n->rb_right;
                else
                        return cic;
@@ -1471,29 +1515,37 @@ static inline void
 cfq_cic_link(struct cfq_data *cfqd, struct io_context *ioc,
             struct cfq_io_context *cic)
 {
-       struct rb_node **p = &ioc->cic_root.rb_node;
-       struct rb_node *parent = NULL;
+       struct rb_node **p;
+       struct rb_node *parent;
        struct cfq_io_context *__cic;
-
-       read_lock(&cfq_exit_lock);
+       void *k;
 
        cic->ioc = ioc;
        cic->key = cfqd;
 
        ioc->set_ioprio = cfq_ioc_set_ioprio;
-
+restart:
+       parent = NULL;
+       p = &ioc->cic_root.rb_node;
        while (*p) {
                parent = *p;
                __cic = rb_entry(parent, struct cfq_io_context, rb_node);
+               /* ->key must be copied to avoid race with cfq_exit_queue() */
+               k = __cic->key;
+               if (unlikely(!k)) {
+                       cfq_drop_dead_cic(ioc, cic);
+                       goto restart;
+               }
 
-               if (cic->key < __cic->key)
+               if (cic->key < k)
                        p = &(*p)->rb_left;
-               else if (cic->key > __cic->key)
+               else if (cic->key > k)
                        p = &(*p)->rb_right;
                else
                        BUG();
        }
 
+       read_lock(&cfq_exit_lock);
        rb_link_node(&cic->rb_node, parent, p);
        rb_insert_color(&cic->rb_node, &ioc->cic_root);
        list_add(&cic->queue_list, &cfqd->cic_list);
@@ -1558,7 +1610,33 @@ cfq_update_io_thinktime(struct cfq_data *cfqd, struct cfq_io_context *cic)
        cic->ttime_mean = (cic->ttime_total + 128) / cic->ttime_samples;
 }
 
-#define sample_valid(samples)  ((samples) > 80)
+static void
+cfq_update_io_seektime(struct cfq_data *cfqd, struct cfq_io_context *cic,
+                      struct cfq_rq *crq)
+{
+       sector_t sdist;
+       u64 total;
+
+       if (cic->last_request_pos < crq->request->sector)
+               sdist = crq->request->sector - cic->last_request_pos;
+       else
+               sdist = cic->last_request_pos - crq->request->sector;
+
+       /*
+        * Don't allow the seek distance to get too large from the
+        * odd fragment, pagein, etc
+        */
+       if (cic->seek_samples <= 60) /* second&third seek */
+               sdist = min(sdist, (cic->seek_mean * 4) + 2*1024*1024);
+       else
+               sdist = min(sdist, (cic->seek_mean * 4) + 2*1024*64);
+
+       cic->seek_samples = (7*cic->seek_samples + 256) / 8;
+       cic->seek_total = (7*cic->seek_total + (u64)256*sdist) / 8;
+       total = cic->seek_total + (cic->seek_samples/2);
+       do_div(total, cic->seek_samples);
+       cic->seek_mean = (sector_t)total;
+}
 
 /*
  * Disable idle window if the process thinks too long or seeks so much that
@@ -1671,9 +1749,11 @@ cfq_crq_enqueued(struct cfq_data *cfqd, struct cfq_queue *cfqq,
        cic = crq->io_context;
 
        cfq_update_io_thinktime(cfqd, cic);
+       cfq_update_io_seektime(cfqd, cic, crq);
        cfq_update_idle_window(cfqd, cfqq, cic);
 
        cic->last_queue = jiffies;
+       cic->last_request_pos = crq->request->sector + crq->request->nr_sectors;
 
        if (cfqq == cfqd->active_queue) {
                /*
@@ -1806,14 +1886,6 @@ static void cfq_prio_boost(struct cfq_queue *cfqq)
                cfq_resort_rr_list(cfqq, 0);
 }
 
-static inline pid_t cfq_queue_pid(struct task_struct *task, int rw)
-{
-       if (rw == READ || process_sync(task))
-               return task->pid;
-
-       return CFQ_KEY_ASYNC;
-}
-
 static inline int
 __cfq_may_queue(struct cfq_data *cfqd, struct cfq_queue *cfqq,
                struct task_struct *task, int rw)
@@ -2212,7 +2284,6 @@ static int cfq_init_queue(request_queue_t *q, elevator_t *e)
        cfqd->cfq_slice[1] = cfq_slice_sync;
        cfqd->cfq_slice_async_rq = cfq_slice_async_rq;
        cfqd->cfq_slice_idle = cfq_slice_idle;
-       cfqd->cfq_max_depth = cfq_max_depth;
 
        return 0;
 out_crqpool:
@@ -2295,7 +2366,6 @@ SHOW_FUNCTION(cfq_slice_idle_show, cfqd->cfq_slice_idle, 1);
 SHOW_FUNCTION(cfq_slice_sync_show, cfqd->cfq_slice[1], 1);
 SHOW_FUNCTION(cfq_slice_async_show, cfqd->cfq_slice[0], 1);
 SHOW_FUNCTION(cfq_slice_async_rq_show, cfqd->cfq_slice_async_rq, 0);
-SHOW_FUNCTION(cfq_max_depth_show, cfqd->cfq_max_depth, 0);
 #undef SHOW_FUNCTION
 
 #define STORE_FUNCTION(__FUNC, __PTR, MIN, MAX, __CONV)                        \
@@ -2324,7 +2394,6 @@ STORE_FUNCTION(cfq_slice_idle_store, &cfqd->cfq_slice_idle, 0, UINT_MAX, 1);
 STORE_FUNCTION(cfq_slice_sync_store, &cfqd->cfq_slice[1], 1, UINT_MAX, 1);
 STORE_FUNCTION(cfq_slice_async_store, &cfqd->cfq_slice[0], 1, UINT_MAX, 1);
 STORE_FUNCTION(cfq_slice_async_rq_store, &cfqd->cfq_slice_async_rq, 1, UINT_MAX, 0);
-STORE_FUNCTION(cfq_max_depth_store, &cfqd->cfq_max_depth, 1, UINT_MAX, 0);
 #undef STORE_FUNCTION
 
 #define CFQ_ATTR(name) \
@@ -2341,7 +2410,6 @@ static struct elv_fs_entry cfq_attrs[] = {
        CFQ_ATTR(slice_async),
        CFQ_ATTR(slice_async_rq),
        CFQ_ATTR(slice_idle),
-       CFQ_ATTR(max_depth),
        __ATTR_NULL
 };
 
@@ -2397,9 +2465,10 @@ static void __exit cfq_exit(void)
        DECLARE_COMPLETION(all_gone);
        elv_unregister(&iosched_cfq);
        ioc_gone = &all_gone;
-       barrier();
+       /* ioc_gone's update must be visible before reading ioc_count */
+       smp_wmb();
        if (atomic_read(&ioc_count))
-               complete(ioc_gone);
+               wait_for_completion(ioc_gone);
        synchronize_rcu();
        cfq_slab_kill();
 }