*/
 static void activate_task(struct rq *rq, struct task_struct *p, int wakeup)
 {
-       u64 now;
-
        update_rq_clock(rq);
-       now = rq->clock;
 
        if (p->state == TASK_UNINTERRUPTIBLE)
                rq->nr_uninterruptible--;
  */
 static inline void activate_idle_task(struct task_struct *p, struct rq *rq)
 {
-       u64 now;
-
        update_rq_clock(rq);
-       now = rq->clock;
 
        if (p->state == TASK_UNINTERRUPTIBLE)
                rq->nr_uninterruptible--;
        unsigned long flags;
        struct rq *rq;
        int this_cpu;
-       u64 now;
 
        rq = task_rq_lock(p, &flags);
        BUG_ON(p->state != TASK_RUNNING);
        this_cpu = smp_processor_id(); /* parent's CPU */
        update_rq_clock(rq);
-       now = rq->clock;
 
        p->prio = effective_prio(p);
 
        unsigned long total_load = this_rq->ls.load.weight;
        unsigned long this_load =  total_load;
        struct load_stat *ls = &this_rq->ls;
-       u64 now;
        int i, scale;
 
        __update_rq_clock(this_rq);
-       now = this_rq->clock;
 
        this_rq->nr_load_updates++;
        if (unlikely(!(sysctl_sched_features & SCHED_FEAT_PRECISE_CPU_LOAD)))
        struct task_struct *prev, *next;
        long *switch_count;
        struct rq *rq;
-       u64 now;
        int cpu;
 
 need_resched:
        spin_lock_irq(&rq->lock);
        clear_tsk_need_resched(prev);
        __update_rq_clock(rq);
-       now = rq->clock;
 
        if (prev->state && !(preempt_count() & PREEMPT_ACTIVE)) {
                if (unlikely((prev->state & TASK_INTERRUPTIBLE) &&
        unsigned long flags;
        int oldprio, on_rq;
        struct rq *rq;
-       u64 now;
 
        BUG_ON(prio < 0 || prio > MAX_PRIO);
 
        rq = task_rq_lock(p, &flags);
        update_rq_clock(rq);
-       now = rq->clock;
 
        oldprio = p->prio;
        on_rq = p->se.on_rq;
        int old_prio, delta, on_rq;
        unsigned long flags;
        struct rq *rq;
-       u64 now;
 
        if (TASK_NICE(p) == nice || nice < -20 || nice > 19)
                return;
         */
        rq = task_rq_lock(p, &flags);
        update_rq_clock(rq);
-       now = rq->clock;
        /*
         * The RT priorities are set via sched_setscheduler(), but we still
         * allow the 'normal' nice value to be set - but as expected
 
 {
        struct rq *rq = rq_of(cfs_rq);
        struct sched_entity *next;
-       u64 now;
 
        __update_rq_clock(rq);
-       now = rq->clock;
 
        /*
         * Dequeue and enqueue the task to update its
 static void yield_task_fair(struct rq *rq, struct task_struct *p)
 {
        struct cfs_rq *cfs_rq = task_cfs_rq(p);
-       u64 now;
 
        __update_rq_clock(rq);
-       now = rq->clock;
        /*
         * Dequeue and enqueue the task to update its
         * position within the tree:
 {
        struct task_struct *curr = rq->curr;
        struct sched_entity *se = &curr->se;
-       u64 now;
        struct cfs_rq *cfs_rq;
 
        update_rq_clock(rq);
-       now = rq->clock;
 
        for_each_sched_entity(se) {
                cfs_rq = cfs_rq_of(se);