no_cache_flush:
 
-       if (mp->tlb_frozen)
+       if (mp->fullmm)
                return;
 
        nr = mp->tlb_nr;
        unsigned long nr = mp->tlb_nr;
        long s = start, e = end, vpte_base;
 
-       if (mp->tlb_frozen)
+       if (mp->fullmm)
                return;
 
        /* If start is greater than end, that is a real problem.  */
 
        put_cpu_var(mmu_gathers);
 }
 
-static inline unsigned int tlb_is_full_mm(struct mmu_gather *tlb)
-{
-       return tlb->fullmm;
-}
-
 #define tlb_remove_tlb_entry(tlb,ptep,address) do { } while (0)
 
 /*
 
         put_cpu_var(mmu_gathers);
 }
 
-
-static inline unsigned int
-tlb_is_full_mm(struct mmu_gather *tlb)
-{
-     return tlb->fullmm;
-}
-
 #define tlb_remove_tlb_entry(tlb,ptep,address)  do { } while (0)
 //#define tlb_start_vma(tlb,vma)                  do { } while (0)
 //FIXME - ARM32 uses this now that things changed in the kernel. seems like it may be pointless on arm26, however to get things compiling...
 
        put_cpu_var(mmu_gathers);
 }
 
-static inline unsigned int
-tlb_is_full_mm(struct mmu_gather *tlb)
-{
-       return tlb->fullmm;
-}
-
 /* tlb_remove_page
  *     Must perform the equivalent to __free_pte(pte_get_and_clear(ptep)), while
  *     handling the additional races in SMP caused by other CPUs caching valid
 
        put_cpu_var(mmu_gathers);
 }
 
-static inline unsigned int
-tlb_is_full_mm(struct mmu_gather *tlb)
-{
-     return tlb->fullmm;
-}
-
 /*
  * Logically, this routine frees PAGE.  On MP machines, the actual freeing of the page
  * must be delayed until after the TLB has been flushed (see comments at the beginning of
 
        struct mm_struct *mm;
        unsigned int pages_nr;
        unsigned int need_flush;
-       unsigned int tlb_frozen;
+       unsigned int fullmm;
        unsigned int tlb_nr;
        unsigned long freed;
        unsigned long vaddrs[TLB_BATCH_NR];
 
        mp->mm = mm;
        mp->pages_nr = num_online_cpus() > 1 ? 0U : ~0U;
-       mp->tlb_frozen = full_mm_flush;
+       mp->fullmm = full_mm_flush;
        mp->freed = 0;
 
        return mp;
 
        tlb_flush_mmu(mp);
 
-       if (mp->tlb_frozen) {
+       if (mp->fullmm) {
                if (CTX_VALID(mm->context))
                        do_flush_tlb_mm(mm);
-               mp->tlb_frozen = 0;
+               mp->fullmm = 0;
        } else
                flush_tlb_pending();
 
        put_cpu_var(mmu_gathers);
 }
 
-static inline unsigned int tlb_is_full_mm(struct mmu_gather *mp)
-{
-       return mp->tlb_frozen;
-}
-
 static inline void tlb_remove_page(struct mmu_gather *mp, struct page *page)
 {
        mp->need_flush = 1;
 
                free_pud_range(*tlb, pgd, addr, next, floor, ceiling);
        } while (pgd++, addr = next, addr != end);
 
-       if (!tlb_is_full_mm(*tlb))
+       if (!(*tlb)->fullmm)
                flush_tlb_pgtables((*tlb)->mm, start, end);
 }
 
        int tlb_start_valid = 0;
        unsigned long start = start_addr;
        spinlock_t *i_mmap_lock = details? details->i_mmap_lock: NULL;
-       int fullmm = tlb_is_full_mm(*tlbp);
+       int fullmm = (*tlbp)->fullmm;
 
        for ( ; vma && vma->vm_start < end_addr; vma = vma->vm_next) {
                unsigned long end;