}
 }
 
-static void rmap_write_protect(struct kvm_vcpu *vcpu, u64 gfn)
+static void rmap_write_protect(struct kvm *kvm, u64 gfn)
 {
        struct kvm_rmap_desc *desc;
        unsigned long *rmapp;
        u64 *spte;
 
-       gfn = unalias_gfn(vcpu->kvm, gfn);
-       rmapp = gfn_to_rmap(vcpu->kvm, gfn);
+       gfn = unalias_gfn(kvm, gfn);
+       rmapp = gfn_to_rmap(kvm, gfn);
 
        while (*rmapp) {
                if (!(*rmapp & 1))
                BUG_ON(!(*spte & PT_PRESENT_MASK));
                BUG_ON(!(*spte & PT_WRITABLE_MASK));
                rmap_printk("rmap_write_protect: spte %p %llx\n", spte, *spte);
-               rmap_remove(vcpu->kvm, spte);
+               rmap_remove(kvm, spte);
                set_shadow_pte(spte, *spte & ~PT_WRITABLE_MASK);
-               kvm_flush_remote_tlbs(vcpu->kvm);
+               kvm_flush_remote_tlbs(kvm);
        }
 }
 
        hlist_add_head(&page->hash_link, bucket);
        vcpu->mmu.prefetch_page(vcpu, page);
        if (!metaphysical)
-               rmap_write_protect(vcpu, gfn);
+               rmap_write_protect(vcpu->kvm, gfn);
        return page;
 }
 
        __set_bit(slot, &page_head->slot_bitmap);
 }
 
-hpa_t safe_gpa_to_hpa(struct kvm_vcpu *vcpu, gpa_t gpa)
+hpa_t safe_gpa_to_hpa(struct kvm *kvm, gpa_t gpa)
 {
-       hpa_t hpa = gpa_to_hpa(vcpu, gpa);
+       hpa_t hpa = gpa_to_hpa(kvm, gpa);
 
        return is_error_hpa(hpa) ? bad_page_address | (gpa & ~PAGE_MASK): hpa;
 }
 
-hpa_t gpa_to_hpa(struct kvm_vcpu *vcpu, gpa_t gpa)
+hpa_t gpa_to_hpa(struct kvm *kvm, gpa_t gpa)
 {
        struct page *page;
 
        ASSERT((gpa & HPA_ERR_MASK) == 0);
-       page = gfn_to_page(vcpu->kvm, gpa >> PAGE_SHIFT);
+       page = gfn_to_page(kvm, gpa >> PAGE_SHIFT);
        if (!page)
                return gpa | HPA_ERR_MASK;
        return ((hpa_t)page_to_pfn(page) << PAGE_SHIFT)
 
        if (gpa == UNMAPPED_GVA)
                return UNMAPPED_GVA;
-       return gpa_to_hpa(vcpu, gpa);
+       return gpa_to_hpa(vcpu->kvm, gpa);
 }
 
 struct page *gva_to_page(struct kvm_vcpu *vcpu, gva_t gva)
 
        if (gpa == UNMAPPED_GVA)
                return NULL;
-       return pfn_to_page(gpa_to_hpa(vcpu, gpa) >> PAGE_SHIFT);
+       return pfn_to_page(gpa_to_hpa(vcpu->kvm, gpa) >> PAGE_SHIFT);
 }
 
 static void nonpaging_new_cr3(struct kvm_vcpu *vcpu)
        ASSERT(VALID_PAGE(vcpu->mmu.root_hpa));
 
 
-       paddr = gpa_to_hpa(vcpu , addr & PT64_BASE_ADDR_MASK);
+       paddr = gpa_to_hpa(vcpu->kvm, addr & PT64_BASE_ADDR_MASK);
 
        if (is_error_hpa(paddr))
                return 1;
 
        pgprintk("%s: table_gfn[%d] %lx\n", __FUNCTION__,
                 walker->level - 1, table_gfn);
        slot = gfn_to_memslot(vcpu->kvm, table_gfn);
-       hpa = safe_gpa_to_hpa(vcpu, root & PT64_BASE_ADDR_MASK);
+       hpa = safe_gpa_to_hpa(vcpu->kvm, root & PT64_BASE_ADDR_MASK);
        walker->page = pfn_to_page(hpa >> PAGE_SHIFT);
        walker->table = kmap_atomic(walker->page, KM_USER0);
 
                walker->inherited_ar &= walker->table[index];
                table_gfn = (*ptep & PT_BASE_ADDR_MASK) >> PAGE_SHIFT;
                kunmap_atomic(walker->table, KM_USER0);
-               paddr = safe_gpa_to_hpa(vcpu, table_gfn << PAGE_SHIFT);
+               paddr = safe_gpa_to_hpa(vcpu->kvm, table_gfn << PAGE_SHIFT);
                walker->page = pfn_to_page(paddr >> PAGE_SHIFT);
                walker->table = kmap_atomic(walker->page, KM_USER0);
                --walker->level;
        if (!dirty)
                access_bits &= ~PT_WRITABLE_MASK;
 
-       paddr = gpa_to_hpa(vcpu, gaddr & PT64_BASE_ADDR_MASK);
+       paddr = gpa_to_hpa(vcpu->kvm, gaddr & PT64_BASE_ADDR_MASK);
 
        spte |= PT_PRESENT_MASK;
        if (access_bits & PT_USER_MASK)