u64 address, size_t size)
 {
        int s = 0;
-       unsigned pages = iommu_num_pages(address, size);
+       unsigned pages = iommu_nr_pages(address, size);
 
        address &= PAGE_MASK;
 
        if (iommu->exclusion_start &&
            iommu->exclusion_start < dma_dom->aperture_size) {
                unsigned long startpage = iommu->exclusion_start >> PAGE_SHIFT;
-               int pages = iommu_num_pages(iommu->exclusion_start,
+               int pages = iommu_nr_pages(iommu->exclusion_start,
                                            iommu->exclusion_length);
                dma_ops_reserve_addresses(dma_dom, startpage, pages);
        }
        unsigned long align_mask = 0;
        int i;
 
-       pages = iommu_num_pages(paddr, size);
+       pages = iommu_nr_pages(paddr, size);
        paddr &= PAGE_MASK;
 
        if (align)
        if ((dma_addr == 0) || (dma_addr + size > dma_dom->aperture_size))
                return;
 
-       pages = iommu_num_pages(dma_addr, size);
+       pages = iommu_nr_pages(dma_addr, size);
        dma_addr &= PAGE_MASK;
        start = dma_addr;
 
 
        pci_swiotlb_init();
 }
 
-unsigned long iommu_num_pages(unsigned long addr, unsigned long len)
+unsigned long iommu_nr_pages(unsigned long addr, unsigned long len)
 {
        unsigned long size = roundup((addr & ~PAGE_MASK) + len, PAGE_SIZE);
 
        return size >> PAGE_SHIFT;
 }
-EXPORT_SYMBOL(iommu_num_pages);
+EXPORT_SYMBOL(iommu_nr_pages);
 #endif
 
 void *dma_generic_alloc_coherent(struct device *dev, size_t size,
 
 static dma_addr_t dma_map_area(struct device *dev, dma_addr_t phys_mem,
                                size_t size, int dir, unsigned long align_mask)
 {
-       unsigned long npages = iommu_num_pages(phys_mem, size);
+       unsigned long npages = iommu_nr_pages(phys_mem, size);
        unsigned long iommu_page = alloc_iommu(dev, npages, align_mask);
        int i;
 
                return;
 
        iommu_page = (dma_addr - iommu_bus_base)>>PAGE_SHIFT;
-       npages = iommu_num_pages(dma_addr, size);
+       npages = iommu_nr_pages(dma_addr, size);
        for (i = 0; i < npages; i++) {
                iommu_gatt_base[iommu_page + i] = gart_unmapped_entry;
                CLEAR_LEAK(iommu_page + i);
                }
 
                addr = phys_addr;
-               pages = iommu_num_pages(s->offset, s->length);
+               pages = iommu_nr_pages(s->offset, s->length);
                while (pages--) {
                        iommu_gatt_base[iommu_page] = GPTE_ENCODE(addr);
                        SET_LEAK(iommu_page);
 
                seg_size += s->length;
                need = nextneed;
-               pages += iommu_num_pages(s->offset, s->length);
+               pages += iommu_nr_pages(s->offset, s->length);
                ps = s;
        }
        if (dma_map_cont(dev, start_sg, i - start, sgmap, pages, need) < 0)
 
 extern int iommu_detected;
 extern int dmar_disabled;
 
-extern unsigned long iommu_num_pages(unsigned long addr, unsigned long len);
+extern unsigned long iommu_nr_pages(unsigned long addr, unsigned long len);
 
 #ifdef CONFIG_GART_IOMMU
 extern int gart_iommu_aperture;