if (buf) {
                BUG_ON(buf->size != size);
+               BUG_ON(buf->direction != dir);
 
                dev_dbg(dev,
                        "%s: unsafe buffer %p (dma=%#x) mapped to %p (dma=%#x)\n",
        dev_dbg(dev, "%s(ptr=%p,size=%d,dir=%x)\n",
                __func__, ptr, size, dir);
 
-       BUG_ON(dir == DMA_NONE);
+       BUG_ON(!valid_dma_direction(dir));
 
        return map_single(dev, ptr, size, dir);
 }
        dev_dbg(dev, "%s(page=%p,off=%#lx,size=%zx,dir=%x)\n",
                __func__, page, offset, size, dir);
 
-       BUG_ON(dir == DMA_NONE);
+       BUG_ON(!valid_dma_direction(dir));
 
        return map_single(dev, page_address(page) + offset, size, dir);
 }
        dev_dbg(dev, "%s(ptr=%p,size=%d,dir=%x)\n",
                __func__, (void *) dma_addr, size, dir);
 
-       BUG_ON(dir == DMA_NONE);
-
        unmap_single(dev, dma_addr, size, dir);
 }
 EXPORT_SYMBOL(dma_unmap_single);
        if (!buf)
                return 1;
 
+       BUG_ON(buf->direction != dir);
+
        dev_dbg(dev, "%s: unsafe buffer %p (dma=%#x) mapped to %p (dma=%#x)\n",
                __func__, buf->ptr, virt_to_dma(dev, buf->ptr),
                buf->safe, buf->safe_dma_addr);
        if (!buf)
                return 1;
 
+       BUG_ON(buf->direction != dir);
+
        dev_dbg(dev, "%s: unsafe buffer %p (dma=%#x) mapped to %p (dma=%#x)\n",
                __func__, buf->ptr, virt_to_dma(dev, buf->ptr),
                buf->safe, buf->safe_dma_addr);
 
 static inline dma_addr_t dma_map_single(struct device *dev, void *cpu_addr,
                size_t size, enum dma_data_direction dir)
 {
+       BUG_ON(!valid_dma_direction(dir));
+
        if (!arch_is_coherent())
                dma_cache_maint(cpu_addr, size, dir);
 
 static inline dma_addr_t dma_map_page(struct device *dev, struct page *page,
             unsigned long offset, size_t size, enum dma_data_direction dir)
 {
+       BUG_ON(!valid_dma_direction(dir));
+
        if (!arch_is_coherent())
                dma_cache_maint(page_address(page) + offset, size, dir);
 
                dma_addr_t handle, unsigned long offset, size_t size,
                enum dma_data_direction dir)
 {
+       BUG_ON(!valid_dma_direction(dir));
+
        if (!dmabounce_sync_for_cpu(dev, handle, offset, size, dir))
                return;
 
                dma_addr_t handle, unsigned long offset, size_t size,
                enum dma_data_direction dir)
 {
+       BUG_ON(!valid_dma_direction(dir));
+
        if (!dmabounce_sync_for_device(dev, handle, offset, size, dir))
                return;