unsigned int len, gfp_t gfp_mask)
 {
        unsigned long uaddr;
-       unsigned int alignment;
        struct bio *bio, *orig_bio;
        int reading, ret;
 
         * direct dma. else, set up kernel bounce buffers
         */
        uaddr = (unsigned long) ubuf;
-       alignment = queue_dma_alignment(q) | q->dma_pad_mask;
-       if (!(uaddr & alignment) && !(len & alignment) && !map_data)
+       if (blk_rq_aligned(q, ubuf, len) && !map_data)
                bio = bio_map_user(q, NULL, uaddr, len, reading, gfp_mask);
        else
                bio = bio_copy_user(q, map_data, uaddr, len, reading, gfp_mask);
 int blk_rq_map_kern(struct request_queue *q, struct request *rq, void *kbuf,
                    unsigned int len, gfp_t gfp_mask)
 {
-       unsigned long kaddr;
-       unsigned int alignment;
        int reading = rq_data_dir(rq) == READ;
        int do_copy = 0;
        struct bio *bio;
        if (!len || !kbuf)
                return -EINVAL;
 
-       kaddr = (unsigned long)kbuf;
-       alignment = queue_dma_alignment(q) | q->dma_pad_mask;
-       do_copy = ((kaddr & alignment) || (len & alignment) ||
-                  object_is_on_stack(kbuf));
-
+       do_copy = !blk_rq_aligned(q, kbuf, len) || object_is_on_stack(kbuf);
        if (do_copy)
                bio = bio_copy_kern(q, kbuf, len, gfp_mask, reading);
        else
 
        return q ? q->dma_alignment : 511;
 }
 
+static inline int blk_rq_aligned(struct request_queue *q, void *addr,
+                                unsigned int len)
+{
+       unsigned int alignment = queue_dma_alignment(q) | q->dma_pad_mask;
+       return !((unsigned long)addr & alignment) && !(len & alignment);
+}
+
 /* assumes size > 256 */
 static inline unsigned int blksize_bits(unsigned int size)
 {