]> git.karo-electronics.de Git - karo-tx-linux.git/blobdiff - fs/btrfs/extent_map.c
Btrfs: Add writepages support
[karo-tx-linux.git] / fs / btrfs / extent_map.c
index c0f834563cedb54f36958e72ddf973b70bbb99e6..b0677c84bb751fb7a0838860117fe74c61274d5c 100644 (file)
@@ -10,6 +10,7 @@
 #include <linux/blkdev.h>
 #include <linux/swap.h>
 #include <linux/version.h>
+#include <linux/writeback.h>
 #include "extent_map.h"
 
 /* temporary define until extent_map moves out of btrfs */
@@ -35,6 +36,12 @@ struct tree_entry {
        struct rb_node rb_node;
 };
 
+struct extent_page_data {
+       struct bio *bio;
+       struct extent_map_tree *tree;
+       get_extent_t *get_extent;
+};
+
 void __init extent_map_init(void)
 {
        extent_map_cache = btrfs_cache_create("extent_map",
@@ -263,7 +270,12 @@ int add_extent_mapping(struct extent_map_tree *tree,
                if (prev && prev->end + 1 == em->start &&
                    ((em->block_start == EXTENT_MAP_HOLE &&
                      prev->block_start == EXTENT_MAP_HOLE) ||
-                            (em->block_start == prev->block_end + 1))) {
+                    (em->block_start == EXTENT_MAP_INLINE &&
+                     prev->block_start == EXTENT_MAP_INLINE) ||
+                    (em->block_start == EXTENT_MAP_DELALLOC &&
+                     prev->block_start == EXTENT_MAP_DELALLOC) ||
+                    (em->block_start < EXTENT_MAP_DELALLOC - 1 &&
+                     em->block_start == prev->block_end + 1))) {
                        em->start = prev->start;
                        em->block_start = prev->block_start;
                        rb_erase(&prev->rb_node, &tree->map);
@@ -1039,6 +1051,8 @@ search_again:
                        if (state->state & EXTENT_LOCKED) {
                                DEFINE_WAIT(wait);
                                atomic_inc(&state->refs);
+                               prepare_to_wait(&state->wq, &wait,
+                                               TASK_UNINTERRUPTIBLE);
                                write_unlock_irq(&tree->lock);
                                schedule();
                                write_lock_irq(&tree->lock);
@@ -1054,7 +1068,7 @@ search_again:
                node = rb_next(node);
                if (!node)
                        break;
-               total_bytes = state->end - state->start + 1;
+               total_bytes += state->end - state->start + 1;
                if (total_bytes >= max_bytes)
                        break;
        }
@@ -1229,7 +1243,7 @@ EXPORT_SYMBOL(test_range_bit);
 static int check_page_uptodate(struct extent_map_tree *tree,
                               struct page *page)
 {
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 end = start + PAGE_CACHE_SIZE - 1;
        if (test_range_bit(tree, start, end, EXTENT_UPTODATE, 1))
                SetPageUptodate(page);
@@ -1243,7 +1257,7 @@ static int check_page_uptodate(struct extent_map_tree *tree,
 static int check_page_locked(struct extent_map_tree *tree,
                             struct page *page)
 {
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 end = start + PAGE_CACHE_SIZE - 1;
        if (!test_range_bit(tree, start, end, EXTENT_LOCKED, 0))
                unlock_page(page);
@@ -1257,7 +1271,7 @@ static int check_page_locked(struct extent_map_tree *tree,
 static int check_page_writeback(struct extent_map_tree *tree,
                             struct page *page)
 {
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 end = start + PAGE_CACHE_SIZE - 1;
        if (!test_range_bit(tree, start, end, EXTENT_WRITEBACK, 0))
                end_page_writeback(page);
@@ -1296,7 +1310,8 @@ static int end_bio_extent_writepage(struct bio *bio,
 
        do {
                struct page *page = bvec->bv_page;
-               start = (page->index << PAGE_CACHE_SHIFT) + bvec->bv_offset;
+               start = ((u64)page->index << PAGE_CACHE_SHIFT) +
+                        bvec->bv_offset;
                end = start + bvec->bv_len - 1;
 
                if (bvec->bv_offset == 0 && bvec->bv_len == PAGE_CACHE_SIZE)
@@ -1361,7 +1376,8 @@ static int end_bio_extent_readpage(struct bio *bio,
 
        do {
                struct page *page = bvec->bv_page;
-               start = (page->index << PAGE_CACHE_SHIFT) + bvec->bv_offset;
+               start = ((u64)page->index << PAGE_CACHE_SHIFT) +
+                       bvec->bv_offset;
                end = start + bvec->bv_len - 1;
 
                if (bvec->bv_offset == 0 && bvec->bv_len == PAGE_CACHE_SIZE)
@@ -1427,7 +1443,8 @@ static int end_bio_extent_preparewrite(struct bio *bio,
 
        do {
                struct page *page = bvec->bv_page;
-               start = (page->index << PAGE_CACHE_SHIFT) + bvec->bv_offset;
+               start = ((u64)page->index << PAGE_CACHE_SHIFT) +
+                       bvec->bv_offset;
                end = start + bvec->bv_len - 1;
 
                if (--bvec >= bio->bi_io_vec)
@@ -1450,40 +1467,76 @@ static int end_bio_extent_preparewrite(struct bio *bio,
 #endif
 }
 
-static int submit_extent_page(int rw, struct extent_map_tree *tree,
-                             struct page *page, sector_t sector,
-                             size_t size, unsigned long offset,
-                             struct block_device *bdev,
-                             bio_end_io_t end_io_func)
+static struct bio *
+extent_bio_alloc(struct block_device *bdev, u64 first_sector, int nr_vecs,
+                gfp_t gfp_flags)
 {
        struct bio *bio;
-       int ret = 0;
-
-       bio = bio_alloc(GFP_NOIO, 1);
 
-       bio->bi_sector = sector;
-       bio->bi_bdev = bdev;
-       bio->bi_io_vec[0].bv_page = page;
-       bio->bi_io_vec[0].bv_len = size;
-       bio->bi_io_vec[0].bv_offset = offset;
+       bio = bio_alloc(gfp_flags, nr_vecs);
 
-       bio->bi_vcnt = 1;
-       bio->bi_idx = 0;
-       bio->bi_size = size;
+       if (bio == NULL && (current->flags & PF_MEMALLOC)) {
+               while (!bio && (nr_vecs /= 2))
+                       bio = bio_alloc(gfp_flags, nr_vecs);
+       }
 
-       bio->bi_end_io = end_io_func;
-       bio->bi_private = tree;
+       if (bio) {
+               bio->bi_bdev = bdev;
+               bio->bi_sector = first_sector;
+       }
+       return bio;
+}
 
+static int submit_one_bio(int rw, struct bio *bio)
+{
+       int ret = 0;
        bio_get(bio);
        submit_bio(rw, bio);
-
        if (bio_flagged(bio, BIO_EOPNOTSUPP))
                ret = -EOPNOTSUPP;
-
        bio_put(bio);
        return ret;
 }
 
+static int submit_extent_page(int rw, struct extent_map_tree *tree,
+                             struct page *page, sector_t sector,
+                             size_t size, unsigned long offset,
+                             struct block_device *bdev,
+                             struct bio **bio_ret,
+                             int max_pages,
+                             bio_end_io_t end_io_func)
+{
+       int ret = 0;
+       struct bio *bio;
+       int nr;
+
+       if (bio_ret && *bio_ret) {
+               bio = *bio_ret;
+               if (bio->bi_sector + (bio->bi_size >> 9) != sector ||
+                   bio_add_page(bio, page, size, offset) < size) {
+                       ret = submit_one_bio(rw, bio);
+                       bio = NULL;
+               } else {
+                       return 0;
+               }
+       }
+       nr = min(max_pages, bio_get_nr_vecs(bdev));
+       bio = extent_bio_alloc(bdev, sector, nr, GFP_NOFS | __GFP_HIGH);
+       if (!bio) {
+               printk("failed to allocate bio nr %d\n", nr);
+       }
+       bio_add_page(bio, page, size, offset);
+       bio->bi_end_io = end_io_func;
+       bio->bi_private = tree;
+       if (bio_ret) {
+               *bio_ret = bio;
+       } else {
+               ret = submit_one_bio(rw, bio);
+       }
+
+       return ret;
+}
+
 void set_page_extent_mapped(struct page *page)
 {
        if (!PagePrivate(page)) {
@@ -1503,7 +1556,7 @@ int extent_read_full_page(struct extent_map_tree *tree, struct page *page,
                          get_extent_t *get_extent)
 {
        struct inode *inode = page->mapping->host;
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 page_end = start + PAGE_CACHE_SIZE - 1;
        u64 end;
        u64 cur = start;
@@ -1580,7 +1633,8 @@ int extent_read_full_page(struct extent_map_tree *tree, struct page *page,
                if (!ret) {
                        ret = submit_extent_page(READ, tree, page,
                                                 sector, iosize, page_offset,
-                                                bdev, end_bio_extent_readpage);
+                                                bdev, NULL, 1,
+                                                end_bio_extent_readpage);
                }
                if (ret)
                        SetPageError(page);
@@ -1603,25 +1657,26 @@ EXPORT_SYMBOL(extent_read_full_page);
  * are found, they are marked writeback.  Then the lock bits are removed
  * and the end_io handler clears the writeback ranges
  */
-int extent_write_full_page(struct extent_map_tree *tree, struct page *page,
-                         get_extent_t *get_extent,
-                         struct writeback_control *wbc)
+static int __extent_writepage(struct page *page, struct writeback_control *wbc,
+                             void *data)
 {
        struct inode *inode = page->mapping->host;
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       struct extent_page_data *epd = data;
+       struct extent_map_tree *tree = epd->tree;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 page_end = start + PAGE_CACHE_SIZE - 1;
        u64 end;
        u64 cur = start;
        u64 extent_offset;
        u64 last_byte = i_size_read(inode);
        u64 block_start;
+       u64 iosize;
        sector_t sector;
        struct extent_map *em;
        struct block_device *bdev;
        int ret;
        int nr = 0;
        size_t page_offset = 0;
-       size_t iosize;
        size_t blocksize;
        loff_t i_size = i_size_read(inode);
        unsigned long end_index = i_size >> PAGE_CACHE_SHIFT;
@@ -1681,7 +1736,7 @@ int extent_write_full_page(struct extent_map_tree *tree, struct page *page,
                        clear_extent_dirty(tree, cur, page_end, GFP_NOFS);
                        break;
                }
-               em = get_extent(inode, page, page_offset, cur, end, 0);
+               em = epd->get_extent(inode, page, page_offset, cur, end, 1);
                if (IS_ERR(em) || !em) {
                        SetPageError(page);
                        break;
@@ -1724,9 +1779,12 @@ int extent_write_full_page(struct extent_map_tree *tree, struct page *page,
                if (ret)
                        SetPageError(page);
                else {
+                       unsigned long nr = end_index + 1;
                        set_range_writeback(tree, cur, cur + iosize - 1);
+
                        ret = submit_extent_page(WRITE, tree, page, sector,
                                                 iosize, page_offset, bdev,
+                                                &epd->bio, nr,
                                                 end_bio_extent_writepage);
                        if (ret)
                                SetPageError(page);
@@ -1740,8 +1798,44 @@ done:
        unlock_page(page);
        return 0;
 }
+
+int extent_write_full_page(struct extent_map_tree *tree, struct page *page,
+                         get_extent_t *get_extent,
+                         struct writeback_control *wbc)
+{
+       int ret;
+       struct extent_page_data epd = {
+               .bio = NULL,
+               .tree = tree,
+               .get_extent = get_extent,
+       };
+
+       ret = __extent_writepage(page, wbc, &epd);
+       if (epd.bio)
+               submit_one_bio(WRITE, epd.bio);
+       return ret;
+}
 EXPORT_SYMBOL(extent_write_full_page);
 
+int extent_writepages(struct extent_map_tree *tree,
+                     struct address_space *mapping,
+                     get_extent_t *get_extent,
+                     struct writeback_control *wbc)
+{
+       int ret;
+       struct extent_page_data epd = {
+               .bio = NULL,
+               .tree = tree,
+               .get_extent = get_extent,
+       };
+
+       ret = write_cache_pages(mapping, wbc, __extent_writepage, &epd);
+       if (epd.bio)
+               submit_one_bio(WRITE, epd.bio);
+       return ret;
+}
+EXPORT_SYMBOL(extent_writepages);
+
 /*
  * basic invalidatepage code, this waits on any locked or writeback
  * ranges corresponding to the page, and then deletes any extent state
@@ -1750,7 +1844,7 @@ EXPORT_SYMBOL(extent_write_full_page);
 int extent_invalidatepage(struct extent_map_tree *tree,
                          struct page *page, unsigned long offset)
 {
-       u64 start = (page->index << PAGE_CACHE_SHIFT);
+       u64 start = ((u64)page->index << PAGE_CACHE_SHIFT);
        u64 end = start + PAGE_CACHE_SIZE - 1;
        size_t blocksize = page->mapping->host->i_sb->s_blocksize;
 
@@ -1792,7 +1886,7 @@ int extent_prepare_write(struct extent_map_tree *tree,
                         struct inode *inode, struct page *page,
                         unsigned from, unsigned to, get_extent_t *get_extent)
 {
-       u64 page_start = page->index << PAGE_CACHE_SHIFT;
+       u64 page_start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 page_end = page_start + PAGE_CACHE_SIZE - 1;
        u64 block_start;
        u64 orig_block_start;
@@ -1859,6 +1953,7 @@ int extent_prepare_write(struct extent_map_tree *tree,
                                       EXTENT_LOCKED, 0, NULL, GFP_NOFS);
                        ret = submit_extent_page(READ, tree, page,
                                         sector, iosize, page_offset, em->bdev,
+                                        NULL, 1,
                                         end_bio_extent_preparewrite);
                        iocount++;
                        block_start = block_start + iosize;
@@ -1890,7 +1985,7 @@ EXPORT_SYMBOL(extent_prepare_write);
 int try_release_extent_mapping(struct extent_map_tree *tree, struct page *page)
 {
        struct extent_map *em;
-       u64 start = page->index << PAGE_CACHE_SHIFT;
+       u64 start = (u64)page->index << PAGE_CACHE_SHIFT;
        u64 end = start + PAGE_CACHE_SIZE - 1;
        u64 orig_start = start;
        int ret = 1;
@@ -1924,6 +2019,7 @@ sector_t extent_bmap(struct address_space *mapping, sector_t iblock,
        struct inode *inode = mapping->host;
        u64 start = iblock << inode->i_blkbits;
        u64 end = start + (1 << inode->i_blkbits) - 1;
+       sector_t sector = 0;
        struct extent_map *em;
 
        em = get_extent(inode, NULL, 0, start, end, 0);
@@ -1932,9 +2028,12 @@ sector_t extent_bmap(struct address_space *mapping, sector_t iblock,
 
        if (em->block_start == EXTENT_MAP_INLINE ||
            em->block_start == EXTENT_MAP_HOLE)
-               return 0;
+               goto out;
 
-       return (em->block_start + start - em->start) >> inode->i_blkbits;
+       sector = (em->block_start + start - em->start) >> inode->i_blkbits;
+out:
+       free_extent_map(em);
+       return sector;
 }
 
 static int add_lru(struct extent_map_tree *tree, struct extent_buffer *eb)
@@ -1986,12 +2085,15 @@ static inline struct page *extent_buffer_page(struct extent_buffer *eb,
                                              unsigned long i)
 {
        struct page *p;
+       struct address_space *mapping;
 
        if (i == 0)
                return eb->first_page;
        i += eb->start >> PAGE_CACHE_SHIFT;
-       p = find_get_page(eb->first_page->mapping, i);
-       page_cache_release(p);
+       mapping = eb->first_page->mapping;
+       read_lock_irq(&mapping->tree_lock);
+       p = radix_tree_lookup(&mapping->page_tree, i);
+       read_unlock_irq(&mapping->tree_lock);
        return p;
 }
 
@@ -2042,7 +2144,7 @@ struct extent_buffer *alloc_extent_buffer(struct extent_map_tree *tree,
        struct extent_buffer *eb;
        struct page *p;
        struct address_space *mapping = tree->mapping;
-       int uptodate = 0;
+       int uptodate = 1;
 
        eb = __alloc_extent_buffer(tree, start, len, mask);
        if (!eb || IS_ERR(eb))
@@ -2194,8 +2296,8 @@ int clear_extent_buffer_dirty(struct extent_map_tree *tree,
                 */
                if ((i == 0 && (eb->start & (PAGE_CACHE_SIZE - 1))) ||
                    ((i == num_pages - 1) &&
-                    ((eb->start + eb->len - 1) & (PAGE_CACHE_SIZE - 1)))) {
-                       start = page->index << PAGE_CACHE_SHIFT;
+                    ((eb->start + eb->len) & (PAGE_CACHE_SIZE - 1)))) {
+                       start = (u64)page->index << PAGE_CACHE_SHIFT;
                        end  = start + PAGE_CACHE_SIZE - 1;
                        if (test_range_bit(tree, start, end,
                                           EXTENT_DIRTY, 0)) {
@@ -2262,7 +2364,7 @@ int set_extent_buffer_uptodate(struct extent_map_tree *tree,
                page = extent_buffer_page(eb, i);
                if ((i == 0 && (eb->start & (PAGE_CACHE_SIZE - 1))) ||
                    ((i == num_pages - 1) &&
-                    ((eb->start + eb->len - 1) & (PAGE_CACHE_SIZE - 1)))) {
+                    ((eb->start + eb->len) & (PAGE_CACHE_SIZE - 1)))) {
                        check_page_uptodate(tree, page);
                        continue;
                }
@@ -2365,9 +2467,7 @@ void read_extent_buffer(struct extent_buffer *eb, void *dstv,
        WARN_ON(start > eb->len);
        WARN_ON(start + len > eb->start + eb->len);
 
-       offset = start & ((unsigned long)PAGE_CACHE_SIZE - 1);
-       if (i == 0)
-               offset += start_offset;
+       offset = (start_offset + start) & ((unsigned long)PAGE_CACHE_SIZE - 1);
 
        while(len > 0) {
                page = extent_buffer_page(eb, i);
@@ -2378,9 +2478,9 @@ void read_extent_buffer(struct extent_buffer *eb, void *dstv,
                WARN_ON(!PageUptodate(page));
 
                cur = min(len, (PAGE_CACHE_SIZE - offset));
-               kaddr = kmap_atomic(page, KM_USER0);
+               kaddr = kmap_atomic(page, KM_USER1);
                memcpy(dst, kaddr + offset, cur);
-               kunmap_atomic(kaddr, KM_USER0);
+               kunmap_atomic(kaddr, KM_USER1);
 
                dst += cur;
                len -= cur;
@@ -2400,7 +2500,7 @@ int map_private_extent_buffer(struct extent_buffer *eb, unsigned long start,
        struct page *p;
        size_t start_offset = eb->start & ((u64)PAGE_CACHE_SIZE - 1);
        unsigned long i = (start_offset + start) >> PAGE_CACHE_SHIFT;
-       unsigned long end_i = (start_offset + start + min_len) >>
+       unsigned long end_i = (start_offset + start + min_len - 1) >>
                PAGE_CACHE_SHIFT;
 
        if (i != end_i)
@@ -2413,7 +2513,7 @@ int map_private_extent_buffer(struct extent_buffer *eb, unsigned long start,
                offset = 0;
                *map_start = (i << PAGE_CACHE_SHIFT) - start_offset;
        }
-       if (start + min_len >= eb->len) {
+       if (start + min_len > eb->len) {
 printk("bad mapping eb start %Lu len %lu, wanted %lu %lu\n", eb->start, eb->len, start, min_len);
                WARN_ON(1);
        }
@@ -2475,9 +2575,7 @@ int memcmp_extent_buffer(struct extent_buffer *eb, const void *ptrv,
        WARN_ON(start > eb->len);
        WARN_ON(start + len > eb->start + eb->len);
 
-       offset = start & ((unsigned long)PAGE_CACHE_SIZE - 1);
-       if (i == 0)
-               offset += start_offset;
+       offset = (start_offset + start) & ((unsigned long)PAGE_CACHE_SIZE - 1);
 
        while(len > 0) {
                page = extent_buffer_page(eb, i);
@@ -2514,18 +2612,16 @@ void write_extent_buffer(struct extent_buffer *eb, const void *srcv,
        WARN_ON(start > eb->len);
        WARN_ON(start + len > eb->start + eb->len);
 
-       offset = start & ((unsigned long)PAGE_CACHE_SIZE - 1);
-       if (i == 0)
-               offset += start_offset;
+       offset = (start_offset + start) & ((unsigned long)PAGE_CACHE_SIZE - 1);
 
        while(len > 0) {
                page = extent_buffer_page(eb, i);
                WARN_ON(!PageUptodate(page));
 
                cur = min(len, PAGE_CACHE_SIZE - offset);
-               kaddr = kmap_atomic(page, KM_USER0);
+               kaddr = kmap_atomic(page, KM_USER1);
                memcpy(kaddr + offset, src, cur);
-               kunmap_atomic(kaddr, KM_USER0);
+               kunmap_atomic(kaddr, KM_USER1);
 
                src += cur;
                len -= cur;
@@ -2548,9 +2644,7 @@ void memset_extent_buffer(struct extent_buffer *eb, char c,
        WARN_ON(start > eb->len);
        WARN_ON(start + len > eb->start + eb->len);
 
-       offset = start & ((unsigned long)PAGE_CACHE_SIZE - 1);
-       if (i == 0)
-               offset += start_offset;
+       offset = (start_offset + start) & ((unsigned long)PAGE_CACHE_SIZE - 1);
 
        while(len > 0) {
                page = extent_buffer_page(eb, i);
@@ -2582,9 +2676,8 @@ void copy_extent_buffer(struct extent_buffer *dst, struct extent_buffer *src,
 
        WARN_ON(src->len != dst_len);
 
-       offset = dst_offset & ((unsigned long)PAGE_CACHE_SIZE - 1);
-       if (i == 0)
-               offset += start_offset;
+       offset = (start_offset + dst_offset) &
+               ((unsigned long)PAGE_CACHE_SIZE - 1);
 
        while(len > 0) {
                page = extent_buffer_page(dst, i);
@@ -2592,9 +2685,9 @@ void copy_extent_buffer(struct extent_buffer *dst, struct extent_buffer *src,
 
                cur = min(len, (unsigned long)(PAGE_CACHE_SIZE - offset));
 
-               kaddr = kmap_atomic(page, KM_USER1);
+               kaddr = kmap_atomic(page, KM_USER0);
                read_extent_buffer(src, kaddr + offset, src_offset, cur);
-               kunmap_atomic(kaddr, KM_USER1);
+               kunmap_atomic(kaddr, KM_USER0);
 
                src_offset += cur;
                len -= cur;
@@ -2664,19 +2757,14 @@ void memcpy_extent_buffer(struct extent_buffer *dst, unsigned long dst_offset,
        }
 
        while(len > 0) {
-               dst_off_in_page = dst_offset &
+               dst_off_in_page = (start_offset + dst_offset) &
                        ((unsigned long)PAGE_CACHE_SIZE - 1);
-               src_off_in_page = src_offset &
+               src_off_in_page = (start_offset + src_offset) &
                        ((unsigned long)PAGE_CACHE_SIZE - 1);
 
                dst_i = (start_offset + dst_offset) >> PAGE_CACHE_SHIFT;
                src_i = (start_offset + src_offset) >> PAGE_CACHE_SHIFT;
 
-               if (src_i == 0)
-                       src_off_in_page += start_offset;
-               if (dst_i == 0)
-                       dst_off_in_page += start_offset;
-
                cur = min(len, (unsigned long)(PAGE_CACHE_SIZE -
                                               src_off_in_page));
                cur = min_t(unsigned long, cur,
@@ -2723,14 +2811,10 @@ void memmove_extent_buffer(struct extent_buffer *dst, unsigned long dst_offset,
                dst_i = (start_offset + dst_end) >> PAGE_CACHE_SHIFT;
                src_i = (start_offset + src_end) >> PAGE_CACHE_SHIFT;
 
-               dst_off_in_page = dst_end &
+               dst_off_in_page = (start_offset + dst_end) &
                        ((unsigned long)PAGE_CACHE_SIZE - 1);
-               src_off_in_page = src_end &
+               src_off_in_page = (start_offset + src_end) &
                        ((unsigned long)PAGE_CACHE_SIZE - 1);
-               if (src_i == 0)
-                       src_off_in_page += start_offset;
-               if (dst_i == 0)
-                       dst_off_in_page += start_offset;
 
                cur = min_t(unsigned long, len, src_off_in_page + 1);
                cur = min(cur, dst_off_in_page + 1);