]> git.karo-electronics.de Git - karo-tx-linux.git/commitdiff
powerpc/mm: Switch some TASK_SIZE checks to use mm_context addr_limit
authorAneesh Kumar K.V <aneesh.kumar@linux.vnet.ibm.com>
Wed, 22 Mar 2017 03:37:01 +0000 (09:07 +0530)
committerMichael Ellerman <mpe@ellerman.id.au>
Sat, 1 Apr 2017 10:12:28 +0000 (21:12 +1100)
Signed-off-by: Aneesh Kumar K.V <aneesh.kumar@linux.vnet.ibm.com>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
arch/powerpc/mm/hugetlbpage-radix.c
arch/powerpc/mm/mmap.c
arch/powerpc/mm/slice.c
arch/powerpc/mm/subpage-prot.c

index 35254a6784561b6f5f70399822cb163f8e59b14d..95207c117b8213ebab89c2b8079c440d77917d78 100644 (file)
@@ -52,7 +52,7 @@ radix__hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
 
        if (len & ~huge_page_mask(h))
                return -EINVAL;
-       if (len > TASK_SIZE)
+       if (len > mm->context.addr_limit)
                return -ENOMEM;
 
        if (flags & MAP_FIXED) {
@@ -64,7 +64,7 @@ radix__hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
        if (addr) {
                addr = ALIGN(addr, huge_page_size(h));
                vma = find_vma(mm, addr);
-               if (TASK_SIZE - len >= addr &&
+               if (mm->context.addr_limit - len >= addr &&
                    (!vma || addr + len <= vma->vm_start))
                        return addr;
        }
index a5d9ef59debe25a4920c71ddf25ca6f09202220c..6e9fead92969c38222ba0e1b54e7473d0a5bc7a2 100644 (file)
@@ -97,7 +97,7 @@ radix__arch_get_unmapped_area(struct file *filp, unsigned long addr,
        struct vm_area_struct *vma;
        struct vm_unmapped_area_info info;
 
-       if (len > TASK_SIZE - mmap_min_addr)
+       if (len > mm->context.addr_limit - mmap_min_addr)
                return -ENOMEM;
 
        if (flags & MAP_FIXED)
@@ -106,7 +106,7 @@ radix__arch_get_unmapped_area(struct file *filp, unsigned long addr,
        if (addr) {
                addr = PAGE_ALIGN(addr);
                vma = find_vma(mm, addr);
-               if (TASK_SIZE - len >= addr && addr >= mmap_min_addr &&
+               if (mm->context.addr_limit - len >= addr && addr >= mmap_min_addr &&
                    (!vma || addr + len <= vma->vm_start))
                        return addr;
        }
@@ -114,7 +114,7 @@ radix__arch_get_unmapped_area(struct file *filp, unsigned long addr,
        info.flags = 0;
        info.length = len;
        info.low_limit = mm->mmap_base;
-       info.high_limit = TASK_SIZE;
+       info.high_limit = mm->context.addr_limit;
        info.align_mask = 0;
        return vm_unmapped_area(&info);
 }
@@ -132,7 +132,7 @@ radix__arch_get_unmapped_area_topdown(struct file *filp,
        struct vm_unmapped_area_info info;
 
        /* requested length too big for entire address space */
-       if (len > TASK_SIZE - mmap_min_addr)
+       if (len > mm->context.addr_limit - mmap_min_addr)
                return -ENOMEM;
 
        if (flags & MAP_FIXED)
@@ -142,7 +142,7 @@ radix__arch_get_unmapped_area_topdown(struct file *filp,
        if (addr) {
                addr = PAGE_ALIGN(addr);
                vma = find_vma(mm, addr);
-               if (TASK_SIZE - len >= addr && addr >= mmap_min_addr &&
+               if (mm->context.addr_limit - len >= addr && addr >= mmap_min_addr &&
                                (!vma || addr + len <= vma->vm_start))
                        return addr;
        }
@@ -164,7 +164,7 @@ radix__arch_get_unmapped_area_topdown(struct file *filp,
                VM_BUG_ON(addr != -ENOMEM);
                info.flags = 0;
                info.low_limit = TASK_UNMAPPED_BASE;
-               info.high_limit = TASK_SIZE;
+               info.high_limit = mm->context.addr_limit;
                addr = vm_unmapped_area(&info);
        }
 
index ded96edac8175e4144bfa5e5d5978ab5ab8909d8..19d8788820e12236ee77d26c2c4f71ad9d67c270 100644 (file)
@@ -277,7 +277,7 @@ static unsigned long slice_find_area_bottomup(struct mm_struct *mm,
        info.align_offset = 0;
 
        addr = TASK_UNMAPPED_BASE;
-       while (addr < TASK_SIZE) {
+       while (addr < mm->context.addr_limit) {
                info.low_limit = addr;
                if (!slice_scan_available(addr, available, 1, &addr))
                        continue;
@@ -289,8 +289,8 @@ static unsigned long slice_find_area_bottomup(struct mm_struct *mm,
                 * Check if we need to reduce the range, or if we can
                 * extend it to cover the next available slice.
                 */
-               if (addr >= TASK_SIZE)
-                       addr = TASK_SIZE;
+               if (addr >= mm->context.addr_limit)
+                       addr = mm->context.addr_limit;
                else if (slice_scan_available(addr, available, 1, &next_end)) {
                        addr = next_end;
                        goto next_slice;
index 94210940112f808311bcf263c968dd800d3cf7c2..a409f78d206bf47936a366ee05540441474e2342 100644 (file)
@@ -197,7 +197,8 @@ long sys_subpage_prot(unsigned long addr, unsigned long len, u32 __user *map)
 
        /* Check parameters */
        if ((addr & ~PAGE_MASK) || (len & ~PAGE_MASK) ||
-           addr >= TASK_SIZE || len >= TASK_SIZE || addr + len > TASK_SIZE)
+           addr >= mm->context.addr_limit || len >= mm->context.addr_limit ||
+           addr + len > mm->context.addr_limit)
                return -EINVAL;
 
        if (is_hugepage_only_range(mm, addr, len))