]> git.karo-electronics.de Git - linux-beck.git/commitdiff
mm: cma: adjust address limit to avoid hitting low/high memory boundary
authorMarek Szyprowski <m.szyprowski@samsung.com>
Thu, 9 Oct 2014 22:26:47 +0000 (15:26 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Fri, 10 Oct 2014 02:25:53 +0000 (22:25 -0400)
Russell King recently noticed that limiting default CMA region only to low
memory on ARM architecture causes serious memory management issues with
machines having a lot of memory (which is mainly available as high
memory).  More information can be found the following thread:
http://thread.gmane.org/gmane.linux.ports.arm.kernel/348441/

Those two patches removes this limit letting kernel to put default CMA
region into high memory when this is possible (there is enough high memory
available and architecture specific DMA limit fits).

This should solve strange OOM issues on systems with lots of RAM (i.e.
>1GiB) and large (>256M) CMA area.

This patch (of 2):

Automatically allocated regions should not cross low/high memory boundary,
because such regions cannot be later correctly initialized due to spanning
across two memory zones.  This patch adds a check for this case and a
simple code for moving region to low memory if automatically selected
address might not fit completely into high memory.

Signed-off-by: Marek Szyprowski <m.szyprowski@samsung.com>
Acked-by: Michal Nazarewicz <mina86@mina86.com>
Cc: Daniel Drake <drake@endlessm.com>
Cc: Minchan Kim <minchan@kernel.org>
Cc: Russell King <rmk@arm.linux.org.uk>
Cc: Joonsoo Kim <iamjoonsoo.kim@lge.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
mm/cma.c

index c17751c0dcafb95eda9f41e9cdc9ce101edbebed..474c644a0dc6deafea451935e6d44b72d5e1903e 100644 (file)
--- a/mm/cma.c
+++ b/mm/cma.c
@@ -32,6 +32,7 @@
 #include <linux/slab.h>
 #include <linux/log2.h>
 #include <linux/cma.h>
+#include <linux/highmem.h>
 
 struct cma {
        unsigned long   base_pfn;
@@ -163,6 +164,8 @@ int __init cma_declare_contiguous(phys_addr_t base,
                        bool fixed, struct cma **res_cma)
 {
        struct cma *cma;
+       phys_addr_t memblock_end = memblock_end_of_DRAM();
+       phys_addr_t highmem_start = __pa(high_memory);
        int ret = 0;
 
        pr_debug("%s(size %lx, base %08lx, limit %08lx alignment %08lx)\n",
@@ -196,6 +199,24 @@ int __init cma_declare_contiguous(phys_addr_t base,
        if (!IS_ALIGNED(size >> PAGE_SHIFT, 1 << order_per_bit))
                return -EINVAL;
 
+       /*
+        * adjust limit to avoid crossing low/high memory boundary for
+        * automatically allocated regions
+        */
+       if (((limit == 0 || limit > memblock_end) &&
+            (memblock_end - size < highmem_start &&
+             memblock_end > highmem_start)) ||
+           (!fixed && limit > highmem_start && limit - size < highmem_start)) {
+               limit = highmem_start;
+       }
+
+       if (fixed && base < highmem_start && base+size > highmem_start) {
+               ret = -EINVAL;
+               pr_err("Region at %08lx defined on low/high memory boundary (%08lx)\n",
+                       (unsigned long)base, (unsigned long)highmem_start);
+               goto err;
+       }
+
        /* Reserve memory */
        if (base && fixed) {
                if (memblock_is_region_reserved(base, size) ||