]> git.karo-electronics.de Git - karo-tx-linux.git/commitdiff
mm-introduce-new-field-managed_pages-to-struct-zone-fix
authorAndrew Morton <akpm@linux-foundation.org>
Thu, 29 Nov 2012 03:18:10 +0000 (14:18 +1100)
committerStephen Rothwell <sfr@canb.auug.org.au>
Wed, 5 Dec 2012 05:23:22 +0000 (16:23 +1100)
small comment tweaks

Cc: Jiang Liu <jiang.liu@huawei.com>
Cc: Jiang Liu <liuj97@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
include/linux/mmzone.h
mm/page_alloc.c

index 099963337762fa58c2787f4f3a64c0d9a386073d..32bc955a8d7d2657fff05d1c0bc9ea69e07a7255 100644 (file)
@@ -451,7 +451,7 @@ struct zone {
 
        /*
         * spanned_pages is the total pages spanned by the zone, including
-        * holes, which is calcualted as:
+        * holes, which is calculated as:
         *      spanned_pages = zone_end_pfn - zone_start_pfn;
         *
         * present_pages is physical pages existing within the zone, which
@@ -469,9 +469,9 @@ struct zone {
         * by page allocator and vm scanner to calculate all kinds of watermarks
         * and thresholds.
         *
-        * Lock Rules:
+        * Locking rules:
         *
-        * zone_start_pfn, spanned_pages are protected by span_seqlock.
+        * zone_start_pfn and spanned_pages are protected by span_seqlock.
         * It is a seqlock because it has to be read outside of zone->lock,
         * and it is done in the main allocator path.  But, it is written
         * quite infrequently.
@@ -480,7 +480,7 @@ struct zone {
         * frequently read in proximity to zone->lock.  It's good to
         * give them a chance of being in the same cacheline.
         *
-        * Writing access to present_pages and managed_pages at runtime should
+        * Write access to present_pages and managed_pages at runtime should
         * be protected by lock_memory_hotplug()/unlock_memory_hotplug().
         * Any reader who can't tolerant drift of present_pages and
         * managed_pages should hold memory hotplug lock to get a stable value.
index f736d4e77630e7f4fbab19992f290f88725d0fe1..0f945af223d2202c79059a632cd4033f79d546cb 100644 (file)
@@ -738,7 +738,7 @@ static void __free_pages_ok(struct page *page, unsigned int order)
  * Read access to zone->managed_pages is safe because it's unsigned long,
  * but we still need to serialize writers. Currently all callers of
  * __free_pages_bootmem() except put_page_bootmem() should only be used
- * at boot time. So for shorter boot time, we have shift the burden to
+ * at boot time. So for shorter boot time, we shift the burden to
  * put_page_bootmem() to serialize writers.
  */
 void __meminit __free_pages_bootmem(struct page *page, unsigned int order)