]> git.karo-electronics.de Git - karo-tx-linux.git/commitdiff
mm: fix page-faults detection in swap-token logic
authorKonstantin Khlebnikov <khlebnikov@openvz.org>
Tue, 8 Nov 2011 00:20:14 +0000 (11:20 +1100)
committerStephen Rothwell <sfr@canb.auug.org.au>
Wed, 16 Nov 2011 01:47:04 +0000 (12:47 +1100)
After commit v2.6.36-5896-gd065bd8 "mm: retry page fault when blocking on
disk transfer" we usually wait in page-faults without mmap_sem held, so
all swap-token logic was broken, because it based on using
rwsem_is_locked(&mm->mmap_sem) as sign of in progress page-faults.

Add an atomic counter of in progress page-faults for mm to the mm_struct
with swap-token.

Signed-off-by: Konstantin Khlebnikov <khlebnikov@openvz.org>
Cc: Rik van Riel <riel@redhat.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
include/linux/mm_types.h
include/linux/swap.h
kernel/fork.c
mm/memory.c
mm/rmap.c

index 5b42f1b34eb74b59964f9a717d436cad44481c05..0b81d2667d9cde12bfd58eaa1fe293799967aa39 100644 (file)
@@ -355,6 +355,7 @@ struct mm_struct {
        unsigned int faultstamp;
        unsigned int token_priority;
        unsigned int last_interval;
+       atomic_t active_swap_token;
 
        unsigned long flags; /* Must use atomic bitops to access the bits */
 
index c02de0f3a0cbd284731f80badc0f54ec8a86c413..537102d32210c3cc3296419bd5e6bc693c1a97cf 100644 (file)
@@ -365,6 +365,26 @@ static inline void put_swap_token(struct mm_struct *mm)
                __put_swap_token(mm);
 }
 
+static inline bool has_active_swap_token(struct mm_struct *mm)
+{
+       return has_swap_token(mm) && atomic_read(&mm->active_swap_token);
+}
+
+static inline bool activate_swap_token(struct mm_struct *mm)
+{
+       if (has_swap_token(mm)) {
+               atomic_inc(&mm->active_swap_token);
+               return true;
+       }
+       return false;
+}
+
+static inline void deactivate_swap_token(struct mm_struct *mm, bool swap_token)
+{
+       if (swap_token)
+               atomic_dec(&mm->active_swap_token);
+}
+
 #ifdef CONFIG_CGROUP_MEM_RES_CTLR
 extern void
 mem_cgroup_uncharge_swapcache(struct page *page, swp_entry_t ent, bool swapout);
@@ -490,6 +510,20 @@ static inline int has_swap_token(struct mm_struct *mm)
        return 0;
 }
 
+static inline bool has_active_swap_token(struct mm_struct *mm)
+{
+       return false;
+}
+
+static inline bool activate_swap_token(struct mm_struct *mm)
+{
+       return false;
+}
+
+static inline void deactivate_swap_token(struct mm_struct *mm, bool swap_token)
+{
+}
+
 static inline void disable_swap_token(struct mem_cgroup *memcg)
 {
 }
index 2cf7755c3c514ad86c2780e90c051d19dcae52d3..b8060b90724f1fdb6706dcd7e050d933697a2efe 100644 (file)
@@ -734,6 +734,7 @@ struct mm_struct *dup_mm(struct task_struct *tsk)
        /* Initializing for Swap token stuff */
        mm->token_priority = 0;
        mm->last_interval = 0;
+       atomic_set(&mm->active_swap_token, 0);
 
 #ifdef CONFIG_TRANSPARENT_HUGEPAGE
        mm->pmd_huge_pte = NULL;
index 829d437354022959eeca37082f695e2ee73025ed..67c8a52c4117545c6caee1d13db94dcb8151613d 100644 (file)
@@ -2861,6 +2861,7 @@ static int do_swap_page(struct mm_struct *mm, struct vm_area_struct *vma,
        struct mem_cgroup *ptr;
        int exclusive = 0;
        int ret = 0;
+       bool swap_token;
 
        if (!pte_unmap_same(mm, pmd, page_table, orig_pte))
                goto out;
@@ -2909,7 +2910,12 @@ static int do_swap_page(struct mm_struct *mm, struct vm_area_struct *vma,
                goto out_release;
        }
 
+       swap_token = activate_swap_token(mm);
+
        locked = lock_page_or_retry(page, mm, flags);
+
+       deactivate_swap_token(mm, swap_token);
+
        delayacct_clear_flag(DELAYACCT_PF_SWAPIN);
        if (!locked) {
                ret |= VM_FAULT_RETRY;
@@ -3156,6 +3162,7 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
        struct vm_fault vmf;
        int ret;
        int page_mkwrite = 0;
+       bool swap_token;
 
        /*
         * If we do COW later, allocate page befor taking lock_page()
@@ -3177,6 +3184,8 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
        } else
                cow_page = NULL;
 
+       swap_token = activate_swap_token(mm);
+
        vmf.virtual_address = (void __user *)(address & PAGE_MASK);
        vmf.pgoff = pgoff;
        vmf.flags = flags;
@@ -3245,6 +3254,8 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
 
        }
 
+       deactivate_swap_token(mm, swap_token);
+
        page_table = pte_offset_map_lock(mm, pmd, address, &ptl);
 
        /*
@@ -3316,9 +3327,11 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
        return ret;
 
 unwritable_page:
+       deactivate_swap_token(mm, swap_token);
        page_cache_release(page);
        return ret;
 uncharge_out:
+       deactivate_swap_token(mm, swap_token);
        /* fs's fault handler get error */
        if (cow_page) {
                mem_cgroup_uncharge_page(cow_page);
index a4fd3680038be499a47cf747d1ba657646e5d36c..60aa349dbd2af456da603e6097a2efffb1beaf2b 100644 (file)
--- a/mm/rmap.c
+++ b/mm/rmap.c
@@ -715,8 +715,7 @@ int page_referenced_one(struct page *page, struct vm_area_struct *vma,
 
        /* Pretend the page is referenced if the task has the
           swap token and is in the middle of a page fault. */
-       if (mm != current->mm && has_swap_token(mm) &&
-                       rwsem_is_locked(&mm->mmap_sem))
+       if (mm != current->mm && has_active_swap_token(mm))
                referenced++;
 
        (*mapcount)--;