]> git.karo-electronics.de Git - karo-tx-linux.git/commitdiff
fanotify: fix races when adding/removing marks
authorLino Sanfilippo <LinoSanfilippo@gmx.de>
Wed, 19 Jun 2013 00:05:29 +0000 (10:05 +1000)
committerStephen Rothwell <sfr@canb.auug.org.au>
Wed, 19 Jun 2013 07:12:43 +0000 (17:12 +1000)
For both adding an event to an existing mark and destroying a mark we
first have to find it via fsnotify_find_[inode|vfsmount]_mark().  But
getting the mark and adding an event (or destroying it) is not done
atomically.  This opens a race where a thread is about to destroy a mark
while another thread still finds the same mark and adds an event to its
mask although it will be destroyed.

Another race exists concerning the excess of a groups number of marks
limit: When a mark is added the number of group marks is checked against
the max number of marks per group and increased afterwards.  Since check
and increment is also not done atomically, this may result in 2 or more
processes passing the check at the same time and increasing the number of
group marks above the allowed limit.

With this patch both races are avoided by doing the concerning operations
with the groups mark mutex locked.

Signed-off-by: Lino Sanfilippo <LinoSanfilippo@gmx.de>
Cc: Eric Paris <eparis@redhat.com>
Cc: Al Viro <viro@zeniv.linux.org.uk>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
fs/notify/fanotify/fanotify_user.c

index 77cc85dd0db01f1ead504e96e8f521d11eeb8af4..7b5a06af24573e2645dc7175a5e961875cadb18d 100644 (file)
@@ -527,14 +527,18 @@ static int fanotify_remove_vfsmount_mark(struct fsnotify_group *group,
        __u32 removed;
        int destroy_mark;
 
+       mutex_lock(&group->mark_mutex);
        fsn_mark = fsnotify_find_vfsmount_mark(group, mnt);
-       if (!fsn_mark)
+       if (!fsn_mark) {
+               mutex_unlock(&group->mark_mutex);
                return -ENOENT;
+       }
 
        removed = fanotify_mark_remove_from_mask(fsn_mark, mask, flags,
                                                 &destroy_mark);
        if (destroy_mark)
-               fsnotify_destroy_mark(fsn_mark, group);
+               fsnotify_destroy_mark_locked(fsn_mark, group);
+       mutex_unlock(&group->mark_mutex);
 
        fsnotify_put_mark(fsn_mark);
        if (removed & real_mount(mnt)->mnt_fsnotify_mask)
@@ -551,14 +555,19 @@ static int fanotify_remove_inode_mark(struct fsnotify_group *group,
        __u32 removed;
        int destroy_mark;
 
+       mutex_lock(&group->mark_mutex);
        fsn_mark = fsnotify_find_inode_mark(group, inode);
-       if (!fsn_mark)
+       if (!fsn_mark) {
+               mutex_unlock(&group->mark_mutex);
                return -ENOENT;
+       }
 
        removed = fanotify_mark_remove_from_mask(fsn_mark, mask, flags,
                                                 &destroy_mark);
        if (destroy_mark)
-               fsnotify_destroy_mark(fsn_mark, group);
+               fsnotify_destroy_mark_locked(fsn_mark, group);
+       mutex_unlock(&group->mark_mutex);
+
        /* matches the fsnotify_find_inode_mark() */
        fsnotify_put_mark(fsn_mark);
        if (removed & inode->i_fsnotify_mask)
@@ -602,21 +611,29 @@ static int fanotify_add_vfsmount_mark(struct fsnotify_group *group,
        __u32 added;
        int ret = 0;
 
+       mutex_lock(&group->mark_mutex);
        fsn_mark = fsnotify_find_vfsmount_mark(group, mnt);
        if (!fsn_mark) {
-               if (atomic_read(&group->num_marks) > group->fanotify_data.max_marks)
+               if (atomic_read(&group->num_marks) > group->fanotify_data.max_marks) {
+                       mutex_unlock(&group->mark_mutex);
                        return -ENOSPC;
+               }
 
                fsn_mark = kmem_cache_alloc(fanotify_mark_cache, GFP_KERNEL);
-               if (!fsn_mark)
+               if (!fsn_mark) {
+                       mutex_unlock(&group->mark_mutex);
                        return -ENOMEM;
+               }
 
                fsnotify_init_mark(fsn_mark, fanotify_free_mark);
-               ret = fsnotify_add_mark(fsn_mark, group, NULL, mnt, 0);
-               if (ret)
+               ret = fsnotify_add_mark_locked(fsn_mark, group, NULL, mnt, 0);
+               if (ret) {
+                       mutex_unlock(&group->mark_mutex);
                        goto err;
+               }
        }
        added = fanotify_mark_add_to_mask(fsn_mark, mask, flags);
+       mutex_unlock(&group->mark_mutex);
 
        if (added & ~real_mount(mnt)->mnt_fsnotify_mask)
                fsnotify_recalc_vfsmount_mask(mnt);
@@ -645,21 +662,29 @@ static int fanotify_add_inode_mark(struct fsnotify_group *group,
            (atomic_read(&inode->i_writecount) > 0))
                return 0;
 
+       mutex_lock(&group->mark_mutex);
        fsn_mark = fsnotify_find_inode_mark(group, inode);
        if (!fsn_mark) {
-               if (atomic_read(&group->num_marks) > group->fanotify_data.max_marks)
+               if (atomic_read(&group->num_marks) > group->fanotify_data.max_marks) {
+                       mutex_unlock(&group->mark_mutex);
                        return -ENOSPC;
+               }
 
                fsn_mark = kmem_cache_alloc(fanotify_mark_cache, GFP_KERNEL);
-               if (!fsn_mark)
+               if (!fsn_mark) {
+                       mutex_unlock(&group->mark_mutex);
                        return -ENOMEM;
+               }
 
                fsnotify_init_mark(fsn_mark, fanotify_free_mark);
-               ret = fsnotify_add_mark(fsn_mark, group, inode, NULL, 0);
-               if (ret)
+               ret = fsnotify_add_mark_locked(fsn_mark, group, inode, NULL, 0);
+               if (ret) {
+                       mutex_unlock(&group->mark_mutex);
                        goto err;
+               }
        }
        added = fanotify_mark_add_to_mask(fsn_mark, mask, flags);
+       mutex_unlock(&group->mark_mutex);
 
        if (added & ~inode->i_fsnotify_mask)
                fsnotify_recalc_inode_mask(inode);