]> git.karo-electronics.de Git - linux-beck.git/commitdiff
btrfs: Fix misspellings in comments.
authorAdam Buchbinder <adam.buchbinder@gmail.com>
Fri, 4 Mar 2016 19:23:12 +0000 (11:23 -0800)
committerDavid Sterba <dsterba@suse.com>
Mon, 14 Mar 2016 14:05:02 +0000 (15:05 +0100)
Signed-off-by: Adam Buchbinder <adam.buchbinder@gmail.com>
Signed-off-by: David Sterba <dsterba@suse.com>
fs/btrfs/check-integrity.c
fs/btrfs/ctree.h
fs/btrfs/dev-replace.c
fs/btrfs/disk-io.c
fs/btrfs/extent-tree.c
fs/btrfs/extent_map.c
fs/btrfs/file.c
fs/btrfs/ordered-data.c
fs/btrfs/tree-log.c
fs/btrfs/volumes.c

index 9d226b5d6358df6599b9b0194bb652241815924c..e34a71b3e225325dd73dd6ef51a434246119f279 100644 (file)
@@ -178,7 +178,7 @@ struct btrfsic_block {
  * Elements of this type are allocated dynamically and required because
  * each block object can refer to and can be ref from multiple blocks.
  * The key to lookup them in the hashtable is the dev_bytenr of
- * the block ref to plus the one from the block refered from.
+ * the block ref to plus the one from the block referred from.
  * The fact that they are searchable via a hashtable and that a
  * ref_cnt is maintained is not required for the btrfs integrity
  * check algorithm itself, it is only used to make the output more
index 0ef28fd2bd278e40f0c6f952a5a3599d521cabd8..84a6a5b3384a7be63ae6808527228a28c9f72674 100644 (file)
@@ -788,7 +788,7 @@ struct btrfs_root_item {
 
        /*
         * This generation number is used to test if the new fields are valid
-        * and up to date while reading the root item. Everytime the root item
+        * and up to date while reading the root item. Every time the root item
         * is written out, the "generation" field is copied into this field. If
         * anyone ever mounted the fs with an older kernel, we will have
         * mismatching generation values here and thus must invalidate the
@@ -1219,10 +1219,10 @@ struct btrfs_space_info {
         * we've called update_block_group and dropped the bytes_used counter
         * and increased the bytes_pinned counter.  However this means that
         * bytes_pinned does not reflect the bytes that will be pinned once the
-        * delayed refs are flushed, so this counter is inc'ed everytime we call
-        * btrfs_free_extent so it is a realtime count of what will be freed
-        * once the transaction is committed.  It will be zero'ed everytime the
-        * transaction commits.
+        * delayed refs are flushed, so this counter is inc'ed every time we
+        * call btrfs_free_extent so it is a realtime count of what will be
+        * freed once the transaction is committed.  It will be zero'ed every
+        * time the transaction commits.
         */
        struct percpu_counter total_bytes_pinned;
 
index ff2db7a6c89444090595641c019e0169fd51c1ab..a1d6652e0c4779ecf7e8c675fddcd06a560cdc32 100644 (file)
@@ -858,7 +858,7 @@ int btrfs_dev_replace_is_ongoing(struct btrfs_dev_replace *dev_replace)
                 * not called and the the filesystem is remounted
                 * in degraded state. This does not stop the
                 * dev_replace procedure. It needs to be canceled
-                * manually if the cancelation is wanted.
+                * manually if the cancellation is wanted.
                 */
                break;
        }
index 53525a54608b9bfc87a50c143448346e19cc9c4e..c95e3ce9f22e83bb4a37bc57f39bb59cdeabf51c 100644 (file)
@@ -816,7 +816,7 @@ static void run_one_async_done(struct btrfs_work *work)
            waitqueue_active(&fs_info->async_submit_wait))
                wake_up(&fs_info->async_submit_wait);
 
-       /* If an error occured we just want to clean up the bio and move on */
+       /* If an error occurred we just want to clean up the bio and move on */
        if (async->error) {
                async->bio->bi_error = async->error;
                bio_endio(async->bio);
index 083783b5353694604012fc40ed6b2d6811505fcb..53e12977bfd012672daf3fc1d2b9a2b2f4362021 100644 (file)
@@ -5758,7 +5758,7 @@ out_fail:
 
                /*
                 * This is tricky, but first we need to figure out how much we
-                * free'd from any free-ers that occured during this
+                * free'd from any free-ers that occurred during this
                 * reservation, so we reset ->csum_bytes to the csum_bytes
                 * before we dropped our lock, and then call the free for the
                 * number of bytes that were freed while we were trying our
index cca21ff6553b5ed6937ffbcbf4356777331b5bfc..318b048eb25494ff019f7faf874d84b749bcd2bd 100644 (file)
@@ -62,7 +62,7 @@ struct extent_map *alloc_extent_map(void)
 
 /**
  * free_extent_map - drop reference count of an extent_map
- * @em:                extent map beeing releasead
+ * @em:                extent map being releasead
  *
  * Drops the reference out on @em by one and free the structure
  * if the reference count hits zero.
@@ -422,7 +422,7 @@ struct extent_map *search_extent_mapping(struct extent_map_tree *tree,
 /**
  * remove_extent_mapping - removes an extent_map from the extent tree
  * @tree:      extent tree to remove from
- * @em:                extent map beeing removed
+ * @em:                extent map being removed
  *
  * Removes @em from @tree.  No reference counts are dropped, and no checks
  * are done to see if the range is in use
index dba5de6cdc8a837328e95aafff7aa96f7981b66d..15a09cb156cec4c59776c683ecc2f98527e98d15 100644 (file)
@@ -1847,7 +1847,7 @@ static ssize_t btrfs_file_write_iter(struct kiocb *iocb,
        /*
         * We also have to set last_sub_trans to the current log transid,
         * otherwise subsequent syncs to a file that's been synced in this
-        * transaction will appear to have already occured.
+        * transaction will appear to have already occurred.
         */
        spin_lock(&BTRFS_I(inode)->lock);
        BTRFS_I(inode)->last_sub_trans = root->log_transid;
index 86e1688c13b2386fbaf3f3f8a406f2fe0b585eb1..0de7da5a610d7a2175c6264c240b2696897ee2f6 100644 (file)
@@ -1010,7 +1010,7 @@ int btrfs_ordered_update_i_size(struct inode *inode, u64 offset,
        for (; node; node = rb_prev(node)) {
                test = rb_entry(node, struct btrfs_ordered_extent, rb_node);
 
-               /* We treat this entry as if it doesnt exist */
+               /* We treat this entry as if it doesn't exist */
                if (test_bit(BTRFS_ORDERED_UPDATED_ISIZE, &test->flags))
                        continue;
                if (test->file_offset + test->len <= disk_i_size)
index eafdb965c206b8375527f23ba831719ccadb4d83..24d03c751149f56e484e32c3b1120dceb495b299 100644 (file)
@@ -1046,7 +1046,7 @@ again:
 
                /*
                 * NOTE: we have searched root tree and checked the
-                * coresponding ref, it does not need to check again.
+                * corresponding ref, it does not need to check again.
                 */
                *search_done = 1;
        }
index 80857b4646c078844d8b1dad13b37b82f6a7b312..e2b54d546b7c0572c2188d7dfe26c3f96746b337 100644 (file)
@@ -2749,7 +2749,7 @@ int btrfs_remove_chunk(struct btrfs_trans_handle *trans,
            em->start + em->len < chunk_offset) {
                /*
                 * This is a logic error, but we don't want to just rely on the
-                * user having built with ASSERT enabled, so if ASSERT doens't
+                * user having built with ASSERT enabled, so if ASSERT doesn't
                 * do anything we still error out.
                 */
                ASSERT(0);
@@ -4119,7 +4119,7 @@ out:
  * Callback for btrfs_uuid_tree_iterate().
  * returns:
  * 0   check succeeded, the entry is not outdated.
- * < 0 if an error occured.
+ * < 0 if an error occurred.
  * > 0 if the check failed, which means the caller shall remove the entry.
  */
 static int btrfs_check_uuid_tree_entry(struct btrfs_fs_info *fs_info,