]> git.karo-electronics.de Git - karo-tx-linux.git/blob - fs/xfs/xfs_dquot_item.c
Merge tag 'nfs-for-3.12-2' of git://git.linux-nfs.org/projects/trondmy/linux-nfs
[karo-tx-linux.git] / fs / xfs / xfs_dquot_item.c
1 /*
2  * Copyright (c) 2000-2003 Silicon Graphics, Inc.
3  * All Rights Reserved.
4  *
5  * This program is free software; you can redistribute it and/or
6  * modify it under the terms of the GNU General Public License as
7  * published by the Free Software Foundation.
8  *
9  * This program is distributed in the hope that it would be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write the Free Software Foundation,
16  * Inc.,  51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
17  */
18 #include "xfs.h"
19 #include "xfs_fs.h"
20 #include "xfs_format.h"
21 #include "xfs_log.h"
22 #include "xfs_trans.h"
23 #include "xfs_sb.h"
24 #include "xfs_ag.h"
25 #include "xfs_alloc.h"
26 #include "xfs_quota.h"
27 #include "xfs_mount.h"
28 #include "xfs_bmap_btree.h"
29 #include "xfs_inode.h"
30 #include "xfs_bmap.h"
31 #include "xfs_rtalloc.h"
32 #include "xfs_error.h"
33 #include "xfs_itable.h"
34 #include "xfs_attr.h"
35 #include "xfs_buf_item.h"
36 #include "xfs_trans_priv.h"
37 #include "xfs_qm.h"
38
39 static inline struct xfs_dq_logitem *DQUOT_ITEM(struct xfs_log_item *lip)
40 {
41         return container_of(lip, struct xfs_dq_logitem, qli_item);
42 }
43
44 /*
45  * returns the number of iovecs needed to log the given dquot item.
46  */
47 STATIC void
48 xfs_qm_dquot_logitem_size(
49         struct xfs_log_item     *lip,
50         int                     *nvecs,
51         int                     *nbytes)
52 {
53         *nvecs += 2;
54         *nbytes += sizeof(struct xfs_dq_logformat) +
55                    sizeof(struct xfs_disk_dquot);
56 }
57
58 /*
59  * fills in the vector of log iovecs for the given dquot log item.
60  */
61 STATIC void
62 xfs_qm_dquot_logitem_format(
63         struct xfs_log_item     *lip,
64         struct xfs_log_iovec    *logvec)
65 {
66         struct xfs_dq_logitem   *qlip = DQUOT_ITEM(lip);
67
68         logvec->i_addr = &qlip->qli_format;
69         logvec->i_len  = sizeof(xfs_dq_logformat_t);
70         logvec->i_type = XLOG_REG_TYPE_QFORMAT;
71         logvec++;
72         logvec->i_addr = &qlip->qli_dquot->q_core;
73         logvec->i_len  = sizeof(xfs_disk_dquot_t);
74         logvec->i_type = XLOG_REG_TYPE_DQUOT;
75
76         qlip->qli_format.qlf_size = 2;
77
78 }
79
80 /*
81  * Increment the pin count of the given dquot.
82  */
83 STATIC void
84 xfs_qm_dquot_logitem_pin(
85         struct xfs_log_item     *lip)
86 {
87         struct xfs_dquot        *dqp = DQUOT_ITEM(lip)->qli_dquot;
88
89         ASSERT(XFS_DQ_IS_LOCKED(dqp));
90         atomic_inc(&dqp->q_pincount);
91 }
92
93 /*
94  * Decrement the pin count of the given dquot, and wake up
95  * anyone in xfs_dqwait_unpin() if the count goes to 0.  The
96  * dquot must have been previously pinned with a call to
97  * xfs_qm_dquot_logitem_pin().
98  */
99 STATIC void
100 xfs_qm_dquot_logitem_unpin(
101         struct xfs_log_item     *lip,
102         int                     remove)
103 {
104         struct xfs_dquot        *dqp = DQUOT_ITEM(lip)->qli_dquot;
105
106         ASSERT(atomic_read(&dqp->q_pincount) > 0);
107         if (atomic_dec_and_test(&dqp->q_pincount))
108                 wake_up(&dqp->q_pinwait);
109 }
110
111 STATIC xfs_lsn_t
112 xfs_qm_dquot_logitem_committed(
113         struct xfs_log_item     *lip,
114         xfs_lsn_t               lsn)
115 {
116         /*
117          * We always re-log the entire dquot when it becomes dirty,
118          * so, the latest copy _is_ the only one that matters.
119          */
120         return lsn;
121 }
122
123 /*
124  * This is called to wait for the given dquot to be unpinned.
125  * Most of these pin/unpin routines are plagiarized from inode code.
126  */
127 void
128 xfs_qm_dqunpin_wait(
129         struct xfs_dquot        *dqp)
130 {
131         ASSERT(XFS_DQ_IS_LOCKED(dqp));
132         if (atomic_read(&dqp->q_pincount) == 0)
133                 return;
134
135         /*
136          * Give the log a push so we don't wait here too long.
137          */
138         xfs_log_force(dqp->q_mount, 0);
139         wait_event(dqp->q_pinwait, (atomic_read(&dqp->q_pincount) == 0));
140 }
141
142 STATIC uint
143 xfs_qm_dquot_logitem_push(
144         struct xfs_log_item     *lip,
145         struct list_head        *buffer_list)
146 {
147         struct xfs_dquot        *dqp = DQUOT_ITEM(lip)->qli_dquot;
148         struct xfs_buf          *bp = NULL;
149         uint                    rval = XFS_ITEM_SUCCESS;
150         int                     error;
151
152         if (atomic_read(&dqp->q_pincount) > 0)
153                 return XFS_ITEM_PINNED;
154
155         if (!xfs_dqlock_nowait(dqp))
156                 return XFS_ITEM_LOCKED;
157
158         /*
159          * Re-check the pincount now that we stabilized the value by
160          * taking the quota lock.
161          */
162         if (atomic_read(&dqp->q_pincount) > 0) {
163                 rval = XFS_ITEM_PINNED;
164                 goto out_unlock;
165         }
166
167         /*
168          * Someone else is already flushing the dquot.  Nothing we can do
169          * here but wait for the flush to finish and remove the item from
170          * the AIL.
171          */
172         if (!xfs_dqflock_nowait(dqp)) {
173                 rval = XFS_ITEM_FLUSHING;
174                 goto out_unlock;
175         }
176
177         spin_unlock(&lip->li_ailp->xa_lock);
178
179         error = xfs_qm_dqflush(dqp, &bp);
180         if (error) {
181                 xfs_warn(dqp->q_mount, "%s: push error %d on dqp %p",
182                         __func__, error, dqp);
183         } else {
184                 if (!xfs_buf_delwri_queue(bp, buffer_list))
185                         rval = XFS_ITEM_FLUSHING;
186                 xfs_buf_relse(bp);
187         }
188
189         spin_lock(&lip->li_ailp->xa_lock);
190 out_unlock:
191         xfs_dqunlock(dqp);
192         return rval;
193 }
194
195 /*
196  * Unlock the dquot associated with the log item.
197  * Clear the fields of the dquot and dquot log item that
198  * are specific to the current transaction.  If the
199  * hold flags is set, do not unlock the dquot.
200  */
201 STATIC void
202 xfs_qm_dquot_logitem_unlock(
203         struct xfs_log_item     *lip)
204 {
205         struct xfs_dquot        *dqp = DQUOT_ITEM(lip)->qli_dquot;
206
207         ASSERT(XFS_DQ_IS_LOCKED(dqp));
208
209         /*
210          * Clear the transaction pointer in the dquot
211          */
212         dqp->q_transp = NULL;
213
214         /*
215          * dquots are never 'held' from getting unlocked at the end of
216          * a transaction.  Their locking and unlocking is hidden inside the
217          * transaction layer, within trans_commit. Hence, no LI_HOLD flag
218          * for the logitem.
219          */
220         xfs_dqunlock(dqp);
221 }
222
223 /*
224  * this needs to stamp an lsn into the dquot, I think.
225  * rpc's that look at user dquot's would then have to
226  * push on the dependency recorded in the dquot
227  */
228 STATIC void
229 xfs_qm_dquot_logitem_committing(
230         struct xfs_log_item     *lip,
231         xfs_lsn_t               lsn)
232 {
233 }
234
235 /*
236  * This is the ops vector for dquots
237  */
238 static const struct xfs_item_ops xfs_dquot_item_ops = {
239         .iop_size       = xfs_qm_dquot_logitem_size,
240         .iop_format     = xfs_qm_dquot_logitem_format,
241         .iop_pin        = xfs_qm_dquot_logitem_pin,
242         .iop_unpin      = xfs_qm_dquot_logitem_unpin,
243         .iop_unlock     = xfs_qm_dquot_logitem_unlock,
244         .iop_committed  = xfs_qm_dquot_logitem_committed,
245         .iop_push       = xfs_qm_dquot_logitem_push,
246         .iop_committing = xfs_qm_dquot_logitem_committing
247 };
248
249 /*
250  * Initialize the dquot log item for a newly allocated dquot.
251  * The dquot isn't locked at this point, but it isn't on any of the lists
252  * either, so we don't care.
253  */
254 void
255 xfs_qm_dquot_logitem_init(
256         struct xfs_dquot        *dqp)
257 {
258         struct xfs_dq_logitem   *lp = &dqp->q_logitem;
259
260         xfs_log_item_init(dqp->q_mount, &lp->qli_item, XFS_LI_DQUOT,
261                                         &xfs_dquot_item_ops);
262         lp->qli_dquot = dqp;
263         lp->qli_format.qlf_type = XFS_LI_DQUOT;
264         lp->qli_format.qlf_id = be32_to_cpu(dqp->q_core.d_id);
265         lp->qli_format.qlf_blkno = dqp->q_blkno;
266         lp->qli_format.qlf_len = 1;
267         /*
268          * This is just the offset of this dquot within its buffer
269          * (which is currently 1 FSB and probably won't change).
270          * Hence 32 bits for this offset should be just fine.
271          * Alternatively, we can store (bufoffset / sizeof(xfs_dqblk_t))
272          * here, and recompute it at recovery time.
273          */
274         lp->qli_format.qlf_boffset = (__uint32_t)dqp->q_bufoffset;
275 }
276
277 /*------------------  QUOTAOFF LOG ITEMS  -------------------*/
278
279 static inline struct xfs_qoff_logitem *QOFF_ITEM(struct xfs_log_item *lip)
280 {
281         return container_of(lip, struct xfs_qoff_logitem, qql_item);
282 }
283
284
285 /*
286  * This returns the number of iovecs needed to log the given quotaoff item.
287  * We only need 1 iovec for an quotaoff item.  It just logs the
288  * quotaoff_log_format structure.
289  */
290 STATIC void
291 xfs_qm_qoff_logitem_size(
292         struct xfs_log_item     *lip,
293         int                     *nvecs,
294         int                     *nbytes)
295 {
296         *nvecs += 1;
297         *nbytes += sizeof(struct xfs_qoff_logitem);
298 }
299
300 /*
301  * This is called to fill in the vector of log iovecs for the
302  * given quotaoff log item. We use only 1 iovec, and we point that
303  * at the quotaoff_log_format structure embedded in the quotaoff item.
304  * It is at this point that we assert that all of the extent
305  * slots in the quotaoff item have been filled.
306  */
307 STATIC void
308 xfs_qm_qoff_logitem_format(
309         struct xfs_log_item     *lip,
310         struct xfs_log_iovec    *log_vector)
311 {
312         struct xfs_qoff_logitem *qflip = QOFF_ITEM(lip);
313
314         ASSERT(qflip->qql_format.qf_type == XFS_LI_QUOTAOFF);
315
316         log_vector->i_addr = &qflip->qql_format;
317         log_vector->i_len = sizeof(xfs_qoff_logitem_t);
318         log_vector->i_type = XLOG_REG_TYPE_QUOTAOFF;
319         qflip->qql_format.qf_size = 1;
320 }
321
322 /*
323  * Pinning has no meaning for an quotaoff item, so just return.
324  */
325 STATIC void
326 xfs_qm_qoff_logitem_pin(
327         struct xfs_log_item     *lip)
328 {
329 }
330
331 /*
332  * Since pinning has no meaning for an quotaoff item, unpinning does
333  * not either.
334  */
335 STATIC void
336 xfs_qm_qoff_logitem_unpin(
337         struct xfs_log_item     *lip,
338         int                     remove)
339 {
340 }
341
342 /*
343  * There isn't much you can do to push a quotaoff item.  It is simply
344  * stuck waiting for the log to be flushed to disk.
345  */
346 STATIC uint
347 xfs_qm_qoff_logitem_push(
348         struct xfs_log_item     *lip,
349         struct list_head        *buffer_list)
350 {
351         return XFS_ITEM_LOCKED;
352 }
353
354 /*
355  * Quotaoff items have no locking or pushing, so return failure
356  * so that the caller doesn't bother with us.
357  */
358 STATIC void
359 xfs_qm_qoff_logitem_unlock(
360         struct xfs_log_item     *lip)
361 {
362 }
363
364 /*
365  * The quotaoff-start-item is logged only once and cannot be moved in the log,
366  * so simply return the lsn at which it's been logged.
367  */
368 STATIC xfs_lsn_t
369 xfs_qm_qoff_logitem_committed(
370         struct xfs_log_item     *lip,
371         xfs_lsn_t               lsn)
372 {
373         return lsn;
374 }
375
376 STATIC xfs_lsn_t
377 xfs_qm_qoffend_logitem_committed(
378         struct xfs_log_item     *lip,
379         xfs_lsn_t               lsn)
380 {
381         struct xfs_qoff_logitem *qfe = QOFF_ITEM(lip);
382         struct xfs_qoff_logitem *qfs = qfe->qql_start_lip;
383         struct xfs_ail          *ailp = qfs->qql_item.li_ailp;
384
385         /*
386          * Delete the qoff-start logitem from the AIL.
387          * xfs_trans_ail_delete() drops the AIL lock.
388          */
389         spin_lock(&ailp->xa_lock);
390         xfs_trans_ail_delete(ailp, &qfs->qql_item, SHUTDOWN_LOG_IO_ERROR);
391
392         kmem_free(qfs);
393         kmem_free(qfe);
394         return (xfs_lsn_t)-1;
395 }
396
397 /*
398  * XXX rcc - don't know quite what to do with this.  I think we can
399  * just ignore it.  The only time that isn't the case is if we allow
400  * the client to somehow see that quotas have been turned off in which
401  * we can't allow that to get back until the quotaoff hits the disk.
402  * So how would that happen?  Also, do we need different routines for
403  * quotaoff start and quotaoff end?  I suspect the answer is yes but
404  * to be sure, I need to look at the recovery code and see how quota off
405  * recovery is handled (do we roll forward or back or do something else).
406  * If we roll forwards or backwards, then we need two separate routines,
407  * one that does nothing and one that stamps in the lsn that matters
408  * (truly makes the quotaoff irrevocable).  If we do something else,
409  * then maybe we don't need two.
410  */
411 STATIC void
412 xfs_qm_qoff_logitem_committing(
413         struct xfs_log_item     *lip,
414         xfs_lsn_t               commit_lsn)
415 {
416 }
417
418 static const struct xfs_item_ops xfs_qm_qoffend_logitem_ops = {
419         .iop_size       = xfs_qm_qoff_logitem_size,
420         .iop_format     = xfs_qm_qoff_logitem_format,
421         .iop_pin        = xfs_qm_qoff_logitem_pin,
422         .iop_unpin      = xfs_qm_qoff_logitem_unpin,
423         .iop_unlock     = xfs_qm_qoff_logitem_unlock,
424         .iop_committed  = xfs_qm_qoffend_logitem_committed,
425         .iop_push       = xfs_qm_qoff_logitem_push,
426         .iop_committing = xfs_qm_qoff_logitem_committing
427 };
428
429 /*
430  * This is the ops vector shared by all quotaoff-start log items.
431  */
432 static const struct xfs_item_ops xfs_qm_qoff_logitem_ops = {
433         .iop_size       = xfs_qm_qoff_logitem_size,
434         .iop_format     = xfs_qm_qoff_logitem_format,
435         .iop_pin        = xfs_qm_qoff_logitem_pin,
436         .iop_unpin      = xfs_qm_qoff_logitem_unpin,
437         .iop_unlock     = xfs_qm_qoff_logitem_unlock,
438         .iop_committed  = xfs_qm_qoff_logitem_committed,
439         .iop_push       = xfs_qm_qoff_logitem_push,
440         .iop_committing = xfs_qm_qoff_logitem_committing
441 };
442
443 /*
444  * Allocate and initialize an quotaoff item of the correct quota type(s).
445  */
446 struct xfs_qoff_logitem *
447 xfs_qm_qoff_logitem_init(
448         struct xfs_mount        *mp,
449         struct xfs_qoff_logitem *start,
450         uint                    flags)
451 {
452         struct xfs_qoff_logitem *qf;
453
454         qf = kmem_zalloc(sizeof(struct xfs_qoff_logitem), KM_SLEEP);
455
456         xfs_log_item_init(mp, &qf->qql_item, XFS_LI_QUOTAOFF, start ?
457                         &xfs_qm_qoffend_logitem_ops : &xfs_qm_qoff_logitem_ops);
458         qf->qql_item.li_mountp = mp;
459         qf->qql_format.qf_type = XFS_LI_QUOTAOFF;
460         qf->qql_format.qf_flags = flags;
461         qf->qql_start_lip = start;
462         return qf;
463 }