]> git.karo-electronics.de Git - karo-tx-linux.git/blob - drivers/gpu/drm/amd/amdgpu/amdgpu_gtt_mgr.c
scsi: cxgb4i: libcxgbi: in error case RST tcp conn
[karo-tx-linux.git] / drivers / gpu / drm / amd / amdgpu / amdgpu_gtt_mgr.c
1 /*
2  * Copyright 2016 Advanced Micro Devices, Inc.
3  *
4  * Permission is hereby granted, free of charge, to any person obtaining a
5  * copy of this software and associated documentation files (the "Software"),
6  * to deal in the Software without restriction, including without limitation
7  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
8  * and/or sell copies of the Software, and to permit persons to whom the
9  * Software is furnished to do so, subject to the following conditions:
10  *
11  * The above copyright notice and this permission notice shall be included in
12  * all copies or substantial portions of the Software.
13  *
14  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
15  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
16  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
17  * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
18  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
19  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
20  * OTHER DEALINGS IN THE SOFTWARE.
21  *
22  * Authors: Christian König
23  */
24
25 #include <drm/drmP.h>
26 #include "amdgpu.h"
27
28 struct amdgpu_gtt_mgr {
29         struct drm_mm mm;
30         spinlock_t lock;
31         uint64_t available;
32 };
33
34 /**
35  * amdgpu_gtt_mgr_init - init GTT manager and DRM MM
36  *
37  * @man: TTM memory type manager
38  * @p_size: maximum size of GTT
39  *
40  * Allocate and initialize the GTT manager.
41  */
42 static int amdgpu_gtt_mgr_init(struct ttm_mem_type_manager *man,
43                                unsigned long p_size)
44 {
45         struct amdgpu_gtt_mgr *mgr;
46
47         mgr = kzalloc(sizeof(*mgr), GFP_KERNEL);
48         if (!mgr)
49                 return -ENOMEM;
50
51         drm_mm_init(&mgr->mm, 0, p_size);
52         spin_lock_init(&mgr->lock);
53         mgr->available = p_size;
54         man->priv = mgr;
55         return 0;
56 }
57
58 /**
59  * amdgpu_gtt_mgr_fini - free and destroy GTT manager
60  *
61  * @man: TTM memory type manager
62  *
63  * Destroy and free the GTT manager, returns -EBUSY if ranges are still
64  * allocated inside it.
65  */
66 static int amdgpu_gtt_mgr_fini(struct ttm_mem_type_manager *man)
67 {
68         struct amdgpu_gtt_mgr *mgr = man->priv;
69
70         spin_lock(&mgr->lock);
71         if (!drm_mm_clean(&mgr->mm)) {
72                 spin_unlock(&mgr->lock);
73                 return -EBUSY;
74         }
75
76         drm_mm_takedown(&mgr->mm);
77         spin_unlock(&mgr->lock);
78         kfree(mgr);
79         man->priv = NULL;
80         return 0;
81 }
82
83 /**
84  * amdgpu_gtt_mgr_alloc - allocate new ranges
85  *
86  * @man: TTM memory type manager
87  * @tbo: TTM BO we need this range for
88  * @place: placement flags and restrictions
89  * @mem: the resulting mem object
90  *
91  * Allocate the address space for a node.
92  */
93 int amdgpu_gtt_mgr_alloc(struct ttm_mem_type_manager *man,
94                          struct ttm_buffer_object *tbo,
95                          const struct ttm_place *place,
96                          struct ttm_mem_reg *mem)
97 {
98         struct amdgpu_gtt_mgr *mgr = man->priv;
99         struct drm_mm_node *node = mem->mm_node;
100         enum drm_mm_insert_mode mode;
101         unsigned long fpfn, lpfn;
102         int r;
103
104         if (node->start != AMDGPU_BO_INVALID_OFFSET)
105                 return 0;
106
107         if (place)
108                 fpfn = place->fpfn;
109         else
110                 fpfn = 0;
111
112         if (place && place->lpfn)
113                 lpfn = place->lpfn;
114         else
115                 lpfn = man->size;
116
117         mode = DRM_MM_INSERT_BEST;
118         if (place && place->flags & TTM_PL_FLAG_TOPDOWN)
119                 mode = DRM_MM_INSERT_HIGH;
120
121         spin_lock(&mgr->lock);
122         r = drm_mm_insert_node_in_range(&mgr->mm, node,
123                                         mem->num_pages, mem->page_alignment, 0,
124                                         fpfn, lpfn, mode);
125         spin_unlock(&mgr->lock);
126
127         if (!r) {
128                 mem->start = node->start;
129                 if (&tbo->mem == mem)
130                         tbo->offset = (tbo->mem.start << PAGE_SHIFT) +
131                             tbo->bdev->man[tbo->mem.mem_type].gpu_offset;
132         }
133
134         return r;
135 }
136
137 /**
138  * amdgpu_gtt_mgr_new - allocate a new node
139  *
140  * @man: TTM memory type manager
141  * @tbo: TTM BO we need this range for
142  * @place: placement flags and restrictions
143  * @mem: the resulting mem object
144  *
145  * Dummy, allocate the node but no space for it yet.
146  */
147 static int amdgpu_gtt_mgr_new(struct ttm_mem_type_manager *man,
148                               struct ttm_buffer_object *tbo,
149                               const struct ttm_place *place,
150                               struct ttm_mem_reg *mem)
151 {
152         struct amdgpu_gtt_mgr *mgr = man->priv;
153         struct drm_mm_node *node;
154         int r;
155
156         spin_lock(&mgr->lock);
157         if (mgr->available < mem->num_pages) {
158                 spin_unlock(&mgr->lock);
159                 return 0;
160         }
161         mgr->available -= mem->num_pages;
162         spin_unlock(&mgr->lock);
163
164         node = kzalloc(sizeof(*node), GFP_KERNEL);
165         if (!node) {
166                 r = -ENOMEM;
167                 goto err_out;
168         }
169
170         node->start = AMDGPU_BO_INVALID_OFFSET;
171         node->size = mem->num_pages;
172         mem->mm_node = node;
173
174         if (place->fpfn || place->lpfn || place->flags & TTM_PL_FLAG_TOPDOWN) {
175                 r = amdgpu_gtt_mgr_alloc(man, tbo, place, mem);
176                 if (unlikely(r)) {
177                         kfree(node);
178                         mem->mm_node = NULL;
179                         r = 0;
180                         goto err_out;
181                 }
182         } else {
183                 mem->start = node->start;
184         }
185
186         return 0;
187 err_out:
188         spin_lock(&mgr->lock);
189         mgr->available += mem->num_pages;
190         spin_unlock(&mgr->lock);
191
192         return r;
193 }
194
195 /**
196  * amdgpu_gtt_mgr_del - free ranges
197  *
198  * @man: TTM memory type manager
199  * @tbo: TTM BO we need this range for
200  * @place: placement flags and restrictions
201  * @mem: TTM memory object
202  *
203  * Free the allocated GTT again.
204  */
205 static void amdgpu_gtt_mgr_del(struct ttm_mem_type_manager *man,
206                                struct ttm_mem_reg *mem)
207 {
208         struct amdgpu_gtt_mgr *mgr = man->priv;
209         struct drm_mm_node *node = mem->mm_node;
210
211         if (!node)
212                 return;
213
214         spin_lock(&mgr->lock);
215         if (node->start != AMDGPU_BO_INVALID_OFFSET)
216                 drm_mm_remove_node(node);
217         mgr->available += mem->num_pages;
218         spin_unlock(&mgr->lock);
219
220         kfree(node);
221         mem->mm_node = NULL;
222 }
223
224 /**
225  * amdgpu_gtt_mgr_debug - dump VRAM table
226  *
227  * @man: TTM memory type manager
228  * @prefix: text prefix
229  *
230  * Dump the table content using printk.
231  */
232 static void amdgpu_gtt_mgr_debug(struct ttm_mem_type_manager *man,
233                                   const char *prefix)
234 {
235         struct amdgpu_gtt_mgr *mgr = man->priv;
236         struct drm_printer p = drm_debug_printer(prefix);
237
238         spin_lock(&mgr->lock);
239         drm_mm_print(&mgr->mm, &p);
240         spin_unlock(&mgr->lock);
241 }
242
243 const struct ttm_mem_type_manager_func amdgpu_gtt_mgr_func = {
244         .init = amdgpu_gtt_mgr_init,
245         .takedown = amdgpu_gtt_mgr_fini,
246         .get_node = amdgpu_gtt_mgr_new,
247         .put_node = amdgpu_gtt_mgr_del,
248         .debug = amdgpu_gtt_mgr_debug
249 };