]> git.karo-electronics.de Git - mv-sheeva.git/blob - drivers/net/mlx4/en_main.c
include cleanup: Update gfp.h and slab.h includes to prepare for breaking implicit...
[mv-sheeva.git] / drivers / net / mlx4 / en_main.c
1 /*
2  * Copyright (c) 2007 Mellanox Technologies. All rights reserved.
3  *
4  * This software is available to you under a choice of one of two
5  * licenses.  You may choose to be licensed under the terms of the GNU
6  * General Public License (GPL) Version 2, available from the file
7  * COPYING in the main directory of this source tree, or the
8  * OpenIB.org BSD license below:
9  *
10  *     Redistribution and use in source and binary forms, with or
11  *     without modification, are permitted provided that the following
12  *     conditions are met:
13  *
14  *      - Redistributions of source code must retain the above
15  *        copyright notice, this list of conditions and the following
16  *        disclaimer.
17  *
18  *      - Redistributions in binary form must reproduce the above
19  *        copyright notice, this list of conditions and the following
20  *        disclaimer in the documentation and/or other materials
21  *        provided with the distribution.
22  *
23  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
24  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
25  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
26  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
27  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
28  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
29  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
30  * SOFTWARE.
31  *
32  */
33
34 #include <linux/cpumask.h>
35 #include <linux/module.h>
36 #include <linux/delay.h>
37 #include <linux/netdevice.h>
38 #include <linux/slab.h>
39
40 #include <linux/mlx4/driver.h>
41 #include <linux/mlx4/device.h>
42 #include <linux/mlx4/cmd.h>
43
44 #include "mlx4_en.h"
45
46 MODULE_AUTHOR("Liran Liss, Yevgeny Petrilin");
47 MODULE_DESCRIPTION("Mellanox ConnectX HCA Ethernet driver");
48 MODULE_LICENSE("Dual BSD/GPL");
49 MODULE_VERSION(DRV_VERSION " ("DRV_RELDATE")");
50
51 static const char mlx4_en_version[] =
52         DRV_NAME ": Mellanox ConnectX HCA Ethernet driver v"
53         DRV_VERSION " (" DRV_RELDATE ")\n";
54
55 #define MLX4_EN_PARM_INT(X, def_val, desc) \
56         static unsigned int X = def_val;\
57         module_param(X , uint, 0444); \
58         MODULE_PARM_DESC(X, desc);
59
60
61 /*
62  * Device scope module parameters
63  */
64
65
66 /* Use a XOR rathern than Toeplitz hash function for RSS */
67 MLX4_EN_PARM_INT(rss_xor, 0, "Use XOR hash function for RSS");
68
69 /* RSS hash type mask - default to <saddr, daddr, sport, dport> */
70 MLX4_EN_PARM_INT(rss_mask, 0xf, "RSS hash type bitmask");
71
72 /* Number of LRO sessions per Rx ring (rounded up to a power of two) */
73 MLX4_EN_PARM_INT(num_lro, MLX4_EN_MAX_LRO_DESCRIPTORS,
74                  "Number of LRO sessions per ring or disabled (0)");
75
76 /* Priority pausing */
77 MLX4_EN_PARM_INT(pfctx, 0, "Priority based Flow Control policy on TX[7:0]."
78                            " Per priority bit mask");
79 MLX4_EN_PARM_INT(pfcrx, 0, "Priority based Flow Control policy on RX[7:0]."
80                            " Per priority bit mask");
81
82 static int mlx4_en_get_profile(struct mlx4_en_dev *mdev)
83 {
84         struct mlx4_en_profile *params = &mdev->profile;
85         int i;
86
87         params->rss_xor = (rss_xor != 0);
88         params->rss_mask = rss_mask & 0x1f;
89         params->num_lro = min_t(int, num_lro , MLX4_EN_MAX_LRO_DESCRIPTORS);
90         for (i = 1; i <= MLX4_MAX_PORTS; i++) {
91                 params->prof[i].rx_pause = 1;
92                 params->prof[i].rx_ppp = pfcrx;
93                 params->prof[i].tx_pause = 1;
94                 params->prof[i].tx_ppp = pfctx;
95                 params->prof[i].tx_ring_size = MLX4_EN_DEF_TX_RING_SIZE;
96                 params->prof[i].rx_ring_size = MLX4_EN_DEF_RX_RING_SIZE;
97                 params->prof[i].tx_ring_num = MLX4_EN_NUM_TX_RINGS +
98                         (!!pfcrx) * MLX4_EN_NUM_PPP_RINGS;
99         }
100
101         return 0;
102 }
103
104 static void mlx4_en_event(struct mlx4_dev *dev, void *endev_ptr,
105                           enum mlx4_dev_event event, int port)
106 {
107         struct mlx4_en_dev *mdev = (struct mlx4_en_dev *) endev_ptr;
108         struct mlx4_en_priv *priv;
109
110         if (!mdev->pndev[port])
111                 return;
112
113         priv = netdev_priv(mdev->pndev[port]);
114         switch (event) {
115         case MLX4_DEV_EVENT_PORT_UP:
116         case MLX4_DEV_EVENT_PORT_DOWN:
117                 /* To prevent races, we poll the link state in a separate
118                   task rather than changing it here */
119                 priv->link_state = event;
120                 queue_work(mdev->workqueue, &priv->linkstate_task);
121                 break;
122
123         case MLX4_DEV_EVENT_CATASTROPHIC_ERROR:
124                 mlx4_err(mdev, "Internal error detected, restarting device\n");
125                 break;
126
127         default:
128                 mlx4_warn(mdev, "Unhandled event: %d\n", event);
129         }
130 }
131
132 static void mlx4_en_remove(struct mlx4_dev *dev, void *endev_ptr)
133 {
134         struct mlx4_en_dev *mdev = endev_ptr;
135         int i;
136
137         mutex_lock(&mdev->state_lock);
138         mdev->device_up = false;
139         mutex_unlock(&mdev->state_lock);
140
141         mlx4_foreach_port(i, dev, MLX4_PORT_TYPE_ETH)
142                 if (mdev->pndev[i])
143                         mlx4_en_destroy_netdev(mdev->pndev[i]);
144
145         flush_workqueue(mdev->workqueue);
146         destroy_workqueue(mdev->workqueue);
147         mlx4_mr_free(dev, &mdev->mr);
148         mlx4_uar_free(dev, &mdev->priv_uar);
149         mlx4_pd_free(dev, mdev->priv_pdn);
150         kfree(mdev);
151 }
152
153 static void *mlx4_en_add(struct mlx4_dev *dev)
154 {
155         static int mlx4_en_version_printed;
156         struct mlx4_en_dev *mdev;
157         int i;
158         int err;
159
160         if (!mlx4_en_version_printed) {
161                 printk(KERN_INFO "%s", mlx4_en_version);
162                 mlx4_en_version_printed++;
163         }
164
165         mdev = kzalloc(sizeof *mdev, GFP_KERNEL);
166         if (!mdev) {
167                 dev_err(&dev->pdev->dev, "Device struct alloc failed, "
168                         "aborting.\n");
169                 err = -ENOMEM;
170                 goto err_free_res;
171         }
172
173         if (mlx4_pd_alloc(dev, &mdev->priv_pdn))
174                 goto err_free_dev;
175
176         if (mlx4_uar_alloc(dev, &mdev->priv_uar))
177                 goto err_pd;
178
179         mdev->uar_map = ioremap(mdev->priv_uar.pfn << PAGE_SHIFT, PAGE_SIZE);
180         if (!mdev->uar_map)
181                 goto err_uar;
182         spin_lock_init(&mdev->uar_lock);
183
184         mdev->dev = dev;
185         mdev->dma_device = &(dev->pdev->dev);
186         mdev->pdev = dev->pdev;
187         mdev->device_up = false;
188
189         mdev->LSO_support = !!(dev->caps.flags & (1 << 15));
190         if (!mdev->LSO_support)
191                 mlx4_warn(mdev, "LSO not supported, please upgrade to later "
192                                 "FW version to enable LSO\n");
193
194         if (mlx4_mr_alloc(mdev->dev, mdev->priv_pdn, 0, ~0ull,
195                          MLX4_PERM_LOCAL_WRITE |  MLX4_PERM_LOCAL_READ,
196                          0, 0, &mdev->mr)) {
197                 mlx4_err(mdev, "Failed allocating memory region\n");
198                 goto err_uar;
199         }
200         if (mlx4_mr_enable(mdev->dev, &mdev->mr)) {
201                 mlx4_err(mdev, "Failed enabling memory region\n");
202                 goto err_mr;
203         }
204
205         /* Build device profile according to supplied module parameters */
206         err = mlx4_en_get_profile(mdev);
207         if (err) {
208                 mlx4_err(mdev, "Bad module parameters, aborting.\n");
209                 goto err_mr;
210         }
211
212         /* Configure wich ports to start according to module parameters */
213         mdev->port_cnt = 0;
214         mlx4_foreach_port(i, dev, MLX4_PORT_TYPE_ETH)
215                 mdev->port_cnt++;
216
217         /* If we did not receive an explicit number of Rx rings, default to
218          * the number of completion vectors populated by the mlx4_core */
219         mlx4_foreach_port(i, dev, MLX4_PORT_TYPE_ETH) {
220                 mlx4_info(mdev, "Using %d tx rings for port:%d\n",
221                           mdev->profile.prof[i].tx_ring_num, i);
222                 mdev->profile.prof[i].rx_ring_num = min_t(int,
223                         roundup_pow_of_two(dev->caps.num_comp_vectors),
224                         MAX_RX_RINGS);
225                 mlx4_info(mdev, "Defaulting to %d rx rings for port:%d\n",
226                           mdev->profile.prof[i].rx_ring_num, i);
227         }
228
229         /* Create our own workqueue for reset/multicast tasks
230          * Note: we cannot use the shared workqueue because of deadlocks caused
231          *       by the rtnl lock */
232         mdev->workqueue = create_singlethread_workqueue("mlx4_en");
233         if (!mdev->workqueue) {
234                 err = -ENOMEM;
235                 goto err_mr;
236         }
237
238         /* At this stage all non-port specific tasks are complete:
239          * mark the card state as up */
240         mutex_init(&mdev->state_lock);
241         mdev->device_up = true;
242
243         /* Setup ports */
244
245         /* Create a netdev for each port */
246         mlx4_foreach_port(i, dev, MLX4_PORT_TYPE_ETH) {
247                 mlx4_info(mdev, "Activating port:%d\n", i);
248                 if (mlx4_en_init_netdev(mdev, i, &mdev->profile.prof[i]))
249                         mdev->pndev[i] = NULL;
250         }
251         return mdev;
252
253 err_mr:
254         mlx4_mr_free(dev, &mdev->mr);
255 err_uar:
256         mlx4_uar_free(dev, &mdev->priv_uar);
257 err_pd:
258         mlx4_pd_free(dev, mdev->priv_pdn);
259 err_free_dev:
260         kfree(mdev);
261 err_free_res:
262         return NULL;
263 }
264
265 static struct mlx4_interface mlx4_en_interface = {
266         .add    = mlx4_en_add,
267         .remove = mlx4_en_remove,
268         .event  = mlx4_en_event,
269 };
270
271 static int __init mlx4_en_init(void)
272 {
273         return mlx4_register_interface(&mlx4_en_interface);
274 }
275
276 static void __exit mlx4_en_cleanup(void)
277 {
278         mlx4_unregister_interface(&mlx4_en_interface);
279 }
280
281 module_init(mlx4_en_init);
282 module_exit(mlx4_en_cleanup);
283