]> git.karo-electronics.de Git - karo-tx-linux.git/blob - drivers/net/wireless/iwlwifi/iwl-agn-tx.c
iwlwifi: don't pass iwl_rx_mem_buffer to upper layers
[karo-tx-linux.git] / drivers / net / wireless / iwlwifi / iwl-agn-tx.c
1 /******************************************************************************
2  *
3  * GPL LICENSE SUMMARY
4  *
5  * Copyright(c) 2008 - 2012 Intel Corporation. All rights reserved.
6  *
7  * This program is free software; you can redistribute it and/or modify
8  * it under the terms of version 2 of the GNU General Public License as
9  * published by the Free Software Foundation.
10  *
11  * This program is distributed in the hope that it will be useful, but
12  * WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110,
19  * USA
20  *
21  * The full GNU General Public License is included in this distribution
22  * in the file called LICENSE.GPL.
23  *
24  * Contact Information:
25  *  Intel Linux Wireless <ilw@linux.intel.com>
26  * Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
27  *
28  *****************************************************************************/
29
30 #include <linux/kernel.h>
31 #include <linux/module.h>
32 #include <linux/init.h>
33 #include <linux/sched.h>
34 #include <linux/ieee80211.h>
35
36 #include "iwl-dev.h"
37 #include "iwl-core.h"
38 #include "iwl-io.h"
39 #include "iwl-agn-hw.h"
40 #include "iwl-agn.h"
41 #include "iwl-trans.h"
42
43 static void iwlagn_tx_cmd_protection(struct iwl_priv *priv,
44                                      struct ieee80211_tx_info *info,
45                                      __le16 fc, __le32 *tx_flags)
46 {
47         if (info->control.rates[0].flags & IEEE80211_TX_RC_USE_RTS_CTS ||
48             info->control.rates[0].flags & IEEE80211_TX_RC_USE_CTS_PROTECT ||
49             info->flags & IEEE80211_TX_CTL_AMPDU)
50                 *tx_flags |= TX_CMD_FLG_PROT_REQUIRE_MSK;
51 }
52
53 /*
54  * handle build REPLY_TX command notification.
55  */
56 static void iwlagn_tx_cmd_build_basic(struct iwl_priv *priv,
57                                       struct sk_buff *skb,
58                                       struct iwl_tx_cmd *tx_cmd,
59                                       struct ieee80211_tx_info *info,
60                                       struct ieee80211_hdr *hdr, u8 sta_id)
61 {
62         __le16 fc = hdr->frame_control;
63         __le32 tx_flags = tx_cmd->tx_flags;
64
65         tx_cmd->stop_time.life_time = TX_CMD_LIFE_TIME_INFINITE;
66
67         if (!(info->flags & IEEE80211_TX_CTL_NO_ACK))
68                 tx_flags |= TX_CMD_FLG_ACK_MSK;
69         else
70                 tx_flags &= ~TX_CMD_FLG_ACK_MSK;
71
72         if (ieee80211_is_probe_resp(fc))
73                 tx_flags |= TX_CMD_FLG_TSF_MSK;
74         else if (ieee80211_is_back_req(fc))
75                 tx_flags |= TX_CMD_FLG_ACK_MSK | TX_CMD_FLG_IMM_BA_RSP_MASK;
76         else if (info->band == IEEE80211_BAND_2GHZ &&
77                  cfg(priv)->bt_params &&
78                  cfg(priv)->bt_params->advanced_bt_coexist &&
79                  (ieee80211_is_auth(fc) || ieee80211_is_assoc_req(fc) ||
80                  ieee80211_is_reassoc_req(fc) ||
81                  skb->protocol == cpu_to_be16(ETH_P_PAE)))
82                 tx_flags |= TX_CMD_FLG_IGNORE_BT;
83
84
85         tx_cmd->sta_id = sta_id;
86         if (ieee80211_has_morefrags(fc))
87                 tx_flags |= TX_CMD_FLG_MORE_FRAG_MSK;
88
89         if (ieee80211_is_data_qos(fc)) {
90                 u8 *qc = ieee80211_get_qos_ctl(hdr);
91                 tx_cmd->tid_tspec = qc[0] & 0xf;
92                 tx_flags &= ~TX_CMD_FLG_SEQ_CTL_MSK;
93         } else {
94                 tx_cmd->tid_tspec = IWL_TID_NON_QOS;
95                 if (info->flags & IEEE80211_TX_CTL_ASSIGN_SEQ)
96                         tx_flags |= TX_CMD_FLG_SEQ_CTL_MSK;
97                 else
98                         tx_flags &= ~TX_CMD_FLG_SEQ_CTL_MSK;
99         }
100
101         iwlagn_tx_cmd_protection(priv, info, fc, &tx_flags);
102
103         tx_flags &= ~(TX_CMD_FLG_ANT_SEL_MSK);
104         if (ieee80211_is_mgmt(fc)) {
105                 if (ieee80211_is_assoc_req(fc) || ieee80211_is_reassoc_req(fc))
106                         tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(3);
107                 else
108                         tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(2);
109         } else {
110                 tx_cmd->timeout.pm_frame_timeout = 0;
111         }
112
113         tx_cmd->driver_txop = 0;
114         tx_cmd->tx_flags = tx_flags;
115         tx_cmd->next_frame_len = 0;
116 }
117
118 static void iwlagn_tx_cmd_build_rate(struct iwl_priv *priv,
119                                      struct iwl_tx_cmd *tx_cmd,
120                                      struct ieee80211_tx_info *info,
121                                      __le16 fc)
122 {
123         u32 rate_flags;
124         int rate_idx;
125         u8 rts_retry_limit;
126         u8 data_retry_limit;
127         u8 rate_plcp;
128
129         if (priv->wowlan) {
130                 rts_retry_limit = IWLAGN_LOW_RETRY_LIMIT;
131                 data_retry_limit = IWLAGN_LOW_RETRY_LIMIT;
132         } else {
133                 /* Set retry limit on RTS packets */
134                 rts_retry_limit = IWLAGN_RTS_DFAULT_RETRY_LIMIT;
135
136                 /* Set retry limit on DATA packets and Probe Responses*/
137                 if (ieee80211_is_probe_resp(fc)) {
138                         data_retry_limit = IWLAGN_MGMT_DFAULT_RETRY_LIMIT;
139                         rts_retry_limit =
140                                 min(data_retry_limit, rts_retry_limit);
141                 } else if (ieee80211_is_back_req(fc))
142                         data_retry_limit = IWLAGN_BAR_DFAULT_RETRY_LIMIT;
143                 else
144                         data_retry_limit = IWLAGN_DEFAULT_TX_RETRY;
145         }
146
147         tx_cmd->data_retry_limit = data_retry_limit;
148         tx_cmd->rts_retry_limit = rts_retry_limit;
149
150         /* DATA packets will use the uCode station table for rate/antenna
151          * selection */
152         if (ieee80211_is_data(fc)) {
153                 tx_cmd->initial_rate_index = 0;
154                 tx_cmd->tx_flags |= TX_CMD_FLG_STA_RATE_MSK;
155 #ifdef CONFIG_IWLWIFI_DEVICE_TESTMODE
156                 if (priv->tm_fixed_rate) {
157                         /*
158                          * rate overwrite by testmode
159                          * we not only send lq command to change rate
160                          * we also re-enforce per data pkt base.
161                          */
162                         tx_cmd->tx_flags &= ~TX_CMD_FLG_STA_RATE_MSK;
163                         memcpy(&tx_cmd->rate_n_flags, &priv->tm_fixed_rate,
164                                sizeof(tx_cmd->rate_n_flags));
165                 }
166 #endif
167                 return;
168         } else if (ieee80211_is_back_req(fc))
169                 tx_cmd->tx_flags |= TX_CMD_FLG_STA_RATE_MSK;
170
171         /**
172          * If the current TX rate stored in mac80211 has the MCS bit set, it's
173          * not really a TX rate.  Thus, we use the lowest supported rate for
174          * this band.  Also use the lowest supported rate if the stored rate
175          * index is invalid.
176          */
177         rate_idx = info->control.rates[0].idx;
178         if (info->control.rates[0].flags & IEEE80211_TX_RC_MCS ||
179                         (rate_idx < 0) || (rate_idx > IWL_RATE_COUNT_LEGACY))
180                 rate_idx = rate_lowest_index(&priv->bands[info->band],
181                                 info->control.sta);
182         /* For 5 GHZ band, remap mac80211 rate indices into driver indices */
183         if (info->band == IEEE80211_BAND_5GHZ)
184                 rate_idx += IWL_FIRST_OFDM_RATE;
185         /* Get PLCP rate for tx_cmd->rate_n_flags */
186         rate_plcp = iwl_rates[rate_idx].plcp;
187         /* Zero out flags for this packet */
188         rate_flags = 0;
189
190         /* Set CCK flag as needed */
191         if ((rate_idx >= IWL_FIRST_CCK_RATE) && (rate_idx <= IWL_LAST_CCK_RATE))
192                 rate_flags |= RATE_MCS_CCK_MSK;
193
194         /* Set up antennas */
195          if (cfg(priv)->bt_params &&
196              cfg(priv)->bt_params->advanced_bt_coexist &&
197              priv->bt_full_concurrent) {
198                 /* operated as 1x1 in full concurrency mode */
199                 priv->mgmt_tx_ant = iwl_toggle_tx_ant(priv, priv->mgmt_tx_ant,
200                                 first_antenna(hw_params(priv).valid_tx_ant));
201         } else
202                 priv->mgmt_tx_ant = iwl_toggle_tx_ant(priv, priv->mgmt_tx_ant,
203                                                 hw_params(priv).valid_tx_ant);
204         rate_flags |= iwl_ant_idx_to_flags(priv->mgmt_tx_ant);
205
206         /* Set the rate in the TX cmd */
207         tx_cmd->rate_n_flags = iwl_hw_set_rate_n_flags(rate_plcp, rate_flags);
208 }
209
210 static void iwlagn_tx_cmd_build_hwcrypto(struct iwl_priv *priv,
211                                          struct ieee80211_tx_info *info,
212                                          struct iwl_tx_cmd *tx_cmd,
213                                          struct sk_buff *skb_frag)
214 {
215         struct ieee80211_key_conf *keyconf = info->control.hw_key;
216
217         switch (keyconf->cipher) {
218         case WLAN_CIPHER_SUITE_CCMP:
219                 tx_cmd->sec_ctl = TX_CMD_SEC_CCM;
220                 memcpy(tx_cmd->key, keyconf->key, keyconf->keylen);
221                 if (info->flags & IEEE80211_TX_CTL_AMPDU)
222                         tx_cmd->tx_flags |= TX_CMD_FLG_AGG_CCMP_MSK;
223                 IWL_DEBUG_TX(priv, "tx_cmd with AES hwcrypto\n");
224                 break;
225
226         case WLAN_CIPHER_SUITE_TKIP:
227                 tx_cmd->sec_ctl = TX_CMD_SEC_TKIP;
228                 ieee80211_get_tkip_p2k(keyconf, skb_frag, tx_cmd->key);
229                 IWL_DEBUG_TX(priv, "tx_cmd with tkip hwcrypto\n");
230                 break;
231
232         case WLAN_CIPHER_SUITE_WEP104:
233                 tx_cmd->sec_ctl |= TX_CMD_SEC_KEY128;
234                 /* fall through */
235         case WLAN_CIPHER_SUITE_WEP40:
236                 tx_cmd->sec_ctl |= (TX_CMD_SEC_WEP |
237                         (keyconf->keyidx & TX_CMD_SEC_MSK) << TX_CMD_SEC_SHIFT);
238
239                 memcpy(&tx_cmd->key[3], keyconf->key, keyconf->keylen);
240
241                 IWL_DEBUG_TX(priv, "Configuring packet for WEP encryption "
242                              "with key %d\n", keyconf->keyidx);
243                 break;
244
245         default:
246                 IWL_ERR(priv, "Unknown encode cipher %x\n", keyconf->cipher);
247                 break;
248         }
249 }
250
251 /*
252  * start REPLY_TX command process
253  */
254 int iwlagn_tx_skb(struct iwl_priv *priv, struct sk_buff *skb)
255 {
256         struct ieee80211_hdr *hdr = (struct ieee80211_hdr *)skb->data;
257         struct ieee80211_tx_info *info = IEEE80211_SKB_CB(skb);
258         struct iwl_station_priv *sta_priv = NULL;
259         struct iwl_rxon_context *ctx = &priv->contexts[IWL_RXON_CTX_BSS];
260         struct iwl_device_cmd *dev_cmd = NULL;
261         struct iwl_tx_cmd *tx_cmd;
262         __le16 fc;
263         u8 hdr_len;
264         u16 len, seq_number = 0;
265         u8 sta_id, tid = IWL_MAX_TID_COUNT;
266         bool is_agg = false;
267
268         if (info->control.vif)
269                 ctx = iwl_rxon_ctx_from_vif(info->control.vif);
270
271         if (iwl_is_rfkill(priv->shrd)) {
272                 IWL_DEBUG_DROP(priv, "Dropping - RF KILL\n");
273                 goto drop_unlock_priv;
274         }
275
276         fc = hdr->frame_control;
277
278 #ifdef CONFIG_IWLWIFI_DEBUG
279         if (ieee80211_is_auth(fc))
280                 IWL_DEBUG_TX(priv, "Sending AUTH frame\n");
281         else if (ieee80211_is_assoc_req(fc))
282                 IWL_DEBUG_TX(priv, "Sending ASSOC frame\n");
283         else if (ieee80211_is_reassoc_req(fc))
284                 IWL_DEBUG_TX(priv, "Sending REASSOC frame\n");
285 #endif
286
287         if (unlikely(ieee80211_is_probe_resp(fc))) {
288                 struct iwl_wipan_noa_data *noa_data =
289                         rcu_dereference(priv->noa_data);
290
291                 if (noa_data &&
292                     pskb_expand_head(skb, 0, noa_data->length,
293                                      GFP_ATOMIC) == 0) {
294                         memcpy(skb_put(skb, noa_data->length),
295                                noa_data->data, noa_data->length);
296                         hdr = (struct ieee80211_hdr *)skb->data;
297                 }
298         }
299
300         hdr_len = ieee80211_hdrlen(fc);
301
302         /* For management frames use broadcast id to do not break aggregation */
303         if (!ieee80211_is_data(fc))
304                 sta_id = ctx->bcast_sta_id;
305         else {
306                 /* Find index into station table for destination station */
307                 sta_id = iwl_sta_id_or_broadcast(priv, ctx, info->control.sta);
308                 if (sta_id == IWL_INVALID_STATION) {
309                         IWL_DEBUG_DROP(priv, "Dropping - INVALID STATION: %pM\n",
310                                        hdr->addr1);
311                         goto drop_unlock_priv;
312                 }
313         }
314
315         IWL_DEBUG_TX(priv, "station Id %d\n", sta_id);
316
317         if (info->control.sta)
318                 sta_priv = (void *)info->control.sta->drv_priv;
319
320         if (sta_priv && sta_priv->asleep &&
321             (info->flags & IEEE80211_TX_CTL_NO_PS_BUFFER)) {
322                 /*
323                  * This sends an asynchronous command to the device,
324                  * but we can rely on it being processed before the
325                  * next frame is processed -- and the next frame to
326                  * this station is the one that will consume this
327                  * counter.
328                  * For now set the counter to just 1 since we do not
329                  * support uAPSD yet.
330                  *
331                  * FIXME: If we get two non-bufferable frames one
332                  * after the other, we might only send out one of
333                  * them because this is racy.
334                  */
335                 iwl_sta_modify_sleep_tx_count(priv, sta_id, 1);
336         }
337
338         if (info->flags & IEEE80211_TX_CTL_AMPDU)
339                 is_agg = true;
340
341         dev_cmd = kmem_cache_alloc(priv->tx_cmd_pool, GFP_ATOMIC);
342
343         if (unlikely(!dev_cmd))
344                 goto drop_unlock_priv;
345
346         memset(dev_cmd, 0, sizeof(*dev_cmd));
347         tx_cmd = (struct iwl_tx_cmd *) dev_cmd->payload;
348
349         /* Total # bytes to be transmitted */
350         len = (u16)skb->len;
351         tx_cmd->len = cpu_to_le16(len);
352
353         if (info->control.hw_key)
354                 iwlagn_tx_cmd_build_hwcrypto(priv, info, tx_cmd, skb);
355
356         /* TODO need this for burst mode later on */
357         iwlagn_tx_cmd_build_basic(priv, skb, tx_cmd, info, hdr, sta_id);
358         iwl_dbg_log_tx_data_frame(priv, len, hdr);
359
360         iwlagn_tx_cmd_build_rate(priv, tx_cmd, info, fc);
361
362         iwl_update_stats(priv, true, fc, len);
363
364         memset(&info->status, 0, sizeof(info->status));
365
366         info->driver_data[0] = ctx;
367         info->driver_data[1] = dev_cmd;
368
369         spin_lock(&priv->sta_lock);
370
371         if (ieee80211_is_data_qos(fc) && !ieee80211_is_qos_nullfunc(fc)) {
372                 u8 *qc = NULL;
373                 struct iwl_tid_data *tid_data;
374                 qc = ieee80211_get_qos_ctl(hdr);
375                 tid = qc[0] & IEEE80211_QOS_CTL_TID_MASK;
376                 if (WARN_ON_ONCE(tid >= IWL_MAX_TID_COUNT))
377                         goto drop_unlock_sta;
378                 tid_data = &priv->tid_data[sta_id][tid];
379
380                 /* aggregation is on for this <sta,tid> */
381                 if (info->flags & IEEE80211_TX_CTL_AMPDU &&
382                     tid_data->agg.state != IWL_AGG_ON) {
383                         IWL_ERR(priv, "TX_CTL_AMPDU while not in AGG:"
384                                 " Tx flags = 0x%08x, agg.state = %d",
385                                 info->flags, tid_data->agg.state);
386                         IWL_ERR(priv, "sta_id = %d, tid = %d seq_num = %d",
387                                 sta_id, tid, SEQ_TO_SN(tid_data->seq_number));
388                         goto drop_unlock_sta;
389                 }
390
391                 /* We can receive packets from the stack in IWL_AGG_{ON,OFF}
392                  * only. Check this here.
393                  */
394                 if (WARN_ONCE(tid_data->agg.state != IWL_AGG_ON &&
395                     tid_data->agg.state != IWL_AGG_OFF,
396                     "Tx while agg.state = %d", tid_data->agg.state))
397                         goto drop_unlock_sta;
398
399                 seq_number = tid_data->seq_number;
400                 seq_number &= IEEE80211_SCTL_SEQ;
401                 hdr->seq_ctrl &= cpu_to_le16(IEEE80211_SCTL_FRAG);
402                 hdr->seq_ctrl |= cpu_to_le16(seq_number);
403                 seq_number += 0x10;
404         }
405
406         /* Copy MAC header from skb into command buffer */
407         memcpy(tx_cmd->hdr, hdr, hdr_len);
408
409         if (iwl_trans_tx(trans(priv), skb, dev_cmd, ctx->ctxid, sta_id, tid))
410                 goto drop_unlock_sta;
411
412         if (ieee80211_is_data_qos(fc) && !ieee80211_is_qos_nullfunc(fc) &&
413             !ieee80211_has_morefrags(fc))
414                 priv->tid_data[sta_id][tid].seq_number = seq_number;
415
416         spin_unlock(&priv->sta_lock);
417
418         /*
419          * Avoid atomic ops if it isn't an associated client.
420          * Also, if this is a packet for aggregation, don't
421          * increase the counter because the ucode will stop
422          * aggregation queues when their respective station
423          * goes to sleep.
424          */
425         if (sta_priv && sta_priv->client && !is_agg)
426                 atomic_inc(&sta_priv->pending_frames);
427
428         return 0;
429
430 drop_unlock_sta:
431         if (dev_cmd)
432                 kmem_cache_free(priv->tx_cmd_pool, dev_cmd);
433         spin_unlock(&priv->sta_lock);
434 drop_unlock_priv:
435         return -1;
436 }
437
438 int iwlagn_tx_agg_stop(struct iwl_priv *priv, struct ieee80211_vif *vif,
439                         struct ieee80211_sta *sta, u16 tid)
440 {
441         struct iwl_tid_data *tid_data;
442         int sta_id;
443
444         sta_id = iwl_sta_id(sta);
445
446         if (sta_id == IWL_INVALID_STATION) {
447                 IWL_ERR(priv, "Invalid station for AGG tid %d\n", tid);
448                 return -ENXIO;
449         }
450
451         spin_lock_bh(&priv->sta_lock);
452
453         tid_data = &priv->tid_data[sta_id][tid];
454
455         switch (priv->tid_data[sta_id][tid].agg.state) {
456         case IWL_EMPTYING_HW_QUEUE_ADDBA:
457                 /*
458                 * This can happen if the peer stops aggregation
459                 * again before we've had a chance to drain the
460                 * queue we selected previously, i.e. before the
461                 * session was really started completely.
462                 */
463                 IWL_DEBUG_HT(priv, "AGG stop before setup done\n");
464                 goto turn_off;
465         case IWL_AGG_ON:
466                 break;
467         default:
468                 IWL_WARN(priv, "Stopping AGG while state not ON "
469                          "or starting for %d on %d (%d)\n", sta_id, tid,
470                          priv->tid_data[sta_id][tid].agg.state);
471                 spin_unlock_bh(&priv->sta_lock);
472                 return 0;
473         }
474
475         tid_data->agg.ssn = SEQ_TO_SN(tid_data->seq_number);
476
477         /* There are still packets for this RA / TID in the HW */
478         if (tid_data->agg.ssn != tid_data->next_reclaimed) {
479                 IWL_DEBUG_TX_QUEUES(priv, "Can't proceed: ssn %d, "
480                                     "next_recl = %d",
481                                     tid_data->agg.ssn,
482                                     tid_data->next_reclaimed);
483                 priv->tid_data[sta_id][tid].agg.state =
484                         IWL_EMPTYING_HW_QUEUE_DELBA;
485                 spin_unlock_bh(&priv->sta_lock);
486                 return 0;
487         }
488
489         IWL_DEBUG_TX_QUEUES(priv, "Can proceed: ssn = next_recl = %d",
490                             tid_data->agg.ssn);
491 turn_off:
492         priv->tid_data[sta_id][tid].agg.state = IWL_AGG_OFF;
493
494         spin_unlock_bh(&priv->sta_lock);
495
496         iwl_trans_tx_agg_disable(trans(priv), sta_id, tid);
497
498         ieee80211_stop_tx_ba_cb_irqsafe(vif, sta->addr, tid);
499
500         return 0;
501 }
502
503 int iwlagn_tx_agg_start(struct iwl_priv *priv, struct ieee80211_vif *vif,
504                         struct ieee80211_sta *sta, u16 tid, u16 *ssn)
505 {
506         struct iwl_tid_data *tid_data;
507         int sta_id;
508         int ret;
509
510         IWL_DEBUG_HT(priv, "TX AGG request on ra = %pM tid = %d\n",
511                      sta->addr, tid);
512
513         sta_id = iwl_sta_id(sta);
514         if (sta_id == IWL_INVALID_STATION) {
515                 IWL_ERR(priv, "Start AGG on invalid station\n");
516                 return -ENXIO;
517         }
518         if (unlikely(tid >= IWL_MAX_TID_COUNT))
519                 return -EINVAL;
520
521         if (priv->tid_data[sta_id][tid].agg.state != IWL_AGG_OFF) {
522                 IWL_ERR(priv, "Start AGG when state is not IWL_AGG_OFF !\n");
523                 return -ENXIO;
524         }
525
526         ret = iwl_sta_tx_modify_enable_tid(priv, sta_id, tid);
527         if (ret)
528                 return ret;
529
530         spin_lock_bh(&priv->sta_lock);
531
532         tid_data = &priv->tid_data[sta_id][tid];
533         tid_data->agg.ssn = SEQ_TO_SN(tid_data->seq_number);
534
535         *ssn = tid_data->agg.ssn;
536
537         ret = iwl_trans_tx_agg_alloc(trans(priv), sta_id, tid);
538         if (ret) {
539                 spin_unlock_bh(&priv->sta_lock);
540                 return ret;
541         }
542
543         if (*ssn == tid_data->next_reclaimed) {
544                 IWL_DEBUG_TX_QUEUES(priv, "Can proceed: ssn = next_recl = %d",
545                                     tid_data->agg.ssn);
546                 tid_data->agg.state = IWL_AGG_ON;
547                 ieee80211_start_tx_ba_cb_irqsafe(vif, sta->addr, tid);
548         } else {
549                 IWL_DEBUG_TX_QUEUES(priv, "Can't proceed: ssn %d, "
550                                     "next_reclaimed = %d",
551                                     tid_data->agg.ssn,
552                                     tid_data->next_reclaimed);
553                 tid_data->agg.state = IWL_EMPTYING_HW_QUEUE_ADDBA;
554         }
555
556         spin_unlock_bh(&priv->sta_lock);
557
558         return ret;
559 }
560
561 int iwlagn_tx_agg_oper(struct iwl_priv *priv, struct ieee80211_vif *vif,
562                         struct ieee80211_sta *sta, u16 tid, u8 buf_size)
563 {
564         struct iwl_station_priv *sta_priv = (void *) sta->drv_priv;
565         struct iwl_rxon_context *ctx = iwl_rxon_ctx_from_vif(vif);
566         u16 ssn;
567
568         buf_size = min_t(int, buf_size, LINK_QUAL_AGG_FRAME_LIMIT_DEF);
569
570         spin_lock_bh(&priv->sta_lock);
571         ssn = priv->tid_data[sta_priv->sta_id][tid].agg.ssn;
572         spin_unlock_bh(&priv->sta_lock);
573
574         iwl_trans_tx_agg_setup(trans(priv), ctx->ctxid, sta_priv->sta_id, tid,
575                                buf_size, ssn);
576
577         /*
578          * If the limit is 0, then it wasn't initialised yet,
579          * use the default. We can do that since we take the
580          * minimum below, and we don't want to go above our
581          * default due to hardware restrictions.
582          */
583         if (sta_priv->max_agg_bufsize == 0)
584                 sta_priv->max_agg_bufsize =
585                         LINK_QUAL_AGG_FRAME_LIMIT_DEF;
586
587         /*
588          * Even though in theory the peer could have different
589          * aggregation reorder buffer sizes for different sessions,
590          * our ucode doesn't allow for that and has a global limit
591          * for each station. Therefore, use the minimum of all the
592          * aggregation sessions and our default value.
593          */
594         sta_priv->max_agg_bufsize =
595                 min(sta_priv->max_agg_bufsize, buf_size);
596
597         if (cfg(priv)->ht_params &&
598             cfg(priv)->ht_params->use_rts_for_aggregation) {
599                 /*
600                  * switch to RTS/CTS if it is the prefer protection
601                  * method for HT traffic
602                  */
603
604                 sta_priv->lq_sta.lq.general_params.flags |=
605                         LINK_QUAL_FLAGS_SET_STA_TLC_RTS_MSK;
606         }
607         priv->agg_tids_count++;
608         IWL_DEBUG_HT(priv, "priv->agg_tids_count = %u\n",
609                      priv->agg_tids_count);
610
611         sta_priv->lq_sta.lq.agg_params.agg_frame_cnt_limit =
612                 sta_priv->max_agg_bufsize;
613
614         IWL_DEBUG_HT(priv, "Tx aggregation enabled on ra = %pM tid = %d\n",
615                  sta->addr, tid);
616
617         return iwl_send_lq_cmd(priv, ctx,
618                         &sta_priv->lq_sta.lq, CMD_ASYNC, false);
619 }
620
621 static void iwlagn_check_ratid_empty(struct iwl_priv *priv, int sta_id, u8 tid)
622 {
623         struct iwl_tid_data *tid_data = &priv->tid_data[sta_id][tid];
624         enum iwl_rxon_context_id ctx;
625         struct ieee80211_vif *vif;
626         u8 *addr;
627
628         lockdep_assert_held(&priv->sta_lock);
629
630         addr = priv->stations[sta_id].sta.sta.addr;
631         ctx = priv->stations[sta_id].ctxid;
632         vif = priv->contexts[ctx].vif;
633
634         switch (priv->tid_data[sta_id][tid].agg.state) {
635         case IWL_EMPTYING_HW_QUEUE_DELBA:
636                 /* There are no packets for this RA / TID in the HW any more */
637                 if (tid_data->agg.ssn == tid_data->next_reclaimed) {
638                         IWL_DEBUG_TX_QUEUES(priv,
639                                 "Can continue DELBA flow ssn = next_recl ="
640                                 " %d", tid_data->next_reclaimed);
641                         iwl_trans_tx_agg_disable(trans(priv), sta_id, tid);
642                         tid_data->agg.state = IWL_AGG_OFF;
643                         ieee80211_stop_tx_ba_cb_irqsafe(vif, addr, tid);
644                 }
645                 break;
646         case IWL_EMPTYING_HW_QUEUE_ADDBA:
647                 /* There are no packets for this RA / TID in the HW any more */
648                 if (tid_data->agg.ssn == tid_data->next_reclaimed) {
649                         IWL_DEBUG_TX_QUEUES(priv,
650                                 "Can continue ADDBA flow ssn = next_recl ="
651                                 " %d", tid_data->next_reclaimed);
652                         tid_data->agg.state = IWL_AGG_ON;
653                         ieee80211_start_tx_ba_cb_irqsafe(vif, addr, tid);
654                 }
655                 break;
656         default:
657                 break;
658         }
659 }
660
661 static void iwlagn_non_agg_tx_status(struct iwl_priv *priv,
662                                      struct iwl_rxon_context *ctx,
663                                      const u8 *addr1)
664 {
665         struct ieee80211_sta *sta;
666         struct iwl_station_priv *sta_priv;
667
668         rcu_read_lock();
669         sta = ieee80211_find_sta(ctx->vif, addr1);
670         if (sta) {
671                 sta_priv = (void *)sta->drv_priv;
672                 /* avoid atomic ops if this isn't a client */
673                 if (sta_priv->client &&
674                     atomic_dec_return(&sta_priv->pending_frames) == 0)
675                         ieee80211_sta_block_awake(priv->hw, sta, false);
676         }
677         rcu_read_unlock();
678 }
679
680 /**
681  * translate ucode response to mac80211 tx status control values
682  */
683 static void iwlagn_hwrate_to_tx_control(struct iwl_priv *priv, u32 rate_n_flags,
684                                   struct ieee80211_tx_info *info)
685 {
686         struct ieee80211_tx_rate *r = &info->control.rates[0];
687
688         info->antenna_sel_tx =
689                 ((rate_n_flags & RATE_MCS_ANT_ABC_MSK) >> RATE_MCS_ANT_POS);
690         if (rate_n_flags & RATE_MCS_HT_MSK)
691                 r->flags |= IEEE80211_TX_RC_MCS;
692         if (rate_n_flags & RATE_MCS_GF_MSK)
693                 r->flags |= IEEE80211_TX_RC_GREEN_FIELD;
694         if (rate_n_flags & RATE_MCS_HT40_MSK)
695                 r->flags |= IEEE80211_TX_RC_40_MHZ_WIDTH;
696         if (rate_n_flags & RATE_MCS_DUP_MSK)
697                 r->flags |= IEEE80211_TX_RC_DUP_DATA;
698         if (rate_n_flags & RATE_MCS_SGI_MSK)
699                 r->flags |= IEEE80211_TX_RC_SHORT_GI;
700         r->idx = iwlagn_hwrate_to_mac80211_idx(rate_n_flags, info->band);
701 }
702
703 #ifdef CONFIG_IWLWIFI_DEBUG
704 const char *iwl_get_tx_fail_reason(u32 status)
705 {
706 #define TX_STATUS_FAIL(x) case TX_STATUS_FAIL_ ## x: return #x
707 #define TX_STATUS_POSTPONE(x) case TX_STATUS_POSTPONE_ ## x: return #x
708
709         switch (status & TX_STATUS_MSK) {
710         case TX_STATUS_SUCCESS:
711                 return "SUCCESS";
712         TX_STATUS_POSTPONE(DELAY);
713         TX_STATUS_POSTPONE(FEW_BYTES);
714         TX_STATUS_POSTPONE(BT_PRIO);
715         TX_STATUS_POSTPONE(QUIET_PERIOD);
716         TX_STATUS_POSTPONE(CALC_TTAK);
717         TX_STATUS_FAIL(INTERNAL_CROSSED_RETRY);
718         TX_STATUS_FAIL(SHORT_LIMIT);
719         TX_STATUS_FAIL(LONG_LIMIT);
720         TX_STATUS_FAIL(FIFO_UNDERRUN);
721         TX_STATUS_FAIL(DRAIN_FLOW);
722         TX_STATUS_FAIL(RFKILL_FLUSH);
723         TX_STATUS_FAIL(LIFE_EXPIRE);
724         TX_STATUS_FAIL(DEST_PS);
725         TX_STATUS_FAIL(HOST_ABORTED);
726         TX_STATUS_FAIL(BT_RETRY);
727         TX_STATUS_FAIL(STA_INVALID);
728         TX_STATUS_FAIL(FRAG_DROPPED);
729         TX_STATUS_FAIL(TID_DISABLE);
730         TX_STATUS_FAIL(FIFO_FLUSHED);
731         TX_STATUS_FAIL(INSUFFICIENT_CF_POLL);
732         TX_STATUS_FAIL(PASSIVE_NO_RX);
733         TX_STATUS_FAIL(NO_BEACON_ON_RADAR);
734         }
735
736         return "UNKNOWN";
737
738 #undef TX_STATUS_FAIL
739 #undef TX_STATUS_POSTPONE
740 }
741 #endif /* CONFIG_IWLWIFI_DEBUG */
742
743 static void iwlagn_count_agg_tx_err_status(struct iwl_priv *priv, u16 status)
744 {
745         status &= AGG_TX_STATUS_MSK;
746
747         switch (status) {
748         case AGG_TX_STATE_UNDERRUN_MSK:
749                 priv->reply_agg_tx_stats.underrun++;
750                 break;
751         case AGG_TX_STATE_BT_PRIO_MSK:
752                 priv->reply_agg_tx_stats.bt_prio++;
753                 break;
754         case AGG_TX_STATE_FEW_BYTES_MSK:
755                 priv->reply_agg_tx_stats.few_bytes++;
756                 break;
757         case AGG_TX_STATE_ABORT_MSK:
758                 priv->reply_agg_tx_stats.abort++;
759                 break;
760         case AGG_TX_STATE_LAST_SENT_TTL_MSK:
761                 priv->reply_agg_tx_stats.last_sent_ttl++;
762                 break;
763         case AGG_TX_STATE_LAST_SENT_TRY_CNT_MSK:
764                 priv->reply_agg_tx_stats.last_sent_try++;
765                 break;
766         case AGG_TX_STATE_LAST_SENT_BT_KILL_MSK:
767                 priv->reply_agg_tx_stats.last_sent_bt_kill++;
768                 break;
769         case AGG_TX_STATE_SCD_QUERY_MSK:
770                 priv->reply_agg_tx_stats.scd_query++;
771                 break;
772         case AGG_TX_STATE_TEST_BAD_CRC32_MSK:
773                 priv->reply_agg_tx_stats.bad_crc32++;
774                 break;
775         case AGG_TX_STATE_RESPONSE_MSK:
776                 priv->reply_agg_tx_stats.response++;
777                 break;
778         case AGG_TX_STATE_DUMP_TX_MSK:
779                 priv->reply_agg_tx_stats.dump_tx++;
780                 break;
781         case AGG_TX_STATE_DELAY_TX_MSK:
782                 priv->reply_agg_tx_stats.delay_tx++;
783                 break;
784         default:
785                 priv->reply_agg_tx_stats.unknown++;
786                 break;
787         }
788 }
789
790 static void iwl_rx_reply_tx_agg(struct iwl_priv *priv,
791                                 struct iwlagn_tx_resp *tx_resp)
792 {
793         struct agg_tx_status *frame_status = &tx_resp->status;
794         int tid = (tx_resp->ra_tid & IWLAGN_TX_RES_TID_MSK) >>
795                 IWLAGN_TX_RES_TID_POS;
796         int sta_id = (tx_resp->ra_tid & IWLAGN_TX_RES_RA_MSK) >>
797                 IWLAGN_TX_RES_RA_POS;
798         struct iwl_ht_agg *agg = &priv->tid_data[sta_id][tid].agg;
799         u32 status = le16_to_cpu(tx_resp->status.status);
800         int i;
801
802         WARN_ON(tid == IWL_TID_NON_QOS);
803
804         if (agg->wait_for_ba)
805                 IWL_DEBUG_TX_REPLY(priv,
806                         "got tx response w/o block-ack\n");
807
808         agg->rate_n_flags = le32_to_cpu(tx_resp->rate_n_flags);
809         agg->wait_for_ba = (tx_resp->frame_count > 1);
810
811         /*
812          * If the BT kill count is non-zero, we'll get this
813          * notification again.
814          */
815         if (tx_resp->bt_kill_count && tx_resp->frame_count == 1 &&
816             cfg(priv)->bt_params &&
817             cfg(priv)->bt_params->advanced_bt_coexist) {
818                 IWL_DEBUG_COEX(priv, "receive reply tx w/ bt_kill\n");
819         }
820
821         if (tx_resp->frame_count == 1)
822                 return;
823
824         /* Construct bit-map of pending frames within Tx window */
825         for (i = 0; i < tx_resp->frame_count; i++) {
826                 u16 fstatus = le16_to_cpu(frame_status[i].status);
827
828                 if (status & AGG_TX_STATUS_MSK)
829                         iwlagn_count_agg_tx_err_status(priv, fstatus);
830
831                 if (status & (AGG_TX_STATE_FEW_BYTES_MSK |
832                               AGG_TX_STATE_ABORT_MSK))
833                         continue;
834
835                 IWL_DEBUG_TX_REPLY(priv, "status %s (0x%08x), "
836                                    "try-count (0x%08x)\n",
837                                    iwl_get_agg_tx_fail_reason(fstatus),
838                                    fstatus & AGG_TX_STATUS_MSK,
839                                    fstatus & AGG_TX_TRY_MSK);
840         }
841 }
842
843 #ifdef CONFIG_IWLWIFI_DEBUG
844 #define AGG_TX_STATE_FAIL(x) case AGG_TX_STATE_ ## x: return #x
845
846 const char *iwl_get_agg_tx_fail_reason(u16 status)
847 {
848         status &= AGG_TX_STATUS_MSK;
849         switch (status) {
850         case AGG_TX_STATE_TRANSMITTED:
851                 return "SUCCESS";
852                 AGG_TX_STATE_FAIL(UNDERRUN_MSK);
853                 AGG_TX_STATE_FAIL(BT_PRIO_MSK);
854                 AGG_TX_STATE_FAIL(FEW_BYTES_MSK);
855                 AGG_TX_STATE_FAIL(ABORT_MSK);
856                 AGG_TX_STATE_FAIL(LAST_SENT_TTL_MSK);
857                 AGG_TX_STATE_FAIL(LAST_SENT_TRY_CNT_MSK);
858                 AGG_TX_STATE_FAIL(LAST_SENT_BT_KILL_MSK);
859                 AGG_TX_STATE_FAIL(SCD_QUERY_MSK);
860                 AGG_TX_STATE_FAIL(TEST_BAD_CRC32_MSK);
861                 AGG_TX_STATE_FAIL(RESPONSE_MSK);
862                 AGG_TX_STATE_FAIL(DUMP_TX_MSK);
863                 AGG_TX_STATE_FAIL(DELAY_TX_MSK);
864         }
865
866         return "UNKNOWN";
867 }
868 #endif /* CONFIG_IWLWIFI_DEBUG */
869
870 static inline u32 iwlagn_get_scd_ssn(struct iwlagn_tx_resp *tx_resp)
871 {
872         return le32_to_cpup((__le32 *)&tx_resp->status +
873                             tx_resp->frame_count) & MAX_SN;
874 }
875
876 static void iwlagn_count_tx_err_status(struct iwl_priv *priv, u16 status)
877 {
878         status &= TX_STATUS_MSK;
879
880         switch (status) {
881         case TX_STATUS_POSTPONE_DELAY:
882                 priv->reply_tx_stats.pp_delay++;
883                 break;
884         case TX_STATUS_POSTPONE_FEW_BYTES:
885                 priv->reply_tx_stats.pp_few_bytes++;
886                 break;
887         case TX_STATUS_POSTPONE_BT_PRIO:
888                 priv->reply_tx_stats.pp_bt_prio++;
889                 break;
890         case TX_STATUS_POSTPONE_QUIET_PERIOD:
891                 priv->reply_tx_stats.pp_quiet_period++;
892                 break;
893         case TX_STATUS_POSTPONE_CALC_TTAK:
894                 priv->reply_tx_stats.pp_calc_ttak++;
895                 break;
896         case TX_STATUS_FAIL_INTERNAL_CROSSED_RETRY:
897                 priv->reply_tx_stats.int_crossed_retry++;
898                 break;
899         case TX_STATUS_FAIL_SHORT_LIMIT:
900                 priv->reply_tx_stats.short_limit++;
901                 break;
902         case TX_STATUS_FAIL_LONG_LIMIT:
903                 priv->reply_tx_stats.long_limit++;
904                 break;
905         case TX_STATUS_FAIL_FIFO_UNDERRUN:
906                 priv->reply_tx_stats.fifo_underrun++;
907                 break;
908         case TX_STATUS_FAIL_DRAIN_FLOW:
909                 priv->reply_tx_stats.drain_flow++;
910                 break;
911         case TX_STATUS_FAIL_RFKILL_FLUSH:
912                 priv->reply_tx_stats.rfkill_flush++;
913                 break;
914         case TX_STATUS_FAIL_LIFE_EXPIRE:
915                 priv->reply_tx_stats.life_expire++;
916                 break;
917         case TX_STATUS_FAIL_DEST_PS:
918                 priv->reply_tx_stats.dest_ps++;
919                 break;
920         case TX_STATUS_FAIL_HOST_ABORTED:
921                 priv->reply_tx_stats.host_abort++;
922                 break;
923         case TX_STATUS_FAIL_BT_RETRY:
924                 priv->reply_tx_stats.bt_retry++;
925                 break;
926         case TX_STATUS_FAIL_STA_INVALID:
927                 priv->reply_tx_stats.sta_invalid++;
928                 break;
929         case TX_STATUS_FAIL_FRAG_DROPPED:
930                 priv->reply_tx_stats.frag_drop++;
931                 break;
932         case TX_STATUS_FAIL_TID_DISABLE:
933                 priv->reply_tx_stats.tid_disable++;
934                 break;
935         case TX_STATUS_FAIL_FIFO_FLUSHED:
936                 priv->reply_tx_stats.fifo_flush++;
937                 break;
938         case TX_STATUS_FAIL_INSUFFICIENT_CF_POLL:
939                 priv->reply_tx_stats.insuff_cf_poll++;
940                 break;
941         case TX_STATUS_FAIL_PASSIVE_NO_RX:
942                 priv->reply_tx_stats.fail_hw_drop++;
943                 break;
944         case TX_STATUS_FAIL_NO_BEACON_ON_RADAR:
945                 priv->reply_tx_stats.sta_color_mismatch++;
946                 break;
947         default:
948                 priv->reply_tx_stats.unknown++;
949                 break;
950         }
951 }
952
953 static void iwlagn_set_tx_status(struct iwl_priv *priv,
954                                  struct ieee80211_tx_info *info,
955                                  struct iwlagn_tx_resp *tx_resp,
956                                  bool is_agg)
957 {
958         u16  status = le16_to_cpu(tx_resp->status.status);
959
960         info->status.rates[0].count = tx_resp->failure_frame + 1;
961         if (is_agg)
962                 info->flags &= ~IEEE80211_TX_CTL_AMPDU;
963         info->flags |= iwl_tx_status_to_mac80211(status);
964         iwlagn_hwrate_to_tx_control(priv, le32_to_cpu(tx_resp->rate_n_flags),
965                                     info);
966         if (!iwl_is_tx_success(status))
967                 iwlagn_count_tx_err_status(priv, status);
968 }
969
970 static void iwl_check_abort_status(struct iwl_priv *priv,
971                             u8 frame_count, u32 status)
972 {
973         if (frame_count == 1 && status == TX_STATUS_FAIL_RFKILL_FLUSH) {
974                 IWL_ERR(priv, "Tx flush command to flush out all frames\n");
975                 if (!test_bit(STATUS_EXIT_PENDING, &priv->shrd->status))
976                         queue_work(priv->workqueue, &priv->tx_flush);
977         }
978 }
979
980 int iwlagn_rx_reply_tx(struct iwl_priv *priv, struct iwl_rx_cmd_buffer *rxb,
981                                struct iwl_device_cmd *cmd)
982 {
983         struct iwl_rx_packet *pkt = rxb_addr(rxb);
984         u16 sequence = le16_to_cpu(pkt->hdr.sequence);
985         int txq_id = SEQ_TO_QUEUE(sequence);
986         int cmd_index __maybe_unused = SEQ_TO_INDEX(sequence);
987         struct iwlagn_tx_resp *tx_resp = (void *)&pkt->u.raw[0];
988         struct ieee80211_hdr *hdr;
989         u32 status = le16_to_cpu(tx_resp->status.status);
990         u16 ssn = iwlagn_get_scd_ssn(tx_resp);
991         int tid;
992         int sta_id;
993         int freed;
994         struct ieee80211_tx_info *info;
995         struct sk_buff_head skbs;
996         struct sk_buff *skb;
997         struct iwl_rxon_context *ctx;
998         bool is_agg = (txq_id >= IWLAGN_FIRST_AMPDU_QUEUE);
999
1000         tid = (tx_resp->ra_tid & IWLAGN_TX_RES_TID_MSK) >>
1001                 IWLAGN_TX_RES_TID_POS;
1002         sta_id = (tx_resp->ra_tid & IWLAGN_TX_RES_RA_MSK) >>
1003                 IWLAGN_TX_RES_RA_POS;
1004
1005         spin_lock(&priv->sta_lock);
1006
1007         if (is_agg)
1008                 iwl_rx_reply_tx_agg(priv, tx_resp);
1009
1010         __skb_queue_head_init(&skbs);
1011
1012         if (tx_resp->frame_count == 1) {
1013                 u16 next_reclaimed = le16_to_cpu(tx_resp->seq_ctl);
1014                 next_reclaimed = SEQ_TO_SN(next_reclaimed + 0x10);
1015
1016                 if (is_agg) {
1017                         /* If this is an aggregation queue, we can rely on the
1018                          * ssn since the wifi sequence number corresponds to
1019                          * the index in the TFD ring (%256).
1020                          * The seq_ctl is the sequence control of the packet
1021                          * to which this Tx response relates. But if there is a
1022                          * hole in the bitmap of the BA we received, this Tx
1023                          * response may allow to reclaim the hole and all the
1024                          * subsequent packets that were already acked.
1025                          * In that case, seq_ctl != ssn, and the next packet
1026                          * to be reclaimed will be ssn and not seq_ctl.
1027                          */
1028                         next_reclaimed = ssn;
1029                 }
1030
1031                 if (tid != IWL_TID_NON_QOS) {
1032                         priv->tid_data[sta_id][tid].next_reclaimed =
1033                                 next_reclaimed;
1034                         IWL_DEBUG_TX_REPLY(priv, "Next reclaimed packet:%d",
1035                                                   next_reclaimed);
1036                 }
1037
1038                 /*we can free until ssn % q.n_bd not inclusive */
1039                 WARN_ON(iwl_trans_reclaim(trans(priv), sta_id, tid, txq_id,
1040                                   ssn, status, &skbs));
1041                 iwlagn_check_ratid_empty(priv, sta_id, tid);
1042                 freed = 0;
1043
1044                 /* process frames */
1045                 skb_queue_walk(&skbs, skb) {
1046                         hdr = (struct ieee80211_hdr *)skb->data;
1047
1048                         if (!ieee80211_is_data_qos(hdr->frame_control))
1049                                 priv->last_seq_ctl = tx_resp->seq_ctl;
1050
1051                         info = IEEE80211_SKB_CB(skb);
1052                         ctx = info->driver_data[0];
1053                         kmem_cache_free(priv->tx_cmd_pool,
1054                                         (info->driver_data[1]));
1055
1056                         memset(&info->status, 0, sizeof(info->status));
1057
1058                         if (status == TX_STATUS_FAIL_PASSIVE_NO_RX &&
1059                             iwl_is_associated_ctx(ctx) && ctx->vif &&
1060                             ctx->vif->type == NL80211_IFTYPE_STATION) {
1061                                 ctx->last_tx_rejected = true;
1062                                 iwl_trans_stop_queue(trans(priv), txq_id,
1063                                         "Tx on passive channel");
1064
1065                                 IWL_DEBUG_TX_REPLY(priv,
1066                                            "TXQ %d status %s (0x%08x) "
1067                                            "rate_n_flags 0x%x retries %d\n",
1068                                            txq_id,
1069                                            iwl_get_tx_fail_reason(status),
1070                                            status,
1071                                            le32_to_cpu(tx_resp->rate_n_flags),
1072                                            tx_resp->failure_frame);
1073
1074                                 IWL_DEBUG_TX_REPLY(priv,
1075                                            "FrameCnt = %d, idx=%d\n",
1076                                            tx_resp->frame_count, cmd_index);
1077                         }
1078
1079                         /* check if BAR is needed */
1080                         if (is_agg && !iwl_is_tx_success(status))
1081                                 info->flags |= IEEE80211_TX_STAT_AMPDU_NO_BACK;
1082                         iwlagn_set_tx_status(priv, IEEE80211_SKB_CB(skb),
1083                                      tx_resp, is_agg);
1084                         if (!is_agg)
1085                                 iwlagn_non_agg_tx_status(priv, ctx, hdr->addr1);
1086
1087                         freed++;
1088                 }
1089
1090                 WARN_ON(!is_agg && freed != 1);
1091         }
1092
1093         iwl_check_abort_status(priv, tx_resp->frame_count, status);
1094         spin_unlock(&priv->sta_lock);
1095
1096         while (!skb_queue_empty(&skbs)) {
1097                 skb = __skb_dequeue(&skbs);
1098                 ieee80211_tx_status(priv->hw, skb);
1099         }
1100
1101         return 0;
1102 }
1103
1104 /**
1105  * iwlagn_rx_reply_compressed_ba - Handler for REPLY_COMPRESSED_BA
1106  *
1107  * Handles block-acknowledge notification from device, which reports success
1108  * of frames sent via aggregation.
1109  */
1110 int iwlagn_rx_reply_compressed_ba(struct iwl_priv *priv,
1111                                    struct iwl_rx_cmd_buffer *rxb,
1112                                    struct iwl_device_cmd *cmd)
1113 {
1114         struct iwl_rx_packet *pkt = rxb_addr(rxb);
1115         struct iwl_compressed_ba_resp *ba_resp = &pkt->u.compressed_ba;
1116         struct iwl_ht_agg *agg;
1117         struct sk_buff_head reclaimed_skbs;
1118         struct ieee80211_tx_info *info;
1119         struct ieee80211_hdr *hdr;
1120         struct sk_buff *skb;
1121         int sta_id;
1122         int tid;
1123         int freed;
1124
1125         /* "flow" corresponds to Tx queue */
1126         u16 scd_flow = le16_to_cpu(ba_resp->scd_flow);
1127
1128         /* "ssn" is start of block-ack Tx window, corresponds to index
1129          * (in Tx queue's circular buffer) of first TFD/frame in window */
1130         u16 ba_resp_scd_ssn = le16_to_cpu(ba_resp->scd_ssn);
1131
1132         if (scd_flow >= hw_params(priv).max_txq_num) {
1133                 IWL_ERR(priv,
1134                         "BUG_ON scd_flow is bigger than number of queues\n");
1135                 return 0;
1136         }
1137
1138         sta_id = ba_resp->sta_id;
1139         tid = ba_resp->tid;
1140         agg = &priv->tid_data[sta_id][tid].agg;
1141
1142         spin_lock(&priv->sta_lock);
1143
1144         if (unlikely(!agg->wait_for_ba)) {
1145                 if (unlikely(ba_resp->bitmap))
1146                         IWL_ERR(priv, "Received BA when not expected\n");
1147                 spin_unlock(&priv->sta_lock);
1148                 return 0;
1149         }
1150
1151         __skb_queue_head_init(&reclaimed_skbs);
1152
1153         /* Release all TFDs before the SSN, i.e. all TFDs in front of
1154          * block-ack window (we assume that they've been successfully
1155          * transmitted ... if not, it's too late anyway). */
1156         if (iwl_trans_reclaim(trans(priv), sta_id, tid, scd_flow,
1157                               ba_resp_scd_ssn, 0, &reclaimed_skbs)) {
1158                 spin_unlock(&priv->sta_lock);
1159                 return 0;
1160         }
1161
1162         IWL_DEBUG_TX_REPLY(priv, "REPLY_COMPRESSED_BA [%d] Received from %pM, "
1163                            "sta_id = %d\n",
1164                            agg->wait_for_ba,
1165                            (u8 *) &ba_resp->sta_addr_lo32,
1166                            ba_resp->sta_id);
1167         IWL_DEBUG_TX_REPLY(priv, "TID = %d, SeqCtl = %d, bitmap = 0x%llx, "
1168                            "scd_flow = %d, scd_ssn = %d\n",
1169                            ba_resp->tid, le16_to_cpu(ba_resp->seq_ctl),
1170                            (unsigned long long)le64_to_cpu(ba_resp->bitmap),
1171                            scd_flow, ba_resp_scd_ssn);
1172
1173         /* Mark that the expected block-ack response arrived */
1174         agg->wait_for_ba = false;
1175
1176         /* Sanity check values reported by uCode */
1177         if (ba_resp->txed_2_done > ba_resp->txed) {
1178                 IWL_DEBUG_TX_REPLY(priv,
1179                         "bogus sent(%d) and ack(%d) count\n",
1180                         ba_resp->txed, ba_resp->txed_2_done);
1181                 /*
1182                  * set txed_2_done = txed,
1183                  * so it won't impact rate scale
1184                  */
1185                 ba_resp->txed = ba_resp->txed_2_done;
1186         }
1187         IWL_DEBUG_HT(priv, "agg frames sent:%d, acked:%d\n",
1188                         ba_resp->txed, ba_resp->txed_2_done);
1189
1190         priv->tid_data[sta_id][tid].next_reclaimed = ba_resp_scd_ssn;
1191
1192         iwlagn_check_ratid_empty(priv, sta_id, tid);
1193         freed = 0;
1194
1195         skb_queue_walk(&reclaimed_skbs, skb) {
1196                 hdr = (struct ieee80211_hdr *)skb->data;
1197
1198                 if (ieee80211_is_data_qos(hdr->frame_control))
1199                         freed++;
1200                 else
1201                         WARN_ON_ONCE(1);
1202
1203                 info = IEEE80211_SKB_CB(skb);
1204                 kmem_cache_free(priv->tx_cmd_pool, (info->driver_data[1]));
1205
1206                 if (freed == 1) {
1207                         /* this is the first skb we deliver in this batch */
1208                         /* put the rate scaling data there */
1209                         info = IEEE80211_SKB_CB(skb);
1210                         memset(&info->status, 0, sizeof(info->status));
1211                         info->flags |= IEEE80211_TX_STAT_ACK;
1212                         info->flags |= IEEE80211_TX_STAT_AMPDU;
1213                         info->status.ampdu_ack_len = ba_resp->txed_2_done;
1214                         info->status.ampdu_len = ba_resp->txed;
1215                         iwlagn_hwrate_to_tx_control(priv, agg->rate_n_flags,
1216                                                     info);
1217                 }
1218         }
1219
1220         spin_unlock(&priv->sta_lock);
1221
1222         while (!skb_queue_empty(&reclaimed_skbs)) {
1223                 skb = __skb_dequeue(&reclaimed_skbs);
1224                 ieee80211_tx_status(priv->hw, skb);
1225         }
1226
1227         return 0;
1228 }