]> git.karo-electronics.de Git - linux-beck.git/commitdiff
net: sched: further simplify handle_ing
authorDaniel Borkmann <daniel@iogearbox.net>
Sat, 9 May 2015 20:51:32 +0000 (22:51 +0200)
committerDavid S. Miller <davem@davemloft.net>
Mon, 11 May 2015 15:10:35 +0000 (11:10 -0400)
Ingress qdisc has no other purpose than calling into tc_classify()
that executes attached classifier(s) and action(s).

It has a 1:1 relationship to dev->ingress_queue. After having commit
087c1a601ad7 ("net: sched: run ingress qdisc without locks") removed
the central ingress lock, one major contention point is gone.

The extra indirection layers however, are not necessary for calling
into ingress qdisc. pktgen calling locally into netif_receive_skb()
with a dummy u32, single CPU result on a Supermicro X10SLM-F, Xeon
E3-1240: before ~21,1 Mpps, after patch ~22,9 Mpps.

We can redirect the private classifier list to the netdev directly,
without changing any classifier API bits (!) and execute on that from
handle_ing() side. The __QDISC_STATE_DEACTIVATE test can be removed,
ingress qdisc doesn't have a queue and thus dev_deactivate_queue()
is also not applicable, ingress_cl_list provides similar behaviour.
In other words, ingress qdisc acts like TCQ_F_BUILTIN qdisc.

One next possible step is the removal of the dev's ingress (dummy)
netdev_queue, and to only have the list member in the netdevice
itself.

Note, the filter chain is RCU protected and individual filter elements
are being kfree'd by sched subsystem after RCU grace period. RCU read
lock is being held by __netif_receive_skb_core().

Joint work with Alexei Starovoitov.

Signed-off-by: Daniel Borkmann <daniel@iogearbox.net>
Signed-off-by: Alexei Starovoitov <ast@plumgrid.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
include/linux/netdevice.h
net/core/dev.c
net/sched/sch_ingress.c

index 1899c74a712791ba33f7e17f2d139da21da70c42..c4e1caf6056f8093ed33caddcd24f7dbc9e3ef5c 100644 (file)
@@ -1655,7 +1655,11 @@ struct net_device {
        rx_handler_func_t __rcu *rx_handler;
        void __rcu              *rx_handler_data;
 
+#if CONFIG_NET_CLS_ACT
+       struct tcf_proto __rcu  *ingress_cl_list;
+#endif
        struct netdev_queue __rcu *ingress_queue;
+
        unsigned char           broadcast[MAX_ADDR_LEN];
 #ifdef CONFIG_RFS_ACCEL
        struct cpu_rmap         *rx_cpu_rmap;
index 8a757464bfa223f4ae2974ef251a43b471f9942b..e5f77c40bbd18e602d6cbf82dfb9a6b462d1b99e 100644 (file)
@@ -3525,31 +3525,37 @@ static inline struct sk_buff *handle_ing(struct sk_buff *skb,
                                         struct packet_type **pt_prev,
                                         int *ret, struct net_device *orig_dev)
 {
-       struct netdev_queue *rxq = rcu_dereference(skb->dev->ingress_queue);
-       struct Qdisc *q;
+       struct tcf_proto *cl = rcu_dereference_bh(skb->dev->ingress_cl_list);
+       struct tcf_result cl_res;
 
        /* If there's at least one ingress present somewhere (so
         * we get here via enabled static key), remaining devices
         * that are not configured with an ingress qdisc will bail
-        * out w/o the rcu_dereference().
+        * out here.
         */
-       if (!rxq || (q = rcu_dereference(rxq->qdisc)) == &noop_qdisc)
+       if (!cl)
                return skb;
-
        if (*pt_prev) {
                *ret = deliver_skb(skb, *pt_prev, orig_dev);
                *pt_prev = NULL;
        }
 
+       qdisc_bstats_update_cpu(cl->q, skb);
        skb->tc_verd = SET_TC_AT(skb->tc_verd, AT_INGRESS);
 
-       if (likely(!test_bit(__QDISC_STATE_DEACTIVATED, &q->state))) {
-               switch (qdisc_enqueue_root(skb, q)) {
-               case TC_ACT_SHOT:
-               case TC_ACT_STOLEN:
-                       kfree_skb(skb);
-                       return NULL;
-               }
+       switch (tc_classify(skb, cl, &cl_res)) {
+       case TC_ACT_OK:
+       case TC_ACT_RECLASSIFY:
+               skb->tc_index = TC_H_MIN(cl_res.classid);
+               break;
+       case TC_ACT_SHOT:
+               qdisc_qstats_drop_cpu(cl->q);
+       case TC_ACT_STOLEN:
+       case TC_ACT_QUEUED:
+               kfree_skb(skb);
+               return NULL;
+       default:
+               break;
        }
 
        return skb;
index a89cc3278bfb4b045955c71a2a98d97c647a0725..e7c648fa9dc3bfb8c8b4ae0b218d8c162aef83a5 100644 (file)
 #include <linux/list.h>
 #include <linux/skbuff.h>
 #include <linux/rtnetlink.h>
+
 #include <net/netlink.h>
 #include <net/pkt_sched.h>
 
-
-struct ingress_qdisc_data {
-       struct tcf_proto __rcu  *filter_list;
-};
-
-/* ------------------------- Class/flow operations ------------------------- */
-
 static struct Qdisc *ingress_leaf(struct Qdisc *sch, unsigned long arg)
 {
        return NULL;
@@ -49,45 +43,11 @@ static void ingress_walk(struct Qdisc *sch, struct qdisc_walker *walker)
 static struct tcf_proto __rcu **ingress_find_tcf(struct Qdisc *sch,
                                                 unsigned long cl)
 {
-       struct ingress_qdisc_data *p = qdisc_priv(sch);
-
-       return &p->filter_list;
-}
-
-/* --------------------------- Qdisc operations ---------------------------- */
+       struct net_device *dev = qdisc_dev(sch);
 
-static int ingress_enqueue(struct sk_buff *skb, struct Qdisc *sch)
-{
-       struct ingress_qdisc_data *p = qdisc_priv(sch);
-       struct tcf_result res;
-       struct tcf_proto *fl = rcu_dereference_bh(p->filter_list);
-       int result;
-
-       result = tc_classify(skb, fl, &res);
-
-       qdisc_bstats_update_cpu(sch, skb);
-       switch (result) {
-       case TC_ACT_SHOT:
-               result = TC_ACT_SHOT;
-               qdisc_qstats_drop_cpu(sch);
-               break;
-       case TC_ACT_STOLEN:
-       case TC_ACT_QUEUED:
-               result = TC_ACT_STOLEN;
-               break;
-       case TC_ACT_RECLASSIFY:
-       case TC_ACT_OK:
-               skb->tc_index = TC_H_MIN(res.classid);
-       default:
-               result = TC_ACT_OK;
-               break;
-       }
-
-       return result;
+       return &dev->ingress_cl_list;
 }
 
-/* ------------------------------------------------------------- */
-
 static int ingress_init(struct Qdisc *sch, struct nlattr *opt)
 {
        net_inc_ingress_queue();
@@ -98,9 +58,9 @@ static int ingress_init(struct Qdisc *sch, struct nlattr *opt)
 
 static void ingress_destroy(struct Qdisc *sch)
 {
-       struct ingress_qdisc_data *p = qdisc_priv(sch);
+       struct net_device *dev = qdisc_dev(sch);
 
-       tcf_destroy_chain(&p->filter_list);
+       tcf_destroy_chain(&dev->ingress_cl_list);
        net_dec_ingress_queue();
 }
 
@@ -111,6 +71,7 @@ static int ingress_dump(struct Qdisc *sch, struct sk_buff *skb)
        nest = nla_nest_start(skb, TCA_OPTIONS);
        if (nest == NULL)
                goto nla_put_failure;
+
        return nla_nest_end(skb, nest);
 
 nla_put_failure:
@@ -131,8 +92,6 @@ static const struct Qdisc_class_ops ingress_class_ops = {
 static struct Qdisc_ops ingress_qdisc_ops __read_mostly = {
        .cl_ops         =       &ingress_class_ops,
        .id             =       "ingress",
-       .priv_size      =       sizeof(struct ingress_qdisc_data),
-       .enqueue        =       ingress_enqueue,
        .init           =       ingress_init,
        .destroy        =       ingress_destroy,
        .dump           =       ingress_dump,
@@ -149,6 +108,7 @@ static void __exit ingress_module_exit(void)
        unregister_qdisc(&ingress_qdisc_ops);
 }
 
-module_init(ingress_module_init)
-module_exit(ingress_module_exit)
+module_init(ingress_module_init);
+module_exit(ingress_module_exit);
+
 MODULE_LICENSE("GPL");