<html><head></head><body>I do know that. I would say that benchmarks rarely match real world problems of real systems- they come from sources like academia and technical marketing depts. My job for the last few years has been looking at stems with dozens of processors across 2 and 4 sockets and multiple 10 GigE adapters.<br clear="none">
<br clear="none">
There are few benchmarks that look like real workloads. And even smaller systems do very poorly compared to what is possible.  Linux is slowly getting better but not so much in the network area at scale.  That would take a plan and a rethinking. Beyond incremental tweaks. My opinion ... ymmv.<br clear="none"><br clear="none"><div class="gmail_quote">On Oct 10, 2014, David Lang <david@lang.hm> wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre class="k10mail">I've been watching Linux kernel development for a long time and they add locks <br clear="none">only when benchmarks show that a lock is causing a bottleneck. They don't just <br clear="none">add them because they can.<br clear="none"><br clear="none">They do also spend a lot of time working to avoid locks.<br clear="none"><br clear="none">One thing that you are missing is that you are thinking of the TCP/IP system as <br clear="none">a single thread of execution, but there's far more going on than that, <br clear="none">especially when you have multiple NICs and cores and have lots of interrupts <br clear="none">going on.<br clear="none"><br clear="none">Each TCP/IP stream is not a separate queue of packets in the kernel, instead <br clear="none">the details of what threads exist is just a table of information. The packets <br clear="none">are all put in a small number of queues to be sent out, and the low-level driver <br clear="none">picks the next packet to send from these queues without caring about what TCP/IP <br clear="none">stream it's from.<br clear="none"><br clear="none">David Lang<br clear="none"><br clear="none">On Fri, 10 Oct 2014, dpreed@reed.com wrote:<br clear="none"><br clear="none"></pre><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;">The best approach to dealing with "locking overhead" is to stop thinking that <br clear="none">if locks are good, more locking (finer grained locking) is better.  OS <br clear="none">designers (and Linux designers in particular) are still putting in way too <br clear="none">much locking.  I deal with this in my day job (we support systems with very <br clear="none">large numbers of cpus and because of the "fine grained" locking obsession, the <br clear="none">parallelized capacity is limited).  If you do a thoughtful design of your <br clear="none">network code, you don't need lots of locking - because TCP/IP streams don't <br clear="none">have to interact much - they are quite independent.  But instead OS designers <br clear="none">spend all their time thinking about doing "one thing at a time".<br clear="none"><br clear="none">There are some really good ideas out there (e.g. RCU) but you have to think <br clear="none">about the big picture of networking to understand how to use them.  I'm not <br clear="none">impressed with the folks who do the Linux networking stacks.<br clear="none"><br clear="none"><br clear="none">On Thursday, October 9, 2014 3:48pm, "Dave Taht" <dave.taht@gmail.com> said:<br clear="none"><br clear="none"><br clear="none"><br clear="none"><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #ad7fa8; padding-left: 1ex;">I have some hope that the skb->xmit_more API could be used to make<br clear="none">aggregating packets in wifi on an AP saner. (my vision for it was that<br clear="none">the overlying qdisc would set xmit_more while it still had packets<br clear="none">queued up for a given station and then stop and switch to the next.<br clear="none">But the rest of the infrastructure ended up pretty closely tied to<br clear="none">BQL....)<br clear="none"><br clear="none">Jesper just wrote a nice piece about it also.<br clear="none"><a shape="rect" href="http://netoptimizer.blogspot.com/2014/10/unlocked-10gbps-tx-wirespeed-smallest.html">http://netoptimizer.blogspot.com/2014/10/unlocked-10gbps-tx-wirespeed-smallest.html</a><br clear="none"><br clear="none">It was nice to fool around at 10GigE for a while! And netperf-wrapper<br clear="none">scales to this speed also! :wow:<br clear="none"><br clear="none">I do worry that once sch_fq and fq_codel support is added that there<br clear="none">will be side effects. I would really like - now that there are al<br clear="none">these people profiling things at this level to see profiles including<br clear="none">those qdiscs.<br clear="none"><br clear="none">/me goes grumbling back to thinking about wifi.<br clear="none"><br clear="none">On Thu, Oct 9, 2014 at 12:40 PM, David Lang <david@lang.hm> wrote:<br clear="none"><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #8ae234; padding-left: 1ex;"><a shape="rect" href="http://lwn.net">lwn.net</a> has an article about a set of new patches that avoid some locking<br clear="none">overhead by transmitting multiple packets at once.<br clear="none"><br clear="none">It doesn't work for things with multiple queues (like fq_codel) in it's<br clear="none">current iteration, but it sounds like something that should be looked at and<br clear="none">watched for latency related issues.<br clear="none"><br clear="none"><a shape="rect" href="http://lwn.net/Articles/615238">http://lwn.net/Articles/615238</a>/<br clear="none"><br clear="none">David Lang<br clear="none"><hr><br clear="none">Cerowrt-devel mailing list<br clear="none">Cerowrt-devel@lists.bufferbloat.net<br clear="none"><a shape="rect" href="https://lists.bufferbloat.net/listinfo/cerowrt-devel">https://lists.bufferbloat.net/listinfo/cerowrt-devel</a></blockquote><br clear="none"><br clear="none"><br clear="none">--<br clear="none">Dave Täht<br clear="none"><br clear="none"><a shape="rect" href="https://www.bufferbloat.net/projects/make-wifi-fast">https://www.bufferbloat.net/projects/make-wifi-fast</a><br clear="none"><hr><br clear="none">Cerowrt-devel mailing list<br clear="none">Cerowrt-devel@lists.bufferbloat.net<br clear="none"><a shape="rect" href="https://lists.bufferbloat.net/listinfo/cerowrt-devel">https://lists.bufferbloat.net/listinfo/cerowrt-devel</a><br clear="none"></blockquote></blockquote></blockquote></div><br clear="none">-- Sent from my Android device with <b><a shape="rect" href="https://play.google.com/store/apps/details?id=com.onegravity.k10.pro2">K-@ Mail</a></b>. Please excuse my brevity.</body></html>