<div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">Dave,<div><br></div><div>The single BDP inflight is a rule of thumb that does not account for fluctuations of the RTT.</div><div>And I am not talking about random fluctuations and noise. I am talking about fluctuations</div><div>from a control theoretic point of view to stabilise the system, e.g. the trajectory of the system variable that</div><div>gets to the optimal point no matter the initial conditions (Lyapunov).</div><div>The ACM queue paper talking about Codel makes a fairly intuitive and accessible explanation of that.</div><div><br></div><div>There is a less accessible literature talking about that, which dates back to some time ago </div><div>that may be useful to re-read again</div><div><br></div><div><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">Damon Wischik and Nick McKeown. 2005. </span></div><div><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">Part I: buffer sizes for core routers. </span></div><div><span style="box-sizing:border-box;color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">SIGCOMM Comput. Commun. Rev.</span><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px"> 35, 3 (July 2005), 75-78. DOI=<a href="http://dx.doi.org/10.1145/1070873.1070884">http://dx.doi.org/10.1145/1070873.1070884</a></span><br></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px"><a href="http://klamath.stanford.edu/~nickm/papers/BufferSizing.pdf.pdf">http://klamath.stanford.edu/~nickm/papers/BufferSizing.pdf.pdf</a></span></font><br></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px"><br></span></font></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px">and </span></font></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px"><br></span></font></div><div><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">Gaurav Raina, Don Towsley, and Damon Wischik. 2005. </span></div><div><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">Part II: control theory for buffer sizing. </span></div><div><span style="box-sizing:border-box;color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">SIGCOMM Comput. Commun. Rev.</span><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px"> 35, 3 (July 2005), 79-82. </span></div><div><span style="color:rgb(0,0,0);font-family:tahoma,arial,verdana,sans-serif;font-size:12px">DOI=<a href="http://dx.doi.org/10.1145/1070873.1070885">http://dx.doi.org/10.1145/1070873.1070885</a></span></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px"><a href="http://www.statslab.cam.ac.uk/~gr224/PAPERS/Control_Theory_Buffers.pdf">http://www.statslab.cam.ac.uk/~gr224/PAPERS/Control_Theory_Buffers.pdf</a></span></font><br></div><div><font color="#000000" face="tahoma, arial, verdana, sans-serif"><span style="font-size:12px"><br></span></font></div><div>One of the thing that Frank Kelly has brought to the literature is about optimal control.</div><div>From a pure optimization point of view we know since Robert Gallagher (and Bertsekas 1981) that </div><div>the optimal sending rate is a function of the shadow price at the bottleneck.</div><div>This shadow price is nothing more than the Lagrange multiplier of the capacity constraint </div><div>at the bottleneck. Some protocols such as XCP or RCP propose to carry something</div><div>very close to a shadow price in the ECN but that's not that simple. </div><div>And currently we have a 0/1 "shadow price" which way insufficient.</div><div><br></div><div>Optimal control as developed by Frank Kelly since 1998 tells you that you have</div><div>a stability region that is needed to get to the optimum.</div><div><br></div><div>Wischik work, IMO, helps quite a lot to understand tradeoffs while designing AQM</div><div>and CC. I feel like the people who wrote the codel ACM Queue paper are very much aware of this literature,</div><div>because Codel design principles seem to take into account that.</div><div>And the BBR paper too.</div><div><br></div><div><br><div class="gmail_quote"><div dir="ltr">On Tue, Nov 27, 2018 at 9:58 PM Dave Taht <<a href="mailto:dave.taht@gmail.com">dave.taht@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">OK, wow, this conversation got long. and I'm still 20 messages behind.<br>
<br>
Two points, and I'm going to go back to work, and maybe I'll try to<br>
summarize a table<br>
of the competing viewpoints, as there's far more than BDP of<br>
discussion here, and what<br>
we need is sqrt(bdp) to deal with all the different conversational flows. :)<br>
<br>
On Tue, Nov 27, 2018 at 1:24 AM Luca Muscariello<br>
<<a href="mailto:luca.muscariello@gmail.com" target="_blank">luca.muscariello@gmail.com</a>> wrote:<br>
><br>
> I think that this is a very good comment to the discussion at the defense about the comparison between<br>
> SFQ with longest queue drop and FQ_Codel.<br>
><br>
> A congestion controlled protocol such as TCP or others, including QUIC, LEDBAT and so on<br>
> need at least the BDP in the transmission queue to get full link efficiency, i.e. the queue never empties out.<br>
<br>
no, I think it needs a BDP in flight.<br>
<br>
I think some of the confusion here is that your TCP stack needs to<br>
keep around a BDP in order to deal with<br>
retransmits, but that lives in another set of buffers entirely.<br>
<br>
> This gives rule of thumbs to size buffers which is also very practical and thanks to flow isolation becomes very accurate.<br>
><br>
> Which is:<br>
><br>
> 1) find a way to keep the number of backlogged flows at a reasonable value.<br>
> This largely depends on the minimum fair rate an application may need in the long term.<br>
> We discussed a little bit of available mechanisms to achieve that in the literature.<br>
><br>
> 2) fix the largest RTT you want to serve at full utilization and size the buffer using BDP * N_backlogged.<br>
> Or the other way round: check how much memory you can use<br>
> in the router/line card/device and for a fixed N, compute the largest RTT you can serve at full utilization.<br>
<br>
My own take on the whole BDP argument is that *so long as the flows in<br>
that BDP are thoroughly mixed* you win.<br>
<br>
><br>
> 3) there is still some memory to dimension for sparse flows in addition to that, but this is not based on BDP.<br>
> It is just enough to compute the total utilization of sparse flows and use the same simple model Toke has used<br>
> to compute the (de)prioritization probability.<br>
><br>
> This procedure would allow to size FQ_codel but also SFQ.<br>
> It would be interesting to compare the two under this buffer sizing.<br>
> It would also be interesting to compare another mechanism that we have mentioned during the defense<br>
> which is AFD + a sparse flow queue. Which is, BTW, already available in Cisco nexus switches for data centres.<br>
><br>
> I think that the the codel part would still provide the ECN feature, that all the others cannot have.<br>
> However the others, the last one especially can be implemented in silicon with reasonable cost.<br>
><br>
><br>
><br>
><br>
><br>
> On Mon 26 Nov 2018 at 22:30, Jonathan Morton <<a href="mailto:chromatix99@gmail.com" target="_blank">chromatix99@gmail.com</a>> wrote:<br>
>><br>
>> > On 26 Nov, 2018, at 9:08 pm, Pete Heist <<a href="mailto:pete@heistp.net" target="_blank">pete@heistp.net</a>> wrote:<br>
>> ><br>
>> > So I just thought to continue the discussion- when does the CoDel part of fq_codel actually help in the real world?<br>
>><br>
>> Fundamentally, without Codel the only limits on the congestion window would be when the sender or receiver hit configured or calculated rwnd and cwnd limits (the rwnd is visible on the wire and usually chosen to be large enough to be a non-factor), or when the queue overflows.  Large windows require buffer memory in both sender and receiver, increasing costs on the sender in particular (who typically has many flows to manage per machine).<br>
>><br>
>> Queue overflow tends to result in burst loss and head-of-line blocking in the receiver, which is visible to the user as a pause and subsequent jump in the progress of their download, accompanied by a major fluctuation in the estimated time to completion.  The lost packets also consume capacity upstream of the bottleneck which does not contribute to application throughput.  These effects are independent of whether overflow dropping occurs at the head or tail of the bottleneck queue, though recovery occurs more quickly (and fewer packets might be lost) if dropping occurs from the head of the queue.<br>
>><br>
>> From a pure throughput-efficiency standpoint, Codel allows using ECN for congestion signalling instead of packet loss, potentially eliminating packet loss and associated lead-of-line blocking entirely.  Even without ECN, the actual cwnd is kept near the minimum necessary to satisfy the BDP of the path, reducing memory requirements and significantly shortening the recovery time of each loss cycle, to the point where the end-user may not notice that delivery is not perfectly smooth, and implementing accurate completion time estimators is considerably simplified.<br>
>><br>
>> An important use-case is where two sequential bottlenecks exist on the path, the upstream one being only slightly higher capacity but lacking any queue management at all.  This is presently common in cases where home CPE implements inbound shaping on a generic ISP last-mile link.  In that case, without Codel running on the second bottleneck, traffic would collect in the first bottleneck's queue as well, greatly reducing the beneficial effects of FQ implemented on the second bottleneck.  In this topology, the overall effect is inter-flow as well as intra-flow.<br>
>><br>
>> The combination of Codel with FQ is done in such a way that a separate instance of Codel is implemented for each flow.  This means that congestion signals are only sent to flows that require them, and non-saturating flows are unmolested.  This makes the combination synergistic, where each component offers an improvement to the behaviour of the other.<br>
>><br>
>>  - Jonathan Morton<br>
>><br>
>> _______________________________________________<br>
>> Bloat mailing list<br>
>> <a href="mailto:Bloat@lists.bufferbloat.net" target="_blank">Bloat@lists.bufferbloat.net</a><br>
>> <a href="https://lists.bufferbloat.net/listinfo/bloat" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/listinfo/bloat</a><br>
><br>
> _______________________________________________<br>
> Bloat mailing list<br>
> <a href="mailto:Bloat@lists.bufferbloat.net" target="_blank">Bloat@lists.bufferbloat.net</a><br>
> <a href="https://lists.bufferbloat.net/listinfo/bloat" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/listinfo/bloat</a><br>
<br>
<br>
<br>
-- <br>
<br>
Dave Täht<br>
CTO, TekLibre, LLC<br>
<a href="http://www.teklibre.com" rel="noreferrer" target="_blank">http://www.teklibre.com</a><br>
Tel: 1-831-205-9740<br>
</blockquote></div></div></div></div></div></div></div>