<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Thu, Nov 30, 2017 at 5:24 AM, Eric Dumazet <span dir="ltr"><<a href="mailto:eric.dumazet@gmail.com" target="_blank">eric.dumazet@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I agree that TCP itself should generate ACK smarter, on receivers that<br>
are lacking GRO. (TCP sends at most one ACK per GRO packets, that is<br>
why we did not feel an urgent need for better ACK generation)<br>
<br>
It is actually difficult task, because it might need an additional<br>
timer, and we were reluctant adding extra complexity for that.<br></blockquote><div><br></div><div>How about just using the existing delayed ACK timer, and just making the delayed ACK logic a bit smarter? We could try using the existing logic and timers, but using something adaptive instead of the magic "2" MSS received to force an ACK.</div><div> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
An additional point where huge gains are possible is to add TSO<br>
autodefer while in recovery. Lacking TSO auto defer explains why TCP<br>
flows enter a degenerated behavior, re-sending 1-MSS packets in<br>
response to SACK flood.<br></blockquote><div><br></div><div>Yes, agreed. I suspect there is some simple heuristic that could be implemented to allow TSO deferral for most packets sent in recovery. For example, allowing TSO deferral once the number of packet bursts (TSO skbs) sent in recovery is greater than some threshold. Perhaps TSO deferral would be fine in Recovery if we have sent, say, 10 skbs, because at that point if the ACK stream from the original flight dries up due to massive/tail loss, we have probably sent enough data in the new flight in Recovery to ensure some kind of ACKs come back to keep the ACK clock going.</div><div><br></div><div>neal</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="HOEnZb"><div class="h5"><br>
<br>
On Thu, 2017-11-30 at 09:48 +0200, Jonathan Morton wrote:<br>
> I do see your arguments.  Let it be known that I didn't initiate the<br>
> ack-filter in Cake, though it does seem to work quite well.<br>
> With respect to BBR, I don't think it depends strongly on the return<br>
> rate of acks in themselves, but rather on the rate of sequence number<br>
> advance that they indicate.  For this purpose, having the receiver<br>
> emit sparser but still regularly spaced acks would be better than<br>
> having some middlebox delete some less-predictable subset of them. <br>
> So I think BBR could be a good testbed for AckCC implementation,<br>
> especially as it is inherently paced and thus doesn't suffer from<br>
> burstiness as a conventional ack-clocked TCP might.<br>
> The real trouble with AckCC is that it requires implementation on the<br>
> client as well as the server.  That's most likely why Google hasn't<br>
> tried it yet; there are no receivers in the wild that would give them<br>
> valid data on its effectiveness.  Adding support in Linux would help<br>
> here, but aside from Android devices, Linux is only a relatively<br>
> small proportion of Google's client traffic - and Android devices are<br>
> slow to pick up new kernel features if they can't immediately turn it<br>
> into a consumer-friendly bullet point.<br>
> Meanwhile we have highly asymmetric last-mile links (10:1 is typical,<br>
> 50:1 is occasionally seen), where a large fraction of upload<br>
> bandwidth is occupied by acks in order to fully utilise the download<br>
> bandwidth in TCP.  Any concurrent upload flows have to compete with<br>
> that dense ack flow, which in various schemes is unfair to either the<br>
> upload or the download throughput.<br>
> That is a problem as soon as you have multiple users on the same<br>
> link, eg. a family household at the weekend.  Thinning out those acks<br>
> in response to uplink congestion is a solution.  Maybe not the best<br>
> possible solution, but a deployable one that works.<br>
> - Jonathan Morton<br>
</div></div><div class="HOEnZb"><div class="h5">> ______________________________<wbr>_________________<br>
> Bloat mailing list<br>
> <a href="mailto:Bloat@lists.bufferbloat.net">Bloat@lists.bufferbloat.net</a><br>
> <a href="https://lists.bufferbloat.net/listinfo/bloat" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/<wbr>listinfo/bloat</a><br>
______________________________<wbr>_________________<br>
Bloat mailing list<br>
<a href="mailto:Bloat@lists.bufferbloat.net">Bloat@lists.bufferbloat.net</a><br>
<a href="https://lists.bufferbloat.net/listinfo/bloat" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/<wbr>listinfo/bloat</a><br>
</div></div></blockquote></div><br></div></div>