<div dir="ltr">I have a couple friends in that crowd, and they _also_ aren't using shared lines.  So they don't worry in the slightest about congestion when they're trying to keep dedicated links fully saturated.  They're big issue with dropped packets is that some of the TCP congestion-control algorithms kick in on a single dropped packet:  <a href="http://fasterdata.es.net/network-tuning/tcp-issues-explained/packet-loss/">http://fasterdata.es.net/network-tuning/tcp-issues-explained/packet-loss/</a><div><br></div><div>I'm thinking that some forward-error-correction would make their lives much, much better.</div><div><br></div><div>-Aaron</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Nov 13, 2014 at 7:11 PM, Dave Taht <span dir="ltr"><<a href="mailto:dave.taht@gmail.com" target="_blank">dave.taht@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">One thing the HPC crowd has missed is that in their quest for big<br>
buffers for contenental distances, they hurt themselves on shorter<br>
ones...<br>
<br>
... and also that big buffers with FQ on them works just fine in the<br>
general case.<br>
<br>
As always I recomend benchmarking - do a rrul test between the two<br>
points, for example, with their recomendations.<br>
<div><div class="h5"><br>
<br>
On Fri, Oct 17, 2014 at 4:21 PM, Frank Horowitz <<a href="mailto:frank@horow.net">frank@horow.net</a>> wrote:<br>
> G’Day folks,<br>
><br>
> Long time lurker. I’ve been using Cero for my home router for quite a while now, with reasonable results (modulo bloody OSX wifi stuffola).<br>
><br>
> I’m running into issues doing zfs send/receive over ssh across a (mostly) internet2 backbone between Cornell (where I work) and West Virginia University (where we have a collaborator on a DOE sponsored project. Both ends are linux machines running fq_codel configured like so:<br>
>         tc qdisc<br>
>         qdisc fq_codel 0: dev eth0 root refcnt 2 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms ecn<br>
><br>
> I stumbled across hpn-ssh <<a href="https://www.psc.edu/index.php/hpn-ssh" target="_blank">https://www.psc.edu/index.php/hpn-ssh</a>> and —  of particular interest to this group — their page on tuning TCP parameters:<br>
><br>
> <<a href="http://www.psc.edu/index.php/networking/641-tcp-tune" target="_blank">http://www.psc.edu/index.php/networking/641-tcp-tune</a>><br>
><br>
> N.B. their advice to increase buffer size…<br>
><br>
> I’m curious, what part (if any) of that advice survives with fq_codel running on both ends?<br>
><br>
> Any advice from the experts here would be gratefully received!<br>
><br>
> (And thanks for all of your collective and individual efforts!)<br>
><br>
> Cheers,<br>
>         Frank Horowitz<br>
><br>
><br>
</div></div>> _______________________________________________<br>
> Cerowrt-devel mailing list<br>
> <a href="mailto:Cerowrt-devel@lists.bufferbloat.net">Cerowrt-devel@lists.bufferbloat.net</a><br>
> <a href="https://lists.bufferbloat.net/listinfo/cerowrt-devel" target="_blank">https://lists.bufferbloat.net/listinfo/cerowrt-devel</a><br>
><br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
--<br>
Dave Täht<br>
<br>
thttp://<a href="http://www.bufferbloat.net/projects/bloat/wiki/Upcoming_Talks" target="_blank">www.bufferbloat.net/projects/bloat/wiki/Upcoming_Talks</a><br>
_______________________________________________<br>
Cerowrt-devel mailing list<br>
<a href="mailto:Cerowrt-devel@lists.bufferbloat.net">Cerowrt-devel@lists.bufferbloat.net</a><br>
<a href="https://lists.bufferbloat.net/listinfo/cerowrt-devel" target="_blank">https://lists.bufferbloat.net/listinfo/cerowrt-devel</a><br>
</font></span></blockquote></div><br></div>