<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title></title>
</head>
<body>
<div name="messageBodySection">
<blockquote style="border-left-color: rgb(26, 188, 156); margin: 5px; padding-left: 10px; border-left-width: thin; border-left-style: solid;">"How can I accurately distinguish a constraint in supply from a reduction in demand?"</blockquote>
<div dir="auto"><br />
Serious answer: you look at the increase or decrease of customer tickets and complaints.<br />
<br />
Practical example: a few years ago, we had two fixed wireless access networks, about 3km apart, each fed by an individual fiber local loop to our DC. I had the (in hindsight terrible) idea to back each network's fiber with the other, using two wireless point-to-point hops with a tower in the middle, which also had customers served by it.<br />
<br />
When one fiber went down, the traffic from the tower in the middle had to still travel to its own fiber POP (as the router doing the routing was there) then trombone back over the same wireless link, across the middle tower again, and onwards to the functioning fiber. The net effect was a serious constraint on supply.<br />
<br />
The result was a deluge of complaints which caused us to discontinue this approach, and which that taught me two lessons: your customers vote with their wallet, will tell you when you are doing a bad job, and you better listen. <br />
<br />
The second lesson is that customers prefer no service at all, to a severely degraded service. It's better to know "I can read a book for two hours while they fix the fiber" than to have a randomized poor quality of service.<br />
<br />
Footnote: we don't experiment with customers, so we never managed to run experiments to test the tolerance to degraded service, and where the line between "OK(ish)" and "unsuable" lies, in terms of demand vs supply ratio. Effectively, if we contend 4:1, and we suddenly failed over to a link that's contended 40:1, is that acceptable? Is 100:1? It'd be great to hear other's experiences and ideas.</div>
</div>
<div name="messageSignatureSection"><br />
<div class="matchFont">Best,<br />
<br />
Mike</div>
</div>
<div name="messageReplySection">On Mar 13, 2023 at 17:09 +0100, Sebastian Moeller via Starlink <starlink@lists.bufferbloat.net>, wrote:<br />
<blockquote type="cite" style="border-left-color: grey; border-left-width: thin; border-left-style: solid; margin: 5px 5px;padding-left: 10px;"><br />
<br />
<blockquote type="cite">On Mar 13, 2023, at 17:04, Dave Taht <dave.taht@gmail.com> wrote:<br />
<br />
On Mon, Mar 13, 2023 at 8:08 AM Jeremy Austin via Rpm<br />
<rpm@lists.bufferbloat.net> wrote:<br />
<blockquote type="cite"><br />
<br />
<br />
On Mon, Mar 13, 2023 at 3:02 AM Sebastian Moeller via Starlink <starlink@lists.bufferbloat.net> wrote:<br />
<blockquote type="cite"><br />
Hi Dan,<br />
<br />
<br />
<blockquote type="cite">On Jan 9, 2023, at 20:56, dan via Rpm <rpm@lists.bufferbloat.net> wrote:<br />
<br />
You don't need to generate the traffic on a link to measure how<br />
much traffic a link can handle.<br /></blockquote>
<br />
[SM] OK, I will bite, how do you measure achievable throughput without actually generating it? Packet-pair techniques are notoriously imprecise and have funny failure modes.<br /></blockquote>
<br />
<br />
I am also looking forward to the full answer to this question. While one can infer when a link is saturated by mapping network topology onto latency sampling, it can have on the order of 30% error, given that there are multiple causes of increased latency beyond proximal congestion.<br />
<br />
A question I commonly ask network engineers or academics is "How can I accurately distinguish a constraint in supply from a reduction in demand?"<br /></blockquote>
<br />
This is an insanely good point. In looking over the wisp<br />
configurations I have to date, many are using SFQ which has a default<br />
packet limit of 128 packets. Many are using SFQ with a *even shorter*<br />
packet limit, which looks good on speedtests which open many flows<br />
(keown's sqrt(flows) for bdp), but is *lousy* for allowing a single<br />
flow to achieve full rate (the more common case for end-user QoE).<br />
<br />
I have in general tried to get mikrotik folk at least, to switch away<br />
from fifos, red, and sfq to wards fq_codel or cake at the defaults<br />
(good to 10Gbit) in part, due to this.<br />
<br />
I think SFQ 128 really starts tapping out on most networks at around<br />
the 200Mbit level, and above 400, really, really does not have enough<br />
queue, so the net result is that wisps attempting to provide higher<br />
levels of service are not actually providing it in the real world, an<br />
accidental constraint in supply.<br />
<br />
I have a blog piece, long in draft, called "underbloat", talking to<br />
this. Also I have no seen multiple fiber installs that had had a<br />
reasonable 50ms FIFO buffer for 100Mbit, but when upgraded to 1gbit,<br />
left it at 5ms, which has bad sideffects for all traffic.<br />
<br />
To me it looks also that at least some ubnt radios are FQd and underbuffered.<br /></blockquote>
<br />
This is why I tend to describe bufferbloat as a problem of over-sized and under-managed buffers hoping to imply that reducing the buffersize is not the only or even best remedy here. Once proberly managed large buffers do no harm (except wasting memory for most of the time, but since that buys some resilience that is not that bad).<br />
<br />
Regards<br />
Sebastian<br />
<br />
P.S.: This is a bit of a pendulum thing where one simplistic "solution" too-large-buffers gets replaced with another simplistic solution too-small-buffers ;)<br />
<br />
<br />
<br />
<blockquote type="cite"><br />
<blockquote type="cite">--<br />
--<br />
Jeremy Austin<br />
Sr. Product Manager<br />
Preseem | Aterlo Networks<br />
preseem.com<br />
<br />
Book a Call: https://app.hubspot.com/meetings/jeremy548<br />
Phone: 1-833-733-7336 x718<br />
Email: jeremy@preseem.com<br />
<br />
Stay Connected with Newsletters & More: https://preseem.com/stay-connected/<br />
_______________________________________________<br />
Rpm mailing list<br />
Rpm@lists.bufferbloat.net<br />
https://lists.bufferbloat.net/listinfo/rpm<br /></blockquote>
<br />
<br />
<br />
--<br />
Come Heckle Mar 6-9 at: https://www.understandinglatency.com/<br />
Dave Täht CEO, TekLibre, LLC<br /></blockquote>
<br />
_______________________________________________<br />
Starlink mailing list<br />
Starlink@lists.bufferbloat.net<br />
https://lists.bufferbloat.net/listinfo/starlink<br /></blockquote>
</div>
</body>
</html>