<div dir="ltr">iperf 2 supports OWD and gives full histograms for TCP write to read, TCP connect times, latency of packets (with UDP), latency of "frames" with simulated video traffic (TCP and UDP), xfer times of bursts with low duty cycle traffic, and TCP RTT (sampling based.) It also has support for sampling (per interval reports) down to 100 usecs if configured with --enable-fastsampling, otherwise the fastest sampling is 5 ms. We've released all this as open source.<br><br>OWD only works if the end realtime clocks are synchronized using a "machine level" protocol such as IEEE 1588 or PTP. Sadly, *most data centers don't provide sufficient level of clock accuracy and the GPS pulse per second * to colo and vm customers.<div><br><a href="https://iperf2.sourceforge.io/iperf-manpage.html">https://iperf2.sourceforge.io/iperf-manpage.html</a><br><br>Bob</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jul 12, 2021 at 10:40 AM David P. Reed <<a href="mailto:dpreed@deepplum.com">dpreed@deepplum.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"> <br>
On Monday, July 12, 2021 9:46am, "Livingood, Jason" <<a href="mailto:Jason_Livingood@comcast.com" target="_blank">Jason_Livingood@comcast.com</a>> said:<br>
<br>
> I think latency/delay is becoming seen to be as important certainly, if not a more direct proxy for end user QoE. This is all still evolving and I have to say is a super interesting & fun thing to work on. :-)<br>
 <br>
If I could manage to sell one idea to the management hierarchy of communications industry CEOs (operators, vendors, ...) it is this one:<br>
<br>
"It's the end-to-end latency, stupid!"<br>
<br>
And I mean, by end-to-end, latency to complete a task at a relevant layer of abstraction.<br>
<br>
At the link level, it's packet send to packet receive completion.<br>
<br>
But at the transport level including retransmission buffers, it's datagram (or message) origination until the acknowledgement arrives for that message being delivered after whatever number of retransmissions, freeing the retransmission buffer.<br>
<br>
At the WWW level, it's mouse click to display update corresponding to completion of the request.<br>
<br>
What should be noted is that lower level latencies don't directly predict the magnitude of higher-level latencies. But longer lower level latencies almost always amplfify higher level latencies. Often non-linearly.<br>
<br>
Throughput is very, very weakly related to these latencies, in contrast.<br>
<br>
The amplification process has to do with the presence of queueing. Queueing is ALWAYS bad for latency, and throughput only helps if it is in exactly the right place (the so-called input queue of the bottleneck process, which is often a link, but not always).<br>
<br>
Can we get that slogan into Harvard Business Review? Can we get it taught in Managerial Accounting at HBS? (which does address logistics/supply chain queueing).<br>
 <br>
 <br>
 <br>
 <br>
 <br>
<br>
</blockquote></div>

<br>
<span style="background-color:rgb(255,255,255)"><font size="2">This electronic communication and the information and any files transmitted with it, or attached to it, are confidential and are intended solely for the use of the individual or entity to whom it is addressed and may contain information that is confidential, legally privileged, protected by privacy laws, or otherwise restricted from disclosure to anyone else. If you are not the intended recipient or the person responsible for delivering the e-mail to the intended recipient, you are hereby notified that any use, copying, distributing, dissemination, forwarding, printing, or copying of this e-mail is strictly prohibited. If you received this e-mail in error, please return the e-mail to the sender, delete it from your computer, and destroy any printed copy of it.</font></span>