<!DOCTYPE html>
<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body>
    Hi Bob,<br>
    <br>
    Measuring and monitoring Wifi behavior isn't necessary or
    sufficient.  Same with Starlink or whatever else comes along in the
    future.<br>
    <br>
    The architecture of the Internet places different mechanisms, that
    in past times were contained in the switching equipment, now at many
    different places along a data path.  Much of the mechanism is even
    in the users' devices themselves, which make all sorts of decisions
    about datagram size, acknowledgements, retransmission, discarding
    duplicates, et al.  Those mechanisms interact with the decisions
    being made in network equipment such as switches.   The overall
    behavior dictates what the end users see as behavior and reliability
    of "the net" as they experience it.   The performance of the overall
    system is influenced by the interaction of its many pieces.<br>
    <br>
    My point was that to manage network service ("network" being defined
    by the users), you have to monitor and measure performance as seen
    by the users, as close to the keyboard/mouse/screen/whatever as you
    can get.  That's why we decided to require a computer of some kind
    on each users' LAN environment, so we could experience and measure
    what they were likely experiencing, and use our measurements of
    switches, circuits, etc. to analyze and fix problems.   It was also
    helpful to have a database of the metrics captured during previous
    "normal" network activity, to use as comparisons. <br>
    <br>
    As one example, I remember one event when a momentary glitch on a
    transpacific circuit would cause a flurry of activity as TCPs in the
    users' computers compensated, and would settle back to a steady
    state after a few minutes.  But users complained that their file
    transfers were now taking much longer than usual.  After our poking
    and prodding, using those remote computers as tools to see what the
    users were experiencing, we discovered that everything was operating
    as expected, except that every datagram was being transmitted twice
    and the duplicates discarded at the destination.   The TCP
    retransmission mechanisms had settled into a new stable state.<br>
    <br>
    To the network switches, the datagrams all seeemed OK, but there was
    significantly more traffic than usual.  No one was monitoring all
    those user devices out on the LANs so no one except the users
    noticed anything wrong.   Eventually another glitch on the circuit
    would cause another flurry of activity and perhaps settle back into
    the desired state where datagrams only got sent once.<br>
    <br>
    We monitored whatever we could using SNMP to the routers and
    computers that had implemented such things, and we used our remote
    computers to also collect data from the users' perspective.   Often
    we could tell a LAN manager that some particular deviceat his/her
    site was having problems, by looking for behavior that differed from
    the "normal" historical behavior from a week or so earlier.<br>
    <br>
    It would be interesting for example to collect metrics from switches
    about "buffer occupancy" and "transit time" (I don't recall if any
    MIB in SNMP had such metrics), and correlate that with TCP metrics
    such as retransmission behavior and duplicate detection.<br>
    <br>
    Jack<br>
    <br>
    <br>
    <br>
    <div class="moz-cite-prefix">On 2/27/24 09:48, rjmcmahon wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:da641bf18cf5d33df339cf034221606e@rjmcmahon.com">Hi Jack,
      <br>
      <br>
      On LAN probes & monitors; I've been told that 90% of users
      devices are now wirelessly connected so the concept of connecting
      to a common wave guide to measure or observe user information
      & flow state isn't viable. A WiFi AP could provide its end
      state but wireless channels' states are non-trivial and the APs
      prioritize packet forwarding at L2 over state collection. I
      suspect a fully capable AP that could record per quintuple and RF
      channels' states would be too expensive. This is part of the
      reason why our industry and policy makers need to define the key
      performance metrics well.
      <br>
      <br>
      Bob
      <br>
      <blockquote type="cite">Yes, latency is complicated....  Back when
        I was involved in the
        <br>
        early Internet (early 1980s), we knew that latency was an issue
        <br>
        requiring much further research, but we figured that meanwhile
        <br>
        problems could be avoided by keeping traffic loads well below
        capacity
        <br>
        while the appropriate algorithms could be discovered by the
        engineers
        <br>
        (I was one...).  Forty years later, it seems like it's still a
        <br>
        research topic.
        <br>
        <br>
        Years later in the 90s I was involved in operating an
        international
        <br>
        corporate intranet.  We quickly learned that keeping the human
        users
        <br>
        happy required looking at more than the routers and circuits
        between
        <br>
        them.  With much of the "reliability mechanisms" of TCP et al
        now
        <br>
        located in the users' computers rather than the network
        switches,
        <br>
        evaluating users' experience with "the net" required
        measurements from
        <br>
        the users' perspective.
        <br>
        <br>
        To do that, we created a policy whereby every LAN attached to
        the
        <br>
        long-haul backbone had to have a computer on that LAN to which
        we had
        <br>
        remote access.   That enabled us to perform "ping" tests and
        also
        <br>
        collect data about TCP behavior (duplicates, retransmissions,
        etc.)
        <br>
        using SNMP, etherwatch, et al.   It was not unusual for the
        users'
        <br>
        data to indicate that "the net", as they saw it, was misbehaving
        while
        <br>
        the network data, as seen by the operators, indicated that all
        the
        <br>
        routers and circuits were working just fine.
        <br>
        <br>
        If the government regulators want to keep the users happy, IMHO
        they
        <br>
        need to understand this.
        <br>
        <br>
        Jack Haverty
        <br>
        <br>
        On 2/26/24 16:25, rjmcmahon wrote:
        <br>
        <br>
        <blockquote type="cite">On top of all that, the latency
          responses tend to be non parametric
          <br>
          and may need full pdfs/cdfs along with non-parametric
          statistical
          <br>
          process controls. Attached is an example from many years ago
          which
          <br>
          was a firmware bug that sometimes delayed packet processing,
          <br>
          creating a second node in the pdf.
          <br>
          <br>
          Engineers and their algorithms can be this way it seems.
          <br>
          <br>
          Bob
          <br>
          I didn't study the whole report, but I didn't notice any
          metrics
          <br>
          associated with *variance* of latency or bandwidth.  It's
          common for
          <br>
          <br>
          vendors to play games ("Lies, damn lies, and statistics!") to
          make
          <br>
          their metrics look good.   A metric of latency that says
          something
          <br>
          like "99% less than N milliseconds" doesn't necessarily
          translate
          <br>
          into
          <br>
          an acceptable user performance.
          <br>
          <br>
          It's also important to look at the specific techniques used
          for
          <br>
          taking
          <br>
          measurements.  For example, if a measurement is performed
          every
          <br>
          fifteen minutes, extrapolating the metric as representative of
          all
          <br>
          the
          <br>
          time between measurements can also lead to a metric judgement
          which
          <br>
          doesn't reflect the reality of what the user actually
          experiences.
          <br>
          <br>
          In addition, there's a lot of mechanism between the ISPs'
          handling
          <br>
          of
          <br>
          datagrams and the end-user.   The users' experience is
          affected by
          <br>
          how
          <br>
          all of that mechanism interacts as underlying network behavior
          <br>
          changes.  When a TCP running in some host decides it needs to
          <br>
          retransmit, or an interactive audio/video session discards
          datagrams
          <br>
          <br>
          because they arrive too late to be useful, the user sees
          <br>
          unacceptable
          <br>
          performance even though the network operators may think
          everything
          <br>
          is
          <br>
          running fine.   Measurements from the end-users' perspective
          might
          <br>
          indicate performance is quite different from what measurements
          at
          <br>
          the
          <br>
          ISP level suggest.
          <br>
          <br>
          Gamers are especially sensitive to variance, but it will also
          apply
          <br>
          to
          <br>
          interactive uses such as might occur in telemedicine or remote
          <br>
          operations.  A few years ago I helped a friend do some tests
          for a
          <br>
          gaming situation and we discovered that the average latency
          was
          <br>
          reasonably low, but occasionally, perhaps a few times per
          hour,
          <br>
          latency would increase to 10s of seconds.
          <br>
          <br>
          In a game, that often means the player loses.  In a remote
          surgery
          <br>
          it
          <br>
          may mean horrendous outcomes.  As more functionality is
          performed
          <br>
          "in
          <br>
          the cloud" such situations will become increasingly common.
          <br>
          <br>
          Jack Haverty
          <br>
          <br>
          On 2/26/24 12:02, rjmcmahon via Nnagain wrote:
          <br>
          <br>
          Thanks for sharing this. I'm trying to find out what are the
          key
          <br>
          metrics that will be used for this monitoring. I want to make
          sure
          <br>
          iperf 2 can cover the technical, traffic related ones that
          make
          <br>
          sense to a skilled network operator, including a WiFi BSS
          manager. I
          <br>
          <br>
          didn't read all 327 pages though, from what I did read, I
          didn't see
          <br>
          <br>
          anything obvious. I assume these types of KPIs may be in
          reference
          <br>
          docs or something.
          <br>
          <br>
          Thanks in advance for any help on this.
          <br>
          Bob
          <br>
          <br>
          And...
          <br>
          <br>
          Our bufferbloat.net submittal was cited multiple times! Thank
          you
          <br>
          all
          <br>
          for participating in that process!
          <br>
          <br>
          <a class="moz-txt-link-freetext" href="https://docs.fcc.gov/public/attachments/DOC-400675A1.pdf">https://docs.fcc.gov/public/attachments/DOC-400675A1.pdf</a>
          <br>
          <br>
          It is a long read, and does still start off on the wrong feet
          <br>
          (IMHO),
          <br>
          in particular not understanding the difference between idle
          and
          <br>
          working latency.
          <br>
          <br>
          It is my hope that by widening awareness of more of the real
          <br>
          problems
          <br>
          with latency under load to policymakers and other submitters
          <br>
          downstream from this new FCC document, and more reading what
          we
          <br>
          had to
          <br>
          say, that we will begin to make serious progress towards
          finally
          <br>
          fixing bufferbloat in the USA.
          <br>
          <br>
          I do keep hoping that somewhere along the way in the future,
          the
          <br>
          costs
          <br>
          of IPv4 address exhaustion and the IPv6 transition, will also
          get
          <br>
          raised to the national level. [1]
          <br>
          <br>
          We are still collecting signatures for what the bufferbloat
          <br>
          project
          <br>
          members wrote, and have 1200 bucks in the kitty for further
          <br>
          articles
          <br>
          and/or publicity. Thoughts appreciated as to where we can go
          next
          <br>
          with
          <br>
          shifting the national debate about bandwidth in a better
          <br>
          direction!
          <br>
          Next up would be trying to get a meeting, and to do an
          ex-parte
          <br>
          filing, I think, and I wish we could do a live demonstration
          on
          <br>
          television about it as good as feynman did here:
          <br>
          <br>
          <a class="moz-txt-link-freetext" href="https://www.youtube.com/watch?v=raMmRKGkGD4">https://www.youtube.com/watch?v=raMmRKGkGD4</a>
          <br>
          <br>
          Our original posting is here:
          <br>
        </blockquote>
        <br>
<a class="moz-txt-link-freetext" href="https://docs.google.com/document/d/19ADByjakzQXCj9Re_pUvrb5Qe5OK-QmhlYRLMBY4vH4/edit">https://docs.google.com/document/d/19ADByjakzQXCj9Re_pUvrb5Qe5OK-QmhlYRLMBY4vH4/edit</a>
        <br>
        <br>
        <br>
        <blockquote type="cite">
          <blockquote type="cite">Larry's wonderful post is here:
            <br>
            <a class="moz-txt-link-freetext" href="https://circleid.com/posts/20231211-its-the-latency-fcc">https://circleid.com/posts/20231211-its-the-latency-fcc</a>
            <br>
            <br>
            [1] How can we get more talking about IPv4 and IPv6, too?
            Will we
            <br>
            have
            <br>
            to wait another year?
            <br>
          </blockquote>
        </blockquote>
         
        <br>
<a class="moz-txt-link-freetext" href="https://hackaday.com/2024/02/14/floss-weekly-episode-769-10-more-internet/">https://hackaday.com/2024/02/14/floss-weekly-episode-769-10-more-internet/</a>
        <br>
        <br>
        <br>
        <blockquote type="cite">
          <blockquote type="cite">--
            <br>
            <a class="moz-txt-link-freetext" href="https://blog.cerowrt.org/post/2024_predictions/">https://blog.cerowrt.org/post/2024_predictions/</a>
            <br>
            Dave Täht CSO, LibreQos
            <br>
          </blockquote>
          _______________________________________________
          <br>
          Nnagain mailing list
          <br>
          <a class="moz-txt-link-abbreviated" href="mailto:Nnagain@lists.bufferbloat.net">Nnagain@lists.bufferbloat.net</a>
          <br>
          <a class="moz-txt-link-freetext" href="https://lists.bufferbloat.net/listinfo/nnagain">https://lists.bufferbloat.net/listinfo/nnagain</a>
          <br>
        </blockquote>
         _______________________________________________
        <br>
        Nnagain mailing list
        <br>
        <a class="moz-txt-link-abbreviated" href="mailto:Nnagain@lists.bufferbloat.net">Nnagain@lists.bufferbloat.net</a>
        <br>
        <a class="moz-txt-link-freetext" href="https://lists.bufferbloat.net/listinfo/nnagain">https://lists.bufferbloat.net/listinfo/nnagain</a>
        <br>
      </blockquote>
    </blockquote>
    <br>
  </body>
</html>