<div dir="ltr">Wi-Fi Alliance does certifications. I think that's the group that would need to take on new certification & test scenarios.<br><br>The 802.11 standards folks don't do testing, nor do they even make sure the current state of engineering can realize the standard which is in the form of a document. And to your point, per the MCS index table, a PHY rate selection engineer has microseconds to find the one entry that is the local optimum for the transmit at hand.. <a href="https://mcsindex.com/" target="_blank">https://mcsindex.com/</a>  The standards group created the table of options with little to no regard of the PHY rate selection engineer's task. It's kinda like a composer who writes symphonies that no orchestra can play. <br><br>Bob</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Sep 2, 2024 at 8:20 PM David Lang <<a href="mailto:david@lang.hm" target="_blank">david@lang.hm</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Bob McMahon wrote:<br>
<br>
> This is David's experience. It doesn't extrapolate to the industry.<br>
<br>
If I didn't make it clear, I have no inside information on the industry, I am <br>
operating from the point of view of a consumer useing the products and looking <br>
at how they are advertised and how they work in practice.<br>
<br>
My frustration is less with the product manufacturers than it is with the <br>
standards people. I don't expect a product manufacturer to test beyond 'does it <br>
meet the standard' (with some interoperability to see if everyone is <br>
interpreting the standard the same way)<br>
<br>
But the people drafting the standards (which may include some of the <br>
manufacturers), do need to be doing the more expensive and extensive testing for <br>
real-world conditions, not just the easier to test lab conditions. And that's <br>
where I don't see much progress over the years.<br>
<br>
If you live on a house with a 1 acre lot or larger, the current standards will <br>
work well for you. In a school or apartment building, there seems to be a lack <br>
of progress at the standards level (and therefor at the product level) from the <br>
time that the OLPC first attempted to do serious work in high density <br>
environments.<br>
<br>
David Lang<br>
<br>
> Our<br>
> testing as a component supplier is quite extensive. The level of math<br>
> required likely equals ML. The table stakes for a 2 BSS system with hidden<br>
> nodes, etc is $80K. That's just equipment. Then test engineers with deep<br>
> expertise of 802.11 have to be hired. And they have to continuously learn<br>
> as 802.11 is a living standard. And now they need to learn CCAs and network<br>
> marking planes. Then this all has to be paid for typically through<br>
> component sells as there are no software SKUs.<br>
><br>
> The cadences for new ASICs is 24 months. The cadences for OSP upgrades is<br>
> 10 to 20 years.<br>
><br>
> Of course testing is under funded. No stock b.s. to pay the bills. It has<br>
> to come from discounted cash flows.<br>
><br>
> Everyone wants the experts to work for free. Iperf2 is that already. I<br>
> don't see any more freebies on the horizon.<br>
><br>
> Bob<br>
><br>
> On Sun, Sep 1, 2024, 10:05 PM David Lang via Make-wifi-fast <<br>
> <a href="mailto:make-wifi-fast@lists.bufferbloat.net" target="_blank">make-wifi-fast@lists.bufferbloat.net</a>> wrote:<br>
><br>
>> On Sun, 1 Sep 2024, Hal Murray via Make-wifi-fast wrote:<br>
>><br>
>>> David Lang said:<br>
>>>> It really doesn't help that everyone in the industry is pushing for<br>
>>>> higher  bandwidth for a single host. That's a nice benchmark number, but<br>
>>>> not really  relevant int he real world.<br>
>>><br>
>>>> Even mu-mimo is of limited use as most routers only handle a handful of<br>
>>>> clients.<br>
>>><br>
>>>> But the biggest problem is just the push to use wider channels and gain<br>
>>>> efficiency in long-running bulk transfers by bundling lots of IP packets<br>
>>>> into a  single transmission. This works well when you don't have<br>
>>>> congestion and have a  small number of clients. But when you have lots<br>
>> of<br>
>>>> clients, spanning many  generations of wifi technology, you need to go<br>
>> to<br>
>>>> narrower channels, but more  separate routers to maximize the fairness<br>
>> of<br>
>>>> available airtime.<br>
>>><br>
>>> What does that say about the minimal collection of gear required in a<br>
>> test<br>
>>> lab?<br>
>>><br>
>>> If you had a lab with plenty of gear, what tests would you run?<br>
>><br>
>> I'll start off by saying that my experience is from practical in-the-field<br>
>> uses,<br>
>> deploying wifi to support thousands of users in a conference setting. It's<br>
>> possible that some people are doing the tests I describe below in their<br>
>> labs,<br>
>> but from the way routers and wifi standards are advertised and the guides<br>
>> to<br>
>> deploy them are written, it doesn't seem like they are.<br>
>><br>
>> My belief is that most of the tests are done in relatively clean RF<br>
>> environments<br>
>> where only the devices on the test network exist, and they can always hear<br>
>> everyone on the network. In such environments, everything about existing<br>
>> wifi<br>
>> standards and the push for higher bandwidth channels makes a lot of sense<br>
>> (there<br>
>> are still some latency problems)<br>
>><br>
>> But the world outside the lab is far more complex<br>
>><br>
>> you need to simulate a dispursed, congested RF environment. This includes<br>
>> hidden<br>
>> transmitters (stations A-B-C where B can hear A and C but A and C cannot<br>
>> hear<br>
>> each other), dealing with weak signals (already covered), interactions of<br>
>> independent networks on the same channels (a-b and c-d that cannot talk to<br>
>> each<br>
>> other), legacy equipment on the network (as slow as 802.11g at least, if<br>
>> not<br>
>> 802.11b to simulate old IoT devices), and a mix of bulk-transfers<br>
>> (download/uploads), buffered streaming (constant traffic, but buffered so<br>
>> not<br>
>> super-sentitive to latency), unbuffered streaming (low bandwidth, but<br>
>> sensitive<br>
>> to latency), and short, latency sensitive traffic (things that block other<br>
>> traffic until they are answered, like DNS, http cache checks, http main<br>
>> pages<br>
>> that they pull lots of other URLs, etc)<br>
>><br>
>> test large number of people in a given area (start with an all wireless<br>
>> office,<br>
>> then move on to classroom density), test not just one room, but multiple<br>
>> rooms<br>
>> that partially hear each other (the amount of attenuation or reflection<br>
>> between<br>
>> the rooms needs to vary). The ultimate density test would be a<br>
>> stadium-type<br>
>> setting where you have rows of chairs, but not tables and everyone is<br>
>> trying to<br>
>> livestream (or view a livestream) at once.<br>
>><br>
>> Test not just the ultra-wide bandwidth with a single AP in the rooms, but<br>
>> narrower channels with multiple APs distributed around the rooms. Test APs<br>
>> positioned high, and set to high power to have large coverage areas<br>
>> against APs<br>
>> positioned low (signals get absorbed by people, so channels can be reused<br>
>> at<br>
>> shorter distances) and set to low power (microcell approach). Test APs<br>
>> overhead<br>
>> with directional antennas so they cover a small footprint.<br>
>><br>
>> Test with different types of walls around/between the rooms, metal studs<br>
>> and<br>
>> sheetrock of a modern office have very little affect on signals,<br>
>> stone/brick<br>
>> walls of old buildings (and concrete walls in some areas of new buildings)<br>
>> absorb the signal, the metal grid in movable air walls blocks and reflects<br>
>> signals<br>
>><br>
>> Remember that these are operating in 'unlicensed' spectrum, and so you can<br>
>> have<br>
>> other devices operating here as well causing periodic interference (which<br>
>> could<br>
>> show up as short segments of corruption or just an increased noise floor).<br>
>> Current wifi standards interpret any failed signals as a weak signal, so<br>
>> they<br>
>> drop down to a slower modulation or increasing power in the hope of<br>
>> getting the<br>
>> signal through. If the problem is actually interference from other devices<br>
>> (especially other APs that it can't decipher), the result is that all<br>
>> stations<br>
>> end up yelling slowly to try and get through and the result is very high<br>
>> levels<br>
>> of noise and no messages getting through. Somehow, the systems should<br>
>> detect<br>
>> that the noise floor is high and/or that there is other stuff happening on<br>
>> the<br>
>> network that they can hear, but not necessarily decipher and switch away<br>
>> from<br>
>> the 'weak signal' mode of operation (which is appropriate in sparse<br>
>> environments), and instead work to talk faster and at lower power to try<br>
>> and<br>
>> reduce the overall interference while still getting their signal through.<br>
>> (it does no good for one station to be transmitting at 3w while the<br>
>> station it's<br>
>> talking to is transmitting at 50mw). As far as I know, there is currently<br>
>> no way<br>
>> for stations to signal what power they are using (and the effective power<br>
>> would<br>
>> be modified by the antenna system, both transmitted and received), so this<br>
>> may<br>
>> be that something like 'I'm transmitting at 50% of my max and I hear you<br>
>> at 30%<br>
>> with noise at 10%' <-> 'I'm transmitting at 100% of my max and I hear you<br>
>> at 80%<br>
>> woth noise at 30%' could cause the first station to cut down on it's power<br>
>> until<br>
>> the two are hearing each other at similar levels (pure speculation here,<br>
>> suggestion for research ideas)<br>
>><br>
>>> How many different tests would it take to give reasonable coverage?<br>
>><br>
>> That's hard for me to say, and not every device needs to go through every<br>
>> test.<br>
>> But when working on a new standard, it needs to go through a lot of these<br>
>> tests,<br>
>> the most important ones IMHO are how they work with a high density of<br>
>> users<br>
>> accessing multiple routers which are distributed so there is overlapping<br>
>> coverage and include a mix of network traffic.<br>
>><br>
>> David Lang<br>
>> _______________________________________________<br>
>> Make-wifi-fast mailing list<br>
>> <a href="mailto:Make-wifi-fast@lists.bufferbloat.net" target="_blank">Make-wifi-fast@lists.bufferbloat.net</a><br>
>> <a href="https://lists.bufferbloat.net/listinfo/make-wifi-fast" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/listinfo/make-wifi-fast</a><br>
><br>
><br>
</blockquote></div>

<br>
<span style="background-color:rgb(255,255,255)"><font size="2">This electronic communication and the information and any files transmitted with it, or attached to it, are confidential and are intended solely for the use of the individual or entity to whom it is addressed and may contain information that is confidential, legally privileged, protected by privacy laws, or otherwise restricted from disclosure to anyone else. If you are not the intended recipient or the person responsible for delivering the e-mail to the intended recipient, you are hereby notified that any use, copying, distributing, dissemination, forwarding, printing, or copying of this e-mail is strictly prohibited. If you received this e-mail in error, please return the e-mail to the sender, delete it from your computer, and destroy any printed copy of it.</font></span>