<div dir="ltr"><div class="gmail_default" style="font-family:verdana,sans-serif">Another neat thing about 400 and 800GE is that you can get MPO optics that allow splitting a single 4x100 or 8x100 into individual 100G feeds. Good for port density and/or adding capacity to processing/Edge/Appliances<br></div><div class="gmail_default" style="font-family:verdana,sans-serif"><br></div><div class="gmail_default" style="font-family:verdana,sans-serif">Now there are decent ER optics for 100G you can now do 40-70KM runs of each 100G link without additional active electronics on the path or going to and optical transport route.<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, 16 Apr 2020 at 08:57, Michael Richardson <<a href="mailto:mcr@sandelman.ca">mcr@sandelman.ca</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Mikael Abrahamsson via Cerowrt-devel wrote:<br>
    > Backbone ISPs today are built with lots of parallel links (20x100GE for<br>
    > instance) and then we do L4 hashing for flows across these. This means<br>
<br>
got it. inverse multiplexing of flows across *links*<br>
<br>
    > We're now going for 100 gigabit/s per lane (it's been going up from 4x2.5G<br>
    > for 10GE to 1x10G, then we went for lane speeds of 10G, 25G, 50G and now<br>
    > we're at 100G per lane), and it seems the 800GE in your link has 8 lanes of<br>
    > that. This means a single L4 flow can be 800GE even though it's in reality<br>
    > 8x100G lanes, as a single packet bits are being sprayed across all the<br>
    > lanes.<br>
<br>
Here you talk about *lanes*, and inverse multiplexing of a single frame across *lanes*.<br>
Your allusion to PCI-E is well taken, but if I am completing the analogy, and<br>
the reference to DWDM, I'm thinking that you are talking about 100 gigabit/s<br>
per lambda, with a single frame being inverse multiplexed across lambdas (as lanes).<br>
<br>
Did I understand this correctly?<br>
<br>
I understand a bit of "because we can".<br>
I also understand that 20 x 800GE parallel links is better than 20 x 100GE<br>
parallel links across the same long-haul (dark) fiber.<br>
<br>
But, what is the reason among ISPs to desire enabling a single L4 flow to use more<br>
than 100GE?  Given that it seems that being able to L3 switch 800GE is harder<br>
than switching 8x flows of already L4 ordered 100GE. (Flowlabel!), why pay<br>
the extra price here?<br>
<br>
While I can see L2VPN use cases, I can also see that L2VPNs could generate<br>
multiple flows themselves if they wanted.<br>
<br>
--<br>
]               Never tell me the odds!                 | ipv6 mesh networks [<br>
]   Michael Richardson, Sandelman Software Works        |    IoT architect   [<br>
]     <a href="mailto:mcr@sandelman.ca" target="_blank">mcr@sandelman.ca</a>  <a href="http://www.sandelman.ca/" rel="noreferrer" target="_blank">http://www.sandelman.ca/</a>        |   ruby on rails    [<br>
<br>
_______________________________________________<br>
Cerowrt-devel mailing list<br>
<a href="mailto:Cerowrt-devel@lists.bufferbloat.net" target="_blank">Cerowrt-devel@lists.bufferbloat.net</a><br>
<a href="https://lists.bufferbloat.net/listinfo/cerowrt-devel" rel="noreferrer" target="_blank">https://lists.bufferbloat.net/listinfo/cerowrt-devel</a><br>
</blockquote></div>