<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif;">
<div>This is a common misconception.  </div>
<div><br>
</div>
<div>The "NotCodel" approach, operating entirely at enqueue time, will have to predict buffering latency for a packet when it is enqueued (likely based on queue depth and expected dequeue rate), as opposed to CoDel which measures the buffering latency for the
 packet after it has been experienced.  If dequeue rate is predictable (true for some links, less so for others) then the NotCodel approach can be designed such that it will drop (or mark) *the same packets* that the CoDel approach would. </div>
<div><br>
</div>
<div>In some hardware, it is much more feasible to perform these operations at enqueue time rather than at dequeue time.  Implementers of such systems shouldn't be dissuaded from implementing CoDel (especially if their dequeue rate is reasonably predictable).</div>
<div><br>
</div>
<div>We experimented with an implementation of "NotCodel"  (we called it CoDel-DT, for drop tail) and that code is in the ns-2.36 release candidate.  One caveat, the control law in that implementation does not precisely match CoDel, and so there will be some
 slight differences in results between the two.</div>
<div><br>
</div>
<div>-Greg</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:11pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span>Jonathan Morton <<a href="mailto:chromatix99@gmail.com">chromatix99@gmail.com</a>><br>
<span style="font-weight:bold">Date: </span>Thursday, February 26, 2015 at 6:56 AM<br>
<span style="font-weight:bold">To: </span>sahil grover <<a href="mailto:sahilgrover013@gmail.com">sahilgrover013@gmail.com</a>><br>
<span style="font-weight:bold">Cc: </span>"<a href="mailto:codel@lists.bufferbloat.net">codel@lists.bufferbloat.net</a>" <<a href="mailto:codel@lists.bufferbloat.net">codel@lists.bufferbloat.net</a>><br>
<span style="font-weight:bold">Subject: </span>Re: [Codel] why RED is not considered as a solution to bufferbloat.<br>
</div>
<div><br>
</div>
<div>
<div>
<p dir="ltr">Okay, let me walk you through this.</p>
<p dir="ltr">Let's say you are managing a fairly slow link, on the order of 1 megabit. The receiver on the far side of it is running a modern OS and has opened its receive window to a whole megabyte. It would take about 10 seconds to pass a whole receive window
 through the link.</p>
<p dir="ltr">This is a common situation in the real world, by the way.</p>
<p dir="ltr">Now, let's suppose that the sender was constrained to a slower send rate, say half a megabit, for reasons unrelated to the network. Maybe it's a streaming video service on a mostly static image, so it only needs to send small delta frames and compressed
 audio. It has therefore opened the congestion window as wide as it will go, to the limit of the receive window. But then the action starts, there's a complete scene change, and a big burst of data is sent all at once, because the congestion window permits
 it.</p>
<p dir="ltr">So the queue you're managing suddenly has a megabyte of data in it. Unless you do something about it, your induced latency just leapt up to ten seconds, and the VoIP call your user was on at the time will drop out.</p>
<p dir="ltr">Now, let's compare the behaviour of two AQMs: Codel and something almost, but not entirely, unlike Codel. Specifically, it does everything that Codel does, but at enqueue instead of dequeue time.</p>
<p dir="ltr">Both of them will let the entire burst into the queue. Codel only takes action if the queue remains more full than its threshold for more than 100ms. Since this burst arrives all at once, and the queue stayed nice and empty up until now, neither
 AQM will decide to mark or drop packets at that moment.</p>
<p dir="ltr">Now, packets are slowly delivered across the link. Each one takes about 15ms to deliver. They are answered by acks, and the sender obligingly sends fresh packets to replace them. After about six or seven packets have been delivered, both AQMs will
 decide to start marking packets (this is an ECN enabled flow). Let's assume that the next packet after this point will be marked. This will be the receiver's first clue that congestion is occurring.</p>
<p dir="ltr">For Codel, the next packet available to mark will be the eighth packet. So the receiver learns about the congestion event 120 ms after it began. It will echo the congestion mark back to the sender in the corresponding ack, which will immediately
 halve the congestion window. It will still take at least ten seconds to drain the queue.</p>
<p dir="ltr">For NotCodel, the next available packet for marking is the one a megabyte later than the eighth packet. The receiver won't see that packet until 10120 ms after the congestion event began. So the sender will happily keep the queue ten seconds long
 for the next ten seconds, instead of backing off straight away. It will take at least TWENTY seconds to drain the queue.</p>
<p dir="ltr">Note that even if the link bandwidth was 10 megabits rather than one, with the same receive window size, it would still take one second to drain the queue with Codel and two seconds with NotCodel.</p>
<p dir="ltr">This relatively simple traffic situation demonstrates that marking on dequeue rather than enqueue is twice as effective at managing queue length.</p>
<p dir="ltr">- Jonathan Morton<br>
</p>
</div>
</div>
</span>
</body>
</html>