The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

[CISCO] уpезание тpафика (shaper) и QOS (cisco shaper qos)


<< Предыдущая ИНДЕКС Поиск в статьях src Установить закладку Перейти на закладку Следующая >>
Ключевые слова: cisco, shaper, qos,  (найти похожие документы)
_ RU.CISCO (2:5077/15.22) ___________________________________________ RU.CISCO _ From : Alex Bakhtin 2:5020/400 05 Nov 99 14:30:22 Subj : [CISCO] уpезание тpафика (shaper) и QOS ________________________________________________________________________________ From: Alex Bakhtin <[email protected]> >>>>> "YT" == Yury Trembach writes: YT> Alex Bakhtin <[email protected]> wrote: термины мне не вполне понятны, YT> было бы интересно увидеть описание механики процесаа... AB> Гду обычно. Hа univercd... YT> Кгм... Это как бы вполне понятно :) Вопрос вот в чем: YT> For queue numbers 1 through 16, the system cycles through the queues YT> sequentially, delivering packets in the current queue before moving on YT> to the next. Associated with each output queue is a configurable byte YT> count, which specifies how many bytes of data the system should deliver YT> from the current queue before it moves on to the next queue. When a YT> particular queue is being processed, packets are sent until the number YT> of bytes sent exceed the queue byte count or the queue is YT> empty. Bandwidth used by a particular queue can only be indirectly YT> specified in terms of byte count and queue length. YT> Вот что мне не вполне понятно - последняя фраза. То есть как именно YT> оный bandwith может быть indirectly specified? Запросто;) Основным параметром, который влияет на распределение полосы пропускания при custom queuing, является byte-count. queue length на это дело влияет мало. Итак. Допустим, у нас есть такой вот queue-list: c4000-m#sh queueing custom Current custom queue configuration: List Queue Args 1 1 byte-count 6000 1 2 byte-count 3000 1 3 byte-count 4500 Остальные очереди по 1500. Понятно, что напрямую bandwith для каждой из очередей не задается. Заполнение очередей, понятно, происходит на основании каких-то критериев, которые я в данном случае не учитываю. Дальше, мы начинаем обходить все 17 очередей начиная с нулевой - 1. Передаем 1500 байт из очереди 0 (если там есть пакеты) 2. Передаем 6000 байт из очереди 1 3. Передаем 3000 байт из очереди 2 4. Передаем 4500 байт из очереди 3 5. Передаем 1500 байт из очереди 4 ..... 17. Передаем 1500 байт из очереди 16 Допустим, что мы используем для нашего трафика только первые 4 очереди - в остальные очереди трафик никогда не попадает. Соответвтсенно, в среднем за один цикл будет передано S=1500(q0)+6000(q1)+3000(q2)+4500(q3)+1500(q4)=16500 байт Соответственно, под Q0 будет выделено B0=1500/16500~=9% BW B1~=36% BW B2~=18% BW B3~=28% BW B4~=9% BW То есть реальную полосу пропускания поджелят пропорционально используемые очереди. Соответственно, реальный bandwith по каждой очереди задается с помощью параметра byte-count, но indirectly, так как он зависит от числа используемых реально очередей и от пропускной способности интерфейса. Данные значения, разумеется, будут верны только при достаточно серьезном усреднении. Связано это с тем, что если byte-count исчерпывается в процессе передачи пакета, пакет все равно передается до конца - то есть реальная занимаемая полоса будет больше. Все, что написано выше - не более чем некие теоретические выкладки при работе в идеальных условиях. Реально все эти значения надо подбирать, анализируя средний размер пакета и не только;) -- Best regards, -- Alex Bakhtin. AMT Group, Cisco Systems Gold Partner, http://www.amt.ru --- ifmail v.2.14dev3 * Origin: AMT Group (2:5020/400)

<< Предыдущая ИНДЕКС Поиск в статьях src Установить закладку Перейти на закладку Следующая >>

 Добавить комментарий
Имя:
E-Mail:
Заголовок:
Текст:




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру