Подскажите как теоретически расчитать какая частота нужна проца для обработки трафика в 300мегабит - 400мегабит? 150 пришло на одну сетевку + 150 ушло на другую.Как не крути все - очень сложно и тут очень много переменных
В частности имею проблему:
есть канал 200 мегабит который спокойно могу выкачать когда:
1 - в сети мало абонентов
2 - если их вообще нету
но в час пик когда на шлюз сваливается около 300 абонентов я могу вытянуть 100-130
топ загрузку проца вообще не показывает.
из нагрузки айпитейблс и тсp.s. походу уперся гдето в порог - пытаюсь его найти
p.p.s - мож пока параметры ядра поконфить? на тему увеличения очередей?!?!?(но как бы хочется знать как расчитать железо под возможную нагрузку)
>[оверквотинг удален]
> есть канал 200 мегабит который спокойно могу выкачать когда:
> 1 - в сети мало абонентов
> 2 - если их вообще нету
> но в час пик когда на шлюз сваливается около 300 абонентов я
> могу вытянуть 100-130
> топ загрузку проца вообще не показывает.
> из нагрузки айпитейблс и тс
> p.s. походу уперся гдето в порог - пытаюсь его найти
> p.p.s - мож пока параметры ядра поконфить? на тему увеличения очередей?!?!?
> (но как бы хочется знать как расчитать железо под возможную нагрузку)ОС, схема, НАТ/не НАТ, QoS?
Сервер как-нить мониторится?
>[оверквотинг удален]
>> 2 - если их вообще нету
>> но в час пик когда на шлюз сваливается около 300 абонентов я
>> могу вытянуть 100-130
>> топ загрузку проца вообще не показывает.
>> из нагрузки айпитейблс и тс
>> p.s. походу уперся гдето в порог - пытаюсь его найти
>> p.p.s - мож пока параметры ядра поконфить? на тему увеличения очередей?!?!?
>> (но как бы хочется знать как расчитать железо под возможную нагрузку)
> 1 ОС, схема, НАТ/не НАТ, QoS?
> 2 Сервер как-нить мониторится?1 RHEL6.0 - без поддержки, NAT, tc (приоритета трафика нету) - железо правда х..ня Atom525 1000Гбит длинк и 1000гбит встроенная сетевая, но лепили из того что давали :-)
схема?!?! пришло в одну сетевуху - занатилось зашейпирилось - ушло в два вилана2 да ррдтуулз пашет - но мониторит каналЫ(узловые точки) и озу сервера
> В частности имею проблему:
> есть канал 200 мегабит который спокойно могу выкачать когда:
> 1 - в сети мало абонентов
> 2 - если их вообще нету
> но в час пик когда на шлюз сваливается около 300 абонентов я
> могу вытянуть 100-130вы меряете трафик в мегабитах, а надо мерять в мегапакетах-в-секунду.
Кроме этого сильно различным будет число соединений, а у вас iptables, который является statefull-файрволлом...
Ну и так далее :-)
>> В частности имею проблему:
>> есть канал 200 мегабит который спокойно могу выкачать когда:
>> 1 - в сети мало абонентов
>> 2 - если их вообще нету
>> но в час пик когда на шлюз сваливается около 300 абонентов я
>> могу вытянуть 100-130
> вы меряете трафик в мегабитах, а надо мерять в мегапакетах-в-секунду.что снпм выдало в иф64октетах - то и меряем, а если в мегапакетах - то что и размеры пакетов тоже анализировать?( не обижайтесь - но как то бредово звучит)
> Кроме этого сильно различным будет число соединений, а у вас iptables, который
> является statefull-файрволлом...
> Ну и так далее :-)
> что снпм выдало в иф64октетах - то и меряем, а если внастройте чтоб выдавало пакеты также
> мегапакетах - то что и размеры пакетов тоже анализировать?( не обижайтесь
> - но как то бредово звучит)данная ваша фраза звучит абсурдно ... epic fail ...
>> вы меряете трафик в мегабитах, а надо мерять в мегапакетах-в-секунду.
> что снпм выдало в иф64октетах - то и меряем, а если в
> мегапакетах - то что и размеры пакетов тоже анализировать?( не обижайтесь
> - но как то бредово звучит)Не обижаюсь. Что поделать, прекрасно понимаю, что не всем дано сразу понять пакетную передачу данных и разницу между трафиком в 100Мбит пакетами по 50 байт и по 1500 байт.
>[оверквотинг удален]
> есть канал 200 мегабит который спокойно могу выкачать когда:
> 1 - в сети мало абонентов
> 2 - если их вообще нету
> но в час пик когда на шлюз сваливается около 300 абонентов я
> могу вытянуть 100-130
> топ загрузку проца вообще не показывает.
> из нагрузки айпитейблс и тс
> p.s. походу уперся гдето в порог - пытаюсь его найти
> p.p.s - мож пока параметры ядра поконфить? на тему увеличения очередей?!?!?
> (но как бы хочется знать как расчитать железо под возможную нагрузку)При перечисленных условиях любой расчет сравним с результатом "пальцем в небо"....
"среднестатистически" зависимость не от частоты проца, а от частоты шины и памяти, т.е. взяв процы 2Ггц и 3Ггц, но с одинаковой частотой шины и памяти - получим прирост в производительности маршрутизации не 50%, а может 5-10%...На современных процах до 50-70Кппс (всреднем 500-600Мбит/сек) о затыке производительности именно по процу можно не задумываться...
>[оверквотинг удален]
>> p.s. походу уперся гдето в порог - пытаюсь его найти
>> p.p.s - мож пока параметры ядра поконфить? на тему увеличения очередей?!?!?
>> (но как бы хочется знать как расчитать железо под возможную нагрузку)
> При перечисленных условиях любой расчет сравним с результатом "пальцем в небо"....
> "среднестатистически" зависимость не от частоты проца, а от частоты шины и памяти,
> т.е. взяв процы 2Ггц и 3Ггц, но с одинаковой частотой шины
> и памяти - получим прирост в производительности маршрутизации не 50%, а
> может 5-10%...
> На современных процах до 50-70Кппс (всреднем 500-600Мбит/сек) о затыке производительности
> именно по процу можно не задумываться...СПАСИБО!!! - как то про пропускную способность шины я вообще забыл
500-600 это общий или в одну сторону?
> Подскажите как теоретически расчитать какая частота нужна проца для обработки трафика в
> 300мегабит - 400мегабит? 150 пришло на одну сетевку + 150 ушло
> на другую.Почитай
http://habrahabr.ru/post/108240/
http://habrahabr.ru/post/108763/
>> Подскажите как теоретически расчитать какая частота нужна проца для обработки трафика в
>> 300мегабит - 400мегабит? 150 пришло на одну сетевку + 150 ушло
>> на другую.
> Почитай
> http://habrahabr.ru/post/108240/
> http://habrahabr.ru/post/108763/спс за линки - проходил
как ни странно RHLE6 сам раскинул прерывания от одной сетёвки на одно ядро от другой на другое и только около 3-7% было пересечений
даже проверял работает ли NAPI
есть и странности - это стоит две сетевки на разных чипах а дрова использует одни и теже
потом по странному дропаются пакетына наружном интерфейсе
RX packets:743098912 errors:0 dropped:3659883 overruns:0 frame:0
TX packets:549419059 errors:0 dropped:0 overruns:0 carrier:0
на внутреннем - там два вилана
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:189682723 errors:0 dropped:980794 overruns:0 carrier:0
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:520958626 errors:0 dropped:2353098 overruns:0 carrier:0как бы сумарно количество дропов одинаково по интерфесам - наводит на мысль какотого затыка в реалтаайм работе системы
увеличение спулов ТСР не улучшало картину - но дало около 5-10% прирост трафика(но не факт - нагрузка по пользователям была не пикова)
и почемуто одна сетевка под нагрузкой полностью грузит одно ядро но не фулл тайм, а просто пролетают пики - тупо смотрел на вывод top около 10мин
>[оверквотинг удален]
> TX packets:189682723 errors:0 dropped:980794 overruns:0 carrier:0
> RX packets:0 errors:0 dropped:0 overruns:0 frame:0
> TX packets:520958626 errors:0 dropped:2353098 overruns:0 carrier:0
> как бы сумарно количество дропов одинаково по интерфесам - наводит на мысль
> какотого затыка в реалтаайм работе системы
> увеличение спулов ТСР не улучшало картину - но дало около 5-10% прирост
> трафика(но не факт - нагрузка по пользователям была не пикова)
> и почемуто одна сетевка под нагрузкой полностью грузит одно ядро но не
> фулл тайм, а просто пролетают пики - тупо смотрел на вывод
> top около 10минethtool -S eth0 (ваш интерфейс вместо eth0)
ethtool -k eth0Сколько правил iptables? Какие настройки tc, есть ли PBR?
Подозреваю, что затык не по pps и аппаратной части, а просто слишком много навешано всего в системе. Кроме маршрутизации/nat система больше ничего не делает?
Ну и nat translations можно потюнить, уменьшить таймауты и т.д.
> На современных процах до 50-70Кппс (в среднем 500-600Мбит/сек) о затыке производительности именно по процу можно не задумываться...http://i.piccy.info/i9/3f212d9161171e712f3975c27f4013a5/1395...
сетевая intel, core i5, загрузка проца 3-5%
P.S.
На наге на хорошем проце 2M-3M pps получали
> Сколько правил iptables? Какие настройки tc, есть ли PBR?
> Подозреваю, что затык не по pps и аппаратной части, а просто слишком
> много навешано всего в системе. Кроме маршрутизации/nat система больше ничего не
> делает?
> Ну и nat translations можно потюнить, уменьшить таймауты и т.д.Сори - чото ранее не видел этого поста
Проблему пока мониторю и собираю данные
в таблицах 1400 правил
tc на htb - 500 класов(подкласов нету)
крутится апач, майескюель, фтпP.S. построил графики и по пакетам на интерфейсе больше 20к(сумарних=вход+исход) пакетов не проходит, сразу когда под потолок 20к - то на графике ишибок прут ошибки
В результате на внешнем интерфейсе до 4% потерь попадается,
а на внутренних до 11%(тут я вообще нифига не пойму)
получается не только сам сервер не успевает забирать пакети с внешней сетевой, но и у него их тоже не успевают забирать!!!!!!!P.P.S попробую решить просто полной заменой железа