проблемка.стандартная конструкция
00061 allow ip from any to 10.0.0.0/8 via rl0 setup limit src-addr 50
работает, НО!
как только все 50 коннектов заполняются, новые уже не создаются....правило убираю - все пошло, добавляю - по новой.
куда копать не знаю...
p.s. почему четырех ядерный интел квад с FREEbsd 8.0 пропускает через себя только 430 Мбит и все... при этом загружен на 5 процентов.... Больше - хоть лопни...
>[оверквотинг удален]
>работает, НО!
>как только все 50 коннектов заполняются, новые уже не создаются....
>
>правило убираю - все пошло, добавляю - по новой.
>
>куда копать не знаю...
>
>p.s. почему четырех ядерный интел квад с FREEbsd 8.0 пропускает через себя
>только 430 Мбит и все... при этом загружен на 5 процентов....
>Больше - хоть лопни...а должно как?
>а должно как?должно ставить лимит, а не пропустило 50 коннектов и когда они даже зарываются - новые все равно не пускает.
как то обнулять чтоб... ввобщем логика этого лимита мне не понятна
>>а должно как?
>
>должно ставить лимит, а не пропустило 50 коннектов и когда они даже
>зарываются - новые все равно не пускает.
>
>как то обнулять чтоб... ввобщем логика этого лимита мне не понятначитать документацию на предмет timeout
особенно в контексте setup/keep-stateP.S. по поводу 430 Мбит 2 варианта:
1. либо речь идет о том, что поток входящий и исходящий идет через один сетевой интерфейс, тогда проверить на предмет Full Duplex
2. и в любом случае не мешает самоликбез по принципам работы ethernet и связанными с этим принципиальными ограничениями
>[оверквотинг удален]
>работает, НО!
>как только все 50 коннектов заполняются, новые уже не создаются....
>
>правило убираю - все пошло, добавляю - по новой.
>
>куда копать не знаю...
>
>p.s. почему четырех ядерный интел квад с FREEbsd 8.0 пропускает через себя
>только 430 Мбит и все... при этом загружен на 5 процентов....
>Больше - хоть лопни...Про 430Mbps. Сетевая карта на какой шине(pci-x,pci-e..)?
>Про 430Mbps. Сетевая карта на какой шине(pci-x,pci-e..)?огромное спасибо)
может подскажете в этом плане. сейчас используются ASUS P5KPL-AM и две INTEL PRO/1000 GT.
на что можно заменить эту пару в таком же ценовом диапазоне или самое дешевое в этом плане что бы получить больше скорости?
>>Про 430Mbps. Сетевая карта на какой шине(pci-x,pci-e..)?
>
>огромное спасибо)
>
>может подскажете в этом плане. сейчас используются ASUS P5KPL-AM и две INTEL
>PRO/1000 GT.
>
>на что можно заменить эту пару в таком же ценовом диапазоне или
>самое дешевое в этом плане что бы получить больше скорости?Пропускная способность PCI 2.1-3.0 в режиме 66 МГц — 266 Мбайт/с(2128Mbps)
При использовании двух гигабитных карточек с функцией bus-master, PCI шина будет полностью утилизирована. Честно говоря, я не думаю что есть узкое место в аппаратной части.Какой драйвер используется? Не этот:
http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&Dwnld...
?
Правда, там написано "for FreeBSD* 7.x", но "а вдруг"..
Чем скорость меряли?
дров яндексовские, мерял iperf гигабитным линком между двумя однотипными серверами.
>дров яндексовские, мерял iperf гигабитным линком между двумя однотипными серверами.Интеловские не пробовали? polling включен? jumbo frame заюзан? Что показывает netstat -inbd? Между серверами прямой линк? С какими ключами iperf был запущен? checksum
offloading включен или выключен? Что показывает ifconfig -a? Производился ли тюнинг TCP/IP стека? Что показывает ifconfig -m?
Посмотреть sysctl dev.em.0.stats=1 && dmesg и
sysctl dev.em.1.stats=1 && dmesgПопробуй такие параметры(взято отсюда: http://forum.nag.ru/forum/index.php?showtopic=47174&st=80):
loader.conf: hw_em_txd/rxd=4096
sysctl
net.inet.ip.intr_queue_maxlen=1000
dev.em.1.rx_kthreads: 4
dev.em.1.rx_int_delay: 600
dev.em.1.tx_int_delay: 600
dev.em.1.rx_abs_int_delay: 1000
dev.em.1.tx_abs_int_delay: 1000
на данный момент стоят официальные 6.9.21, разные тюнинги не помогли...максимум проходящий через сервер держится возле ~420 Мбит (тоесть проходит через две сетевухи как шлюз и натится). столько же выдает и iperf с одной сетевухи при передаче им трафика между двумя однотипными серверами.
всего таких серверов более 4 и на всех ситуация одинаковая....
немогу просто точно определится дело в железе или всетаки где то в настройках ОС...
>на данный момент стоят официальные 6.9.21, разные тюнинги не помогли...
>
>максимум проходящий через сервер держится возле ~420 Мбит (тоесть проходит через две
>сетевухи как шлюз и натится). столько же выдает и iperf с
>одной сетевухи при передаче им трафика между двумя однотипными серверами.
>
>всего таких серверов более 4 и на всех ситуация одинаковая....
>
>немогу просто точно определится дело в железе или всетаки где то в
>настройках ОС...sysctl dev.em.X.stats=1
Что интересного в статистике после замера трафика?