Имеем ubuntu server 12.04.3
настроен bound0 для двух интерфейсов eth0 и eth1 по 802.3ad . Свич настроен соответственно. Транк поднялся - резервирование работает, т.е. дергаешь провада в разных комбинация все как и должно быть. А вот с балансировкой непонятки.По верх bond0 настроено 3 Vlan`а: Vlan1 - локальная сетка, Vlan2 - первый провайдер, Vlan3 - второй провайдер.
Начинаю тестить - давать нагрузку на сеть через iperf - не суть важно. Ситуация - по пакетам идет почти полная балансировака - принято и отправленно с интерфейсов почти поровну пакетов (погрешность гдето +/- 10 пакетов на 10к) а вот по скорости при этом почти вся нагрузка идет через один из каналов, а на втором какието крохи приблезительно 1-3%
я подозреваю что такая ситуация из-за фрагментации пакета - пробовал играть с mtu на интерфейсах - не помогает - где искать грабли подскажите плиз.И вторая проблема: во втором vlan через свич бегает мультикаст трафик от провайдера до других устройств в сетке которые в этом же vlan`не. На интерфейсе vlan2 на сервере все хорошо лишнего "шума" нет. Для виртуалзации понадобилось поднять bridge интерфейс на vlan1 интерфейсе. И появилась проблема. Как только подымаеться br0 бриджем на vlan1, vlan2 начинает получать "шум" ввиде этого мультикаст потока, хотя на сервере не используеться ни одного софта для мультикаста и по идее сервер не должен был подлючаться к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????
>[оверквотинг удален]
> первый провайдер, Vlan3 - второй провайдер.
> Начинаю тестить - давать нагрузку на сеть через iperf - не суть
> важно. Ситуация - по пакетам идет почти полная балансировака - принято
> и отправленно с интерфейсов почти поровну пакетов (погрешность гдето +/- 10
> пакетов на 10к) а вот по скорости при этом почти вся
> нагрузка идет через один из каналов, а на втором какието крохи
> приблезительно 1-3%
> я подозреваю что такая ситуация из-за фрагментации пакета - пробовал играть с
> mtu на интерфейсах - не помогает - где искать грабли подскажите
> плиз.как это пакеты по разным каналам а содержимое по одному? что tcpdump не помогает? почему?
> И вторая проблема: во втором vlan через свич бегает мультикаст трафик от
> провайдера до других устройств в сетке которые в этом же vlan`не.
> На интерфейсе vlan2 на сервере все хорошо лишнего "шума" нет. Для
> виртуалзации понадобилось поднять bridge интерфейс на vlan1 интерфейсе. И появилась проблема.
> Как только подымаеться br0 бриджем на vlan1, vlan2 начинает получать "шум"
> ввиде этого мультикаст потока, хотя на сервере не используеться ни одного
> софта для мультикаста и по идее сервер не должен был подлючаться
> к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????зафильтровать мультиувст на бридже.
P.S. bond кривой чуть менее чем полностью надо сказать.
team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>[оверквотинг удален]
>> провайдера до других устройств в сетке которые в этом же vlan`не.
>> На интерфейсе vlan2 на сервере все хорошо лишнего "шума" нет. Для
>> виртуалзации понадобилось поднять bridge интерфейс на vlan1 интерфейсе. И появилась проблема.
>> Как только подымаеться br0 бриджем на vlan1, vlan2 начинает получать "шум"
>> ввиде этого мультикаст потока, хотя на сервере не используеться ни одного
>> софта для мультикаста и по идее сервер не должен был подлючаться
>> к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????
> зафильтровать мультиувст на бридже.
> P.S. bond кривой чуть менее чем полностью надо сказать.
> team имеет откровенное кривой userspace -- ходя сам драйвер много лучшесовсем забыл
есть ещё очень много в openvswitch
например
http://blog.scottlowe.org/2012/10/19/link-aggregation-and-la.../
дочитывать не стал, на основе какого алгоритма распределяется трафик? есть по макам, есть по ИП, есть смешанный, может вся проблема в том что балансер срабатывает только на один канал из-за метода распределения? Где-то на циске вроде я видел калькуляторы, достаточно давно и касалось это мультипатчинга в айскази сетях, дак вот там хитро как-то оно разносилось по ифейсам в зависимости от адресов.. Короче говоря смысл моих слов в том что в реальной нагрузке все должно быть хорошо :) распределение трафа будет +\- 3-5%
> дочитывать не стал, на основе какого алгоритма распределяется трафик? есть по макам,
> есть по ИП, есть смешанный, может вся проблема в том что
> балансер срабатывает только на один канал из-за метода распределения? Где-то на
> циске вроде я видел калькуляторы, достаточно давно и касалось это мультипатчинга
> в айскази сетях, дак вот там хитро как-то оно разносилось по
> ифейсам в зависимости от адресов.. Короче говоря смысл моих слов в
> том что в реальной нагрузке все должно быть хорошо :) распределение
> трафа будет +\- 3-5%Распределяеться согласно 802.3ad (LACP). ТО что вы перечислили это другие варианты которые не требуют со стороны свича настройки. Я не понимаю что вы имеете ввиду под реальной нагрузкой? Чем пропихивание пакетов от одной "софтины" будет отличаться от другой. В часности такой транк подымаеться для того чтобы повысить доступность iscsi стора(отказоустойчивая составляющая 802.3ad) и повисить скорость общения со стором(функция агрегирования каналов 802.3ad).
> Распределяеться согласно 802.3ad (LACP). ТО что вы перечислили это другие варианты которые
> не требуют со стороны свича настройки. Я не понимаю что вы
> имеете ввиду под реальной нагрузкой? Чем пропихивание пакетов от одной "софтины"
> будет отличаться от другой. В часности такой транк подымаеться для того
> чтобы повысить доступность iscsi стора(отказоустойчивая составляющая 802.3ad) и повисить
> скорость общения со стором(функция агрегирования каналов 802.3ad).Ну тогда вопрос, как свич или сетевые карты понимают в какой из портов совать трафик? ниже в посте заметили, что траф идет на основе хешей, верно, но хеш формируется либо от мака, либо от ИП, либо от мак+ИП.
имя опыт реализации айсказей на софтовом решении (freebsd+istgt+lagg) скажу, что трафик айсказевый ходит только по одному порту к одной сессии, лоадбалансинга между p2p коннектом нет и не будет.
Так же ниже есть заметка о том что свичу по барабану на методы доставки трафа по 802.3ad - не верно, ближайший свич под рукой екстрим
# config sharing address-based (таб)
Next possible completions:
ip-destination ip-source ip-source-dest mac-destination mac-source
mac-source-destсобственно способы хеширования и выбора маршрута..
Под реальной задачей (не в сетях айскази) трафик балансируется поскольку точек (ИП адресов) очень много и вероятность их разбаланситься поровну стремится к единице.
> дочитывать не стал, на основе какого алгоритма распределяется трафик? есть по макам,
> есть по ИП, есть смешанный, может вся проблема в том что
> балансер срабатывает только на один канал из-за метода распределения? Где-то на
> циске вроде я видел калькуляторы, достаточно давно и касалось это мультипатчинга
> в айскази сетях, дак вот там хитро как-то оно разносилось по
> ифейсам в зависимости от адресов.. Короче говоря смысл моих слов в
> том что в реальной нагрузке все должно быть хорошо :) распределение
> трафа будет +\- 3-5%на самом деле трафик распределяется на основе значения hash-а -- а вот как оный расчитывается - тут могут быть варианты -- вплоть до l7.
у человека ситуация выглядит дик -- якобы кол-во пакетов примерно одинаково а к-во трафика нет -- хотя...
а да чё хотя -- tcpdump всё покажет
>[оверквотинг удален]
>>> ввиде этого мультикаст потока, хотя на сервере не используеться ни одного
>>> софта для мультикаста и по идее сервер не должен был подлючаться
>>> к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????
>> зафильтровать мультиувст на бридже.
>> P.S. bond кривой чуть менее чем полностью надо сказать.
>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
> совсем забыл
> есть ещё очень много в openvswitch
> например
> http://blog.scottlowe.org/2012/10/19/link-aggregation-and-la.../:) Если вы наведе меня на мысль о том как юзать виртуальный свич для киртуалак для агрегирования реальных каналов который садиться и так по верх bond то буду презнателен.
>[оверквотинг удален]
>> важно. Ситуация - по пакетам идет почти полная балансировака - принято
>> и отправленно с интерфейсов почти поровну пакетов (погрешность гдето +/- 10
>> пакетов на 10к) а вот по скорости при этом почти вся
>> нагрузка идет через один из каналов, а на втором какието крохи
>> приблезительно 1-3%
>> я подозреваю что такая ситуация из-за фрагментации пакета - пробовал играть с
>> mtu на интерфейсах - не помогает - где искать грабли подскажите
>> плиз.
> как это пакеты по разным каналам а содержимое по одному? что tcpdump
> не помогает? почему?Пакеты идут по обоим каналам в равном колличественном объеме, а вот в в объеме данных нет
я так подразумеваю что пакет объемем 1500 на какомто этапе бъеться на 2 пакета допустим 1400 и 100 они приходят 1 через первый интефейс второй через второй (балансировка) т.е. колво пакетов на интерфейсах равное а вот размеры пакетов отличаються, но вот из-за чего они могут так биться вопрос? тестовые машины на одном свиче. Но это мое предположение о возможных причинах может есть и другие :(>> И вторая проблема: во втором vlan через свич бегает мультикаст трафик от
>> провайдера до других устройств в сетке которые в этом же vlan`не.
>> На интерфейсе vlan2 на сервере все хорошо лишнего "шума" нет. Для
>> виртуалзации понадобилось поднять bridge интерфейс на vlan1 интерфейсе. И появилась проблема.
>> Как только подымаеться br0 бриджем на vlan1, vlan2 начинает получать "шум"
>> ввиде этого мультикаст потока, хотя на сервере не используеться ни одного
>> софта для мультикаста и по идее сервер не должен был подлючаться
>> к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????
> зафильтровать мультиувст на бридже.а чем это поможет?? отфильтровать не проблема но как это спасет от того что в канал всеравно гоняться эти пакеты - по сути отедая полосу. Да основной вопрос - почему они начинают гнаться - насколько я понял чтобы свич начал гнать в канал мультикаст для этого интерфейс должен "подписаться" на свиче в этой мультикастовой группе? Что поднятия бриджа автомотически без участия софта подписываеться на все мультикаст группы?
> P.S. bond кривой чуть менее чем полностью надо сказать.
> team имеет откровенное кривой userspace -- ходя сам драйвер много лучшеМожно по конкретней про team - ссылку на какойнить faq, просто везде по Linux 802.3ad link agregation только bond.
>[оверквотинг удален]
>> как это пакеты по разным каналам а содержимое по одному? что tcpdump
>> не помогает? почему?
> Пакеты идут по обоим каналам в равном колличественном объеме, а вот в
> в объеме данных нет
> я так подразумеваю что пакет объемем 1500 на какомто этапе бъеться на
> 2 пакета допустим 1400 и 100 они приходят 1 через первый
> интефейс второй через второй (балансировка) т.е. колво пакетов на интерфейсах равное
> а вот размеры пакетов отличаються, но вот из-за чего они могут
> так биться вопрос? тестовые машины на одном свиче. Но это мое
> предположение о возможных причинах может есть и другие :(tcpdump -- или пакетя отличаются или одно из двух
>[оверквотинг удален]
>>> ввиде этого мультикаст потока, хотя на сервере не используеться ни одного
>>> софта для мультикаста и по идее сервер не должен был подлючаться
>>> к мультикаст группе на свиче. Собстенно вопрос как от этого избаваться????
>> зафильтровать мультиувст на бридже.
> а чем это поможет?? отфильтровать не проблема но как это спасет от
> того что в канал всеравно гоняться эти пакеты - по сути
> отедая полосу. Да основной вопрос - почему они начинают гнаться -
> насколько я понял чтобы свич начал гнать в канал мультикаст для
> этого интерфейс должен "подписаться" на свиче в этой мультикастовой группе? Что
> поднятия бриджа автомотически без участия софта подписываеться на все мультикаст группы?т.е. изначально в порт мультикаст трафик не льёться? а начинает после поднятия бриджа? и никто не усуществляет подписку? а что за свич такой ? -- а понял -- это в свич прилетает stp и он начинает считать bridge свичём и шлёт на него multicast -- или бридж поднимается с выключеным stp???
>> P.S. bond кривой чуть менее чем полностью надо сказать.
>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
> Можно по конкретней про team - ссылку на какойнить faq, просто везде
> по Linux 802.3ad link agregation только bond.google же -- ну что вы як маленькие. ну или например modinfo team
>[оверквотинг удален]
>>> не помогает? почему?
>> Пакеты идут по обоим каналам в равном колличественном объеме, а вот в
>> в объеме данных нет
>> я так подразумеваю что пакет объемем 1500 на какомто этапе бъеться на
>> 2 пакета допустим 1400 и 100 они приходят 1 через первый
>> интефейс второй через второй (балансировка) т.е. колво пакетов на интерфейсах равное
>> а вот размеры пакетов отличаються, но вот из-за чего они могут
>> так биться вопрос? тестовые машины на одном свиче. Но это мое
>> предположение о возможных причинах может есть и другие :(
> tcpdump -- или пакетя отличаются или одно из двухдоеду гляну - вчера все не успел проверить
>[оверквотинг удален]
>> того что в канал всеравно гоняться эти пакеты - по сути
>> отедая полосу. Да основной вопрос - почему они начинают гнаться -
>> насколько я понял чтобы свич начал гнать в канал мультикаст для
>> этого интерфейс должен "подписаться" на свиче в этой мультикастовой группе? Что
>> поднятия бриджа автомотически без участия софта подписываеться на все мультикаст группы?
> т.е. изначально в порт мультикаст трафик не льёться? а начинает после поднятия
> бриджа? и никто не усуществляет подписку? а что за свич такой
> ? -- а понял -- это в свич прилетает stp и
> он начинает считать bridge свичём и шлёт на него multicast --
> или бридж поднимается с выключеным stp???да бридж поднимаеться с отключенным stp - покрайней мере опция прописана.
>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>> по Linux 802.3ad link agregation только bond.
> google же -- ну что вы як маленькие. ну или например modinfo
> teamИсчу пока инфу
>[оверквотинг удален]
>>> отедая полосу. Да основной вопрос - почему они начинают гнаться -
>>> насколько я понял чтобы свич начал гнать в канал мультикаст для
>>> этого интерфейс должен "подписаться" на свиче в этой мультикастовой группе? Что
>>> поднятия бриджа автомотически без участия софта подписываеться на все мультикаст группы?
>> т.е. изначально в порт мультикаст трафик не льёться? а начинает после поднятия
>> бриджа? и никто не усуществляет подписку? а что за свич такой
>> ? -- а понял -- это в свич прилетает stp и
>> он начинает считать bridge свичём и шлёт на него multicast --
>> или бридж поднимается с выключеным stp???
> да бридж поднимаеться с отключенным stp - покрайней мере опция прописана.да + к этому может вы не до поняли
структура такая (приоблезительно)bond0
|----vlan1
|--br0
|-----vlan2
|-----vlan3так вот начинает "фонить" на vlan2, т.е. по идеи br0 его не затрагивает даже если stp включен. Хотя пока писал появилась идея - может поднятие бриджа включет stp по дефолту для всех интерфейсов, а отключение происходить только для vlan1. Доеду попробую поднять для каждого vlan по бриджу с отключение stp. Потом отпишу. Спасибо за наводку - это уже хоть что то - а то просто в тупике был.
>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>> по Linux 802.3ad link agregation только bond.
>> google же -- ну что вы як маленькие. ну или например modinfo
>> team
> Исчу пока инфу
>[оверквотинг удален]
> да + к этому может вы не до поняли
> структура такая (приоблезительно)
> bond0
> |----vlan1
> |--br0
> |-----vlan2
> |-----vlan3
> так вот начинает "фонить" на vlan2, т.е. по идеи br0 его не
> затрагивает даже если stp включен. Хотя пока писал появилась идея -
> может поднятие бриджа включет stp по дефолту для всех интерфейсов, ане может stp включиться для любых интерфейсов -- stp в linux пока только в рамках bridge-а имеется -- а влиять он может только на ethernet интерфкйсы включенные в этот bridge.
>[оверквотинг удален]
> по бриджу с отключение stp. Потом отпишу. Спасибо за наводку -
> это уже хоть что то - а то просто в тупике
> был.
>>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>>> по Linux 802.3ad link agregation только bond.
>>> google же -- ну что вы як маленькие. ну или например modinfo
>>> team
>> Исчу пока инфумне кажеться что "You are doing it wrong"
>[оверквотинг удален]
>> |----vlan1
>> |--br0
>> |-----vlan2
>> |-----vlan3
>> так вот начинает "фонить" на vlan2, т.е. по идеи br0 его не
>> затрагивает даже если stp включен. Хотя пока писал появилась идея -
>> может поднятие бриджа включет stp по дефолту для всех интерфейсов, а
> не может stp включиться для любых интерфейсов -- stp в linux пока
> только в рамках bridge-а имеется -- а влиять он может только
> на ethernet интерфкйсы включенные в этот bridge.Ну как говорить "если программа работает без ошибок, напишите нам что бы мы исправили нанную ошибку". Все может быть bond обеденяет 2 физических ethernet интерфейса, vlan1,2,3 висят по верху, и уже на одном из них висит br0, мб, по вложенности stp мог включить для одного из eth и как следствие начинает дествовать на все "наследники". Проверю - других то вариантов пока вообще нет.
>[оверквотинг удален]
>> это уже хоть что то - а то просто в тупике
>> был.
>>>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>>>> по Linux 802.3ad link agregation только bond.
>>>> google же -- ну что вы як маленькие. ну или например modinfo
>>>> team
>>> Исчу пока инфу
> мне кажеться что "You are doing it wrong"
>[оверквотинг удален]
>>> это уже хоть что то - а то просто в тупике
>>> был.
>>>>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>>>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>>>>> по Linux 802.3ad link agregation только bond.
>>>>> google же -- ну что вы як маленькие. ну или например modinfo
>>>>> team
>>>> Исчу пока инфу
>> мне кажеться что "You are doing it wrong"Итак выше описанный эксперемент проведен - подымался бридж для каждого vlan интерфейса - результат - "мультикастовый шум" появлялся на всех интерфейсах на который вешался бридж.
Печальненко - надо дальше капать
>[оверквотинг удален]
>>>>>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>>>>>> по Linux 802.3ad link agregation только bond.
>>>>>> google же -- ну что вы як маленькие. ну или например modinfo
>>>>>> team
>>>>> Исчу пока инфу
>>> мне кажеться что "You are doing it wrong"
> Итак выше описанный эксперемент проведен - подымался бридж для каждого vlan интерфейса
> - результат - "мультикастовый шум" появлялся на всех интерфейсах на который
> вешался бридж.
> Печальненко - надо дальше капатьСам себе отвечаю - полазив по англоязычным форумам, как и предпологал - при подбъеме бриджа автоматически рассылаеться запрос на подключение к мультикаст группам, причем расылаеться от имени физического интерсейса на катором поднят бридж. Объясняют это тем что если этого не делать - потом через бридж не получаеться коректно гнать мультикаст - вот так обозвали глюк фичей и закрепили :(
802.3ad требует от балансировщика всего две вещи
1. не менять порядок следования пакетов
2. не создавать дубликатовПолучится балансировка или нет - вопрос к конкретной реализации. Кури ман от свитча.
Вообще говоря, равномерную загрузку можно получить только при round-robin. В остальных алгоритмах вычисляется однозначная хэш-функция от служебных полей пакетов - MAC-адресов, IP-адресов, IP-портов.
> это тем что если этого не делать - потом через бридж
> не получаеться коректно гнать мультикаст - вот так обозвали глюк фичей
> и закрепили :(Не глюк это и не фича, ты просто мешаешь водку (L3) с портвейном (L2).
Мультикаст может быть L2 (Ethernet), а может быть L3 (IP). Приходится догадываться, что от провайдера ты получаешь IP мультикаст. Который может быть завёрнут в Ethernet broadcast (FF:FF:FF:FF:FF:FF), а может в правильный Ethernet multicast, (например 01-00-5E-xx-xx-xx) Если у провайдера своя собственная сетка - ATM, то получишь Ethernet Broadcast без вариантов.
Если до тебя доходит Ethernet broadcast - никуда не денешься, будешь резать файрволом на уровне IP. Если Ethernet multicast - есть варианты вроде ebtables.
Не дело бриджа лазить в IP, чтобы отличать IP-мультикаст от IP-бродкаста и юникаста. Пришло на интерфейс, MAC-адрес совпал - отдай верхнему уровню, пусть разбирается.
Есть "свитчи L3", там можешь наворотить фильтрацию по IP, в том числе отлавливать и резать IP-мультикаст или делать из него Ethernet-мультикаст.
>[оверквотинг удален]
>> Итак выше описанный эксперемент проведен - подымался бридж для каждого vlan интерфейса
>> - результат - "мультикастовый шум" появлялся на всех интерфейсах на который
>> вешался бридж.
>> Печальненко - надо дальше капать
> Сам себе отвечаю - полазив по англоязычным форумам, как и предпологал -
> при подбъеме бриджа автоматически рассылаеться запрос на подключение к мультикаст группам,
> причем расылаеться от имени физического интерсейса на катором поднят бридж. Объясняют
> это тем что если этого не делать - потом через бридж
> не получаеться коректно гнать мультикаст - вот так обозвали глюк фичей
> и закрепили :(root@sq:~# find /sys/class/net/br0/ | grep multicast
/sys/class/net/br0/bridge/multicast_querier
/sys/class/net/br0/bridge/multicast_query_response_interval
/sys/class/net/br0/bridge/multicast_membership_interval
/sys/class/net/br0/bridge/multicast_router
/sys/class/net/br0/bridge/multicast_startup_query_interval
/sys/class/net/br0/bridge/multicast_last_member_count
/sys/class/net/br0/bridge/multicast_last_member_interval
/sys/class/net/br0/bridge/multicast_startup_query_count
/sys/class/net/br0/bridge/multicast_querier_interval
/sys/class/net/br0/bridge/multicast_query_interval
/sys/class/net/br0/bridge/multicast_snooping
/sys/class/net/br0/statistics/multicastа конкретно до того как подцепить интерфейсы послть 0 в /sys/class/net/br0/bridge/multicast_router и /sys/class/net/br0/bridge/multicast_querier
>[оверквотинг удален]
> /sys/class/net/br0/bridge/multicast_startup_query_interval
> /sys/class/net/br0/bridge/multicast_last_member_count
> /sys/class/net/br0/bridge/multicast_last_member_interval
> /sys/class/net/br0/bridge/multicast_startup_query_count
> /sys/class/net/br0/bridge/multicast_querier_interval
> /sys/class/net/br0/bridge/multicast_query_interval
> /sys/class/net/br0/bridge/multicast_snooping
> /sys/class/net/br0/statistics/multicast
> а конкретно до того как подцепить интерфейсы послть 0 в /sys/class/net/br0/bridge/multicast_router
> и /sys/class/net/br0/bridge/multicast_querierP.S.
ip li set dev br0 multicast off allmulticast off
/sys/class/net/br0/bridge/multicast_snooping тоже нужно тушить до того как добавлены интерфейсы
>[оверквотинг удален]
>> /sys/class/net/br0/bridge/multicast_querier_interval
>> /sys/class/net/br0/bridge/multicast_query_interval
>> /sys/class/net/br0/bridge/multicast_snooping
>> /sys/class/net/br0/statistics/multicast
>> а конкретно до того как подцепить интерфейсы послть 0 в /sys/class/net/br0/bridge/multicast_router
>> и /sys/class/net/br0/bridge/multicast_querier
> P.S.
> ip li set dev br0 multicast off allmulticast off
> /sys/class/net/br0/bridge/multicast_snooping тоже нужно тушить до того как добавлены
> интерфейсыВсе это выполнялось - не помогает - а ингл форму нашел вырезку из сорцов, где чел показывал какая функция выполняет подключени к мультикаст группе и типа для чего это сделано - так же пояснял что данный код можно коментить, но тогда если будет необходимость рабоать с мультикастом через бридж - допустим проксировать или вещать - не получиться и предлогал собственно если не нравиться "шум" фильтровать его l3 свичем.
>[оверквотинг удален]
>>> Пакеты идут по обоим каналам в равном колличественном объеме, а вот в
>>> в объеме данных нет
>>> я так подразумеваю что пакет объемем 1500 на какомто этапе бъеться на
>>> 2 пакета допустим 1400 и 100 они приходят 1 через первый
>>> интефейс второй через второй (балансировка) т.е. колво пакетов на интерфейсах равное
>>> а вот размеры пакетов отличаються, но вот из-за чего они могут
>>> так биться вопрос? тестовые машины на одном свиче. Но это мое
>>> предположение о возможных причинах может есть и другие :(
>> tcpdump -- или пакетя отличаются или одно из двух
> доеду гляну - вчера все не успел проверитьИ так глянул - стала понятно откуда ассиметрия объема но норма ли это или нет, не знаю. История такова - через один из eth0 идет входящий трафик, через eth1 исходящий.
Вот такие вот данные - народ подскажите это нормально поведение для LACP?>[оверквотинг удален]
>> он начинает считать bridge свичём и шлёт на него multicast --
>> или бридж поднимается с выключеным stp???
> да бридж поднимаеться с отключенным stp - покрайней мере опция прописана.
>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>> по Linux 802.3ad link agregation только bond.
>> google же -- ну что вы як маленькие. ну или например modinfo
>> team
> Исчу пока инфу
>[оверквотинг удален]
>>> он начинает считать bridge свичём и шлёт на него multicast --
>>> или бридж поднимается с выключеным stp???
>> да бридж поднимаеться с отключенным stp - покрайней мере опция прописана.
>>>>> P.S. bond кривой чуть менее чем полностью надо сказать.
>>>>> team имеет откровенное кривой userspace -- ходя сам драйвер много лучше
>>>> Можно по конкретней про team - ссылку на какойнить faq, просто везде
>>>> по Linux 802.3ad link agregation только bond.
>>> google же -- ну что вы як маленькие. ну или например modinfo
>>> team
>> Исчу пока инфуПовторю одного из предидущих ораторов - все зависит от алгоритма балансировки!
Смотреть надо даташит свича, в который воткнуты шнурки от ваших сетевух,
и смотреть что из следующего свич умеет
EtherChannel load balancing can use MAC addresses; IP addresses; Layer 4 port numbers; either source addresses, destination addresses, or both; or ports.
Или киньте сюда модель свича, коли сами не найдете.Если свич умеет только "load balancing use MAC addresses" то ничего вы не добьетесь, т.к. при таком балансинге грубо говоря четные МАС-и налево, нечетные - направо и никак иначе ;)
>[оверквотинг удален]
>>> Исчу пока инфу
> Повторю одного из предидущих ораторов - все зависит от алгоритма балансировки!
> Смотреть надо даташит свича, в который воткнуты шнурки от ваших сетевух,
> и смотреть что из следующего свич умеет
> EtherChannel load balancing can use MAC addresses; IP addresses; Layer 4
> port numbers; either source addresses, destination addresses, or both; or ports.
> Или киньте сюда модель свича, коли сами не найдете.
> Если свич умеет только "load balancing use MAC addresses" то ничего вы
> не добьетесь, т.к. при таком балансинге грубо говоря четные МАС-и налево,
> нечетные - направо и никак иначе ;)счас буду искать свичик hp 1810-24g
>[оверквотинг удален]
>> Повторю одного из предидущих ораторов - все зависит от алгоритма балансировки!
>> Смотреть надо даташит свича, в который воткнуты шнурки от ваших сетевух,
>> и смотреть что из следующего свич умеет
>> EtherChannel load balancing can use MAC addresses; IP addresses; Layer 4
>> port numbers; either source addresses, destination addresses, or both; or ports.
>> Или киньте сюда модель свича, коли сами не найдете.
>> Если свич умеет только "load balancing use MAC addresses" то ничего вы
>> не добьетесь, т.к. при таком балансинге грубо говоря четные МАС-и налево,
>> нечетные - направо и никак иначе ;)
> счас буду искать свичик hp 1810-24gВсем спасибо за помощь - нашел и прочитал - данный свич умеет только smac xor dmac - вот и вся балансировка. Все вопрос зарыт, на вторую часть я сам нашел ответ.
About multicast try this:echo "0"> /sys/devices/virtual/net/br0/bridge/multicast_snooping
and other relative parameters.
> About multicast try this:
> echo "0"> /sys/devices/virtual/net/br0/bridge/multicast_snooping
> and other relative parameters.Непомогло :(
...
> Как только подымаеться br0 бриджем на vlan1, vlan2 начинает получать "шум"линуксовый бридж выставляет интерфесы в примскьюз мод. Собственно именно так он и работает.
llc-шный обработчик отфильтровывает тарффик по mac-у, мультикаст они не отфльтруют так запросто.