Собственно ситуация проста и банальна, транзит подключили, маршрутизатор (на схеме - R2) на удаленном узле поставили, ping побежал... И тут вполне резонный вопрос - соответствует ли канал заявленным характеристикам?Если бы за R2 стоял какой-то сервер, где можно было iperf запустить - проблема решилась бы быстро, но там на данный момент ничего кроме собственно самого R2 нет, ехать почти 200 км тоже не очень хочется, а примерное представление о качестве сервиса получить надо.
[[IMG /soft/img/SPEEDTEST_VRF.png]]
Возникла одна простая идея - между R1 и R2 поднять 2 туннеля, на R1 поместить их в разные VRF и в VRF 1 добавить интерфейс с Server 1, а в VRF 2 соответственно интерфейс с Server 2, слегка поднастроить маршрутизацию и по получившейся петле прогнать трафик с сервера 1 на сервер 2.
ВАЖНО! ТРАНЗИТНЫЙ КАНАЛ ДОЛЖЕН БЫТЬ СИММЕТРИЧНЫМ, т.е. с одинаковой скоростью в обоих направлениях
++ Реализация
Выбираем номера VLAN-ов и IP-ы для линков:
Т.к. подсеть 172.19.0.0/16 у меня нигде не используется, ее и выберем для тестовS1 -- R1 vlan 101 172.19.1.0/30
S2 -- R1 Vlan 102 172.19.4.0/30R1 -- R2 Tun1 172.19.2.0/30
R1 -- R2 Tun2 172.19.3.0/30
++ Конфигурация серверов (OS CentOS)Настроим сервера
Server 1:
vconfig add eth0 101
ifconfig eth0.101 172.19.1.1/30
route add -net 172.19.0.0/16 gw 172.19.1.2Server 2:
vconfig add eth0 102
ifconfig eth0.101 172.19.4.1/30
route add -net 172.19.0.0/16 gw 172.19.4.2++ Конфигурация маршрутизаторов
R1
!
ip vrf serv_1
rd 111:111
!
ip vrf serv_2
rd 111:222
!
interface Loopback1
description For_Tun1
ip address 172.19.101.1 255.255.255.255
!
interface Loopback1
description For_Tun2
ip address 172.19.102.1 255.255.255.255
!
interface Tunnel1
ip vrf forwarding serv_1
ip address 172.19.2.1 255.255.255.252
keepalive 10 3
tunnel source 172.19.101.1
tunnel destination 172.19.101.2
!
interface Tunnel2
ip vrf forwarding serv_2
ip address 172.19.3.1 255.255.255.252
keepalive 10 3
tunnel source 172.19.102.1
tunnel destination 172.19.102.2
!
interface FastEthernet0/0.101
description Server_1
encapsulation dot1Q 101
ip vrf forwarding serv_1
ip address 172.19.1.2 255.255.255.252
!
interface FastEthernet0/0.102
description Server_2
encapsulation dot1Q 102
ip vrf forwarding serv_2
ip address 172.19.4.2 255.255.255.252
!
ip route vrf serv_2 172.19.1.0 255.255.255.0 172.19.2.2
ip route vrf serv_2 172.19.2.0 255.255.255.0 172.19.2.2
ip route vrf serv_1 172.19.3.0 255.255.255.0 172.19.1.2
ip route vrf serv_1 172.19.4.0 255.255.255.0 172.19.1.2R2
ip vrf tranzit
rd 111:333
!
interface Loopback1
description For_Tun1
ip address 172.19.101.2 255.255.255.255
!
interface Loopback1
description For_Tun2
ip address 172.19.102.2 255.255.255.255
!
interface Tunnel1
ip vrf forwarding tranzit
ip address 172.19.2.2 255.255.255.252
keepalive 10 3
tunnel source 172.19.101.2
tunnel destination 172.19.101.1
!
interface Tunnel2
ip vrf forwarding tranzit
ip address 172.19.3.2 255.255.255.252
keepalive 10 3
tunnel source 172.19.102.2
tunnel destination 172.19.102.1
!
ip route vrf tranzit 172.19.1.0 255.255.255.0 172.19.2.1
ip route vrf tranzit 172.19.4.0 255.255.255.0 172.19.3.1Настройки интерфейсов для транзита и маршрутизации глобальной не показаны
Все, теперь трафик c Server 1 на Server 2 и обратно (точнее трафик с IP 172.19.1.1 на 172.19.4.1) будет проходить по маршруту:
Server 1 <-VLAN_101-> R1(vrf serv_1) <-Tun1-> R2(vrf tranzit) <-Tun2-> R1(vrf serv_2) <-VLAN_102-> Server 2
Можно запускать iperf, или гонять любой иной трафик, строить графики загрузки и делать выводы :)
URL: http://wiki.opennet.ru/%D0%A2%D0%B5%...
Обсуждается: http://www.opennet.me/tips/info/2635.shtml
Результаты делим на 2, т.к. весь трафик пролетает по каналу дважды.
Ага, только множим на 2 а не делим
Тут собственно эффект "Зеркала под углом", общий трафик только между R1 <-> R2,
тогда делить надо.
---А полученный результат это скорость между серверами и роутерами,
а не "из вне через R2", что не одно и тоже.
>А полученный результат это скорость между серверами и роутерамиОдна полоса используется на два потока, то есть результат будет вдвое ниже.
К тому еще необходимо учитывать проценты на оверхед и возможную фрагментацию в туннелях.
> К тому еще необходимо учитывать проценты на оверхед и возможную фрагментацию в
> туннелях.обычно берут и вычитают 22-25%
Зачем такие сложные расчеты, если можно посмотреть загрузку физического интерфейса на любом из этих роутеров?
Каким образом посмотреть скорость на R2 до Server1 или Server2 ?
> Каким образом посмотреть скорость на R2 до Server1 или Server2 ?Лично я "убивал" канал разным трафиком и снимал по snmp счетчики с tunel интерфейсов и fast0/0.3866 (это у меня основной канал таким приходит)
а еще есть pathchar http://www.caida.org/tools/utilities/others/pathchar/
[/usr/ports]# make search name=pathchar
Port: net/pathchar
Moved:
Date: 2010-09-08
Reason: Has expired: has been broken for 2+ years, no sources available
А чем не устраивает запустить rtr на обоих cisco, либо rtr на одной и udp-small-servers на другой?
А поподробнее?
http://www.cisco.com/en/US/products/ps6602/prod_white_papers...Для RTT можно и echo. Для jitter и потерь надо responder. Для оценки BW надо побольше пакетов.
"...примерное представление о
качестве сервиса..." - соответственно оверхеды и т.д. отнесем к погрешностям.
Цель была замерять скорость, задержки, джиттер, способность переваривать высокий ппс; все эти параметры можно ПРИМЕРНО оценить в описаной схеме если есть какие-то СУЩЕСТВЕННЫЕ недостатки - они должны всплыть, если ничего не всплыло - мелочи "долижем" позже :)
ещё есть ttcp, инструмент встроенный в IOS(а также доступен для Linux и форточек)
http://www.cisco.com/en/US/tech/tk801/tk36/technologies_tech...
я не знаю скорости канала, но есть риск померить производительность не канала, а своих роутеров в режиме туннелирования (вы уверены что это не на проце будет жить ?)
ttcp отменили ? ( по конфигам это кошки)
Какраз возникла еще одна необходимость подобной проверки, R2 - cisco 2811; транзитный канал 35Мбит.
1. ttcp - cisco 2811 при 5Мбит уходит в 100% CPU.
2. Через 2 тунеля с VRF-ом - все 35М были успешно "переварены" с CPU в районе 50-90% (сильно разнился PPS, т.к. канал забивали то большими, то мелкими пакетами).
Вывод - ttcp ограничено применим в cisco реализации, т.к. вся обработка уходит на процессор.