URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID1
Нить номер: 81154
[ Назад ]

Исходное сообщение
"Помогите разрулить маршрутизацию"

Отправлено plintus , 14-Июл-08 10:31 
Имеется серверный сегмент:
схема на рис. http://www.radiobazar.od.ua/images/temp/net.jpg

VPN сервер выполнен на MPD + ng_nat

задача:
Возможно ли как-то пробросить маршрут на FTP таким образом,  чтоб пакеты идущие на ФТП проходили вне ВПН туннеля.
может ли mpd передавать клиенту какимто образом роуты в момент подключения к впн.


Содержание

Сообщения в этом обсуждении
"Помогите разрулить маршрутизацию"
Отправлено KobaLTD , 14-Июл-08 11:18 
>Имеется серверный сегмент:
>схема на рис. http://www.radiobazar.od.ua/images/temp/net.jpg
>
>VPN сервер выполнен на MPD + ng_nat
>
>задача:
>Возможно ли как-то пробросить маршрут на FTP таким образом,  чтоб пакеты
>идущие на ФТП проходили вне ВПН туннеля.
>может ли mpd передавать клиенту какимто образом роуты в момент подключения к
>впн.

Теоретическ4и можно все - я вот реально не хватате инфы
кактинка кортинкой, а гонфиги конфигами и принципы построения сети тоже не понятны
1) Зачем VPN - какова его роль.
2) непонятно в каких подсетях работате VPN сервер и с кем он создает тунели
3) Непонятно что за такой свич (и если он вумный) то какие на нем настройки
4) Непонятна в принцепе структура при которой user to inet проходит 3 роутера?
опешите структуру и принцепы работы. А на основе имеющейся информации - если VPN и роутера до свича и свич вам подконтрольны то можно.


"Помогите разрулить маршрутизацию"
Отправлено plintus , 14-Июл-08 13:23 
>[оверквотинг удален]
>>задача:
>>Возможно ли как-то пробросить маршрут на FTP таким образом,  чтоб пакеты
>>идущие на ФТП проходили вне ВПН туннеля.
>>может ли mpd передавать клиенту какимто образом роуты в момент подключения к
>>впн.
>
>Теоретическ4и можно все - я вот реально не хватате инфы
>кактинка кортинкой, а гонфиги конфигами и принципы построения сети тоже не понятны
>
>1) Зачем VPN - какова его роль.

пользователи с помощью ВПН получают достут в Интернет.

>2) непонятно в каких подсетях работате VPN сервер и с кем он
>создает тунели

работает во всех подсерях
к примеру:
есть 30 домов, каждый дом своя подсеть


>3) Непонятно что за такой свич (и если он вумный) то какие
>на нем настройки

свич умный,
часть свича думает над задачами которые к данному вопросу не касается
вторая часть свича работает в указанной схеме пока как простой коммутатор

>4) Непонятна в принцепе структура при которой user to inet проходит 3
>роутера?

1- роутер локальный (гейт для всех подсетей)
2- Впн он же маскарад
3- ФТП
4- гейт смотрит в сторону провайдера

>опешите структуру и принцепы работы. А на основе имеющейся информации - если
>VPN и роутера до свича и свич вам подконтрольны то можно.
>

всё оборудование мне подконтрольно


"Помогите разрулить маршрутизацию"
Отправлено universite , 15-Июл-08 04:09 

>всё оборудование мне подконтрольно

Покажи
uname -a
pkg_info | grep  mpd
ngctl list


"Помогите разрулить маршрутизацию"
Отправлено plintus , 15-Июл-08 09:30 
>
>>всё оборудование мне подконтрольно
>
>Покажи
>uname -a

6.2-RELEASE

>pkg_info | grep  mpd

mpd-3.18_4          Multi-link PPP daemon based on netgraph(4)
mpd-4.4.1           Multi-link PPP daemon based on netgraph(4)
mpd-5.1             Multi-link PPP daemon based on netgraph(4)

работает mpd-4.4.1
mpd-3.18_4 - грузит по страшному камень
mpd-5.1 - под нагрузкой отваливается

>ngctl list

ngctl: recv msg: No buffer space available


"Помогите разрулить маршрутизацию"
Отправлено universite , 15-Июл-08 15:59 
>>
>>>всё оборудование мне подконтрольно
>>
>>Покажи
>>uname -a
>
>6.2-RELEASE

рекомендую перейти на 7-ку или даже на 8-ку.

>
>>pkg_info | grep  mpd
>
>mpd-3.18_4          Multi-link PPP
>daemon based on netgraph(4)
>mpd-4.4.1           Multi-link
>PPP daemon based on netgraph(4)
>mpd-5.1            
> Multi-link PPP daemon based on netgraph(4)
>

это тебе не Линукс.
Придется в системе оставить одну версию mpd

>работает mpd-4.4.1
>mpd-3.18_4 - грузит по страшному камень
>mpd-5.1 - под нагрузкой отваливается
>>ngctl list
>
>ngctl: recv msg: No buffer space available

У тебя netgraph не пашет.
покажи netstat -m , top -S 5 и sysctl -a | grep buf
укажи железо - проц, память.


"Помогите разрулить маршрутизацию"
Отправлено plintus , 15-Июл-08 17:34 
>У тебя netgraph не пашет.
>покажи netstat -m

2544/10266/12810 mbufs in use (current/cache/total)
2360/3534/5894/25600 mbuf clusters in use (current/cache/total/max)
2360/3528 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
5876K/9634K/15511K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
0 calls to protocol drain routines


>top -S 5

last pid: 37046;  load averages:  0.00,  0.01,  0.00   up 15+00:57:47  16:33:18
71 processes:  2 running, 50 sleeping, 19 waiting
CPU states:  1.1% user,  0.0% nice,  0.4% system,  5.6% interrupt, 92.9% idle
Mem: 32M Active, 286M Inact, 178M Wired, 24K Cache, 112M Buf, 1505M Free
Swap: 998M Total, 998M Free

  PID USERNAME   THR PRI NICE   SIZE    RES STATE    TIME   WCPU COMMAND
   10 root         1 171   52     0K     8K RUN    270.8H 93.55% idle
   12 root         1 -32 -151     0K     8K WAIT    38.2H  1.46% swi4: clock
   11 root         1 -44 -163     0K     8K WAIT    48.8H  0.10% swi1: net
41565 root         3  20    0  8468K  6608K kserel  84:50  0.00% mpd4
   14 root         1 -16    0     0K     8K -       48:06  0.00% yarrow


>sysctl -a | grep buf

kern.ipc.maxsockbuf: 262144
kern.ipc.sockbuf_waste_factor: 8
kern.ipc.nsfbufsused: 0
kern.ipc.nsfbufspeak: 4
kern.ipc.nsfbufs: 6656
cluster_save buffer     0     0K       -      402  32,64
   BIO buffer     0     0K       -      119  2048
     mbuf_tag  1948   487K       -7381499446  32,64,256
         sbuf     0     0K       -    29006  16,32,64,128,256,512,1024,2048,4096
       devbuf  2332  6810K       -     4681  16,32,64,128,256,512,1024,2048,4096
kern.msgbuf_clear: 0
kern.msgbuf: eject TCP 192.168.1.76:4444 85.238.124.128:11288 in via ng100
kern.consmsgbuf_size: 8192
mbuf_jumbo_1:  16384,        0,      0,      0,        0
mbuf_jumbo_9:   9216,        0,      0,      0,        0
mbuf_jumbo_p:   4096,        0,      0,      0,        0
mbuf_cluster:   2048,    25600,   5888,      6,     5888
mbuf:            256,        0,   6091,   6719, 16152600265
mbuf_packet:     256,        0,   9179,   3631, 10307200375
vfs.nfs.bufpackets: 4
vfs.getnewbufrestarts: 0
vfs.getnewbufcalls: 1068488
vfs.hifreebuffers: 812
vfs.lofreebuffers: 406
vfs.numfreebuffers: 7222
vfs.dirtybufthresh: 1643
vfs.hidirtybuffers: 1826
vfs.lodirtybuffers: 913
vfs.numdirtybuffers: 2
vfs.altbufferflushes: 0
vfs.dirtybufferflushes: 0
vfs.bufdefragcnt: 0
vfs.buffreekvacnt: 0
vfs.bufreusecnt: 7180
vfs.hibufspace: 117702656
vfs.lobufspace: 117637120
vfs.maxmallocbufspace: 5885132
vfs.bufmallocspace: 0
vfs.maxbufspace: 118358016
vfs.bufspace: 117637120
vfs.runningbufspace: 0
vfs.reassignbufcalls: 652972
net.bpf.maxbufsize: 524288
net.bpf.bufsize: 4096
debug.sizeof.buf: 328
security.bsd.unprivileged_read_msgbuf: 1

>укажи железо - проц, память.

dual core 2000 на ядро
2Гб ддр2


"Помогите разрулить маршрутизацию"
Отправлено plintus , 16-Июл-08 20:02 
И всё таки, как после авторизации VPN передать клиенту маршрут на определённый IP не через тунель VPN?

"Помогите разрулить маршрутизацию"
Отправлено universite , 18-Июл-08 01:32 
>И всё таки, как после авторизации VPN передать клиенту маршрут на определённый
>IP не через тунель VPN?

Глаттону я в свое время говорил: "Надо покупать грамотных специалистов, а не заниматься все самим".

P.S.
Переходите на PPPoE и не играйтесь с VPN'ами.


"Помогите разрулить маршрутизацию"
Отправлено Alabama , 20-Авг-08 06:44 
>ngctl: recv msg: No buffer space available

Есть некоторые моменты, которые следует учесть, если ваш сервер имеет большое количество соединений. Например, можно столкнуться с ситуацией, когда при выводе комманды ngctl list будет выдававаться No buffer space available. Чтобы этого избежать следует добавить в /boot/loader.conf:

kern.ipc.nmbclusters=16384
kern.ipc.maxsockets=16384
net.graph.maxalloc=2048
kern.maxusers=512
kern.ipc.maxpipekva=32000000

в /etc/sysctl.conf:

net.graph.maxdgram=128000
net.graph.recvspace=128000