Имеется серверный сегмент:
схема на рис. http://www.radiobazar.od.ua/images/temp/net.jpgVPN сервер выполнен на MPD + ng_nat
задача:
Возможно ли как-то пробросить маршрут на FTP таким образом, чтоб пакеты идущие на ФТП проходили вне ВПН туннеля.
может ли mpd передавать клиенту какимто образом роуты в момент подключения к впн.
>Имеется серверный сегмент:
>схема на рис. http://www.radiobazar.od.ua/images/temp/net.jpg
>
>VPN сервер выполнен на MPD + ng_nat
>
>задача:
>Возможно ли как-то пробросить маршрут на FTP таким образом, чтоб пакеты
>идущие на ФТП проходили вне ВПН туннеля.
>может ли mpd передавать клиенту какимто образом роуты в момент подключения к
>впн.Теоретическ4и можно все - я вот реально не хватате инфы
кактинка кортинкой, а гонфиги конфигами и принципы построения сети тоже не понятны
1) Зачем VPN - какова его роль.
2) непонятно в каких подсетях работате VPN сервер и с кем он создает тунели
3) Непонятно что за такой свич (и если он вумный) то какие на нем настройки
4) Непонятна в принцепе структура при которой user to inet проходит 3 роутера?
опешите структуру и принцепы работы. А на основе имеющейся информации - если VPN и роутера до свича и свич вам подконтрольны то можно.
>[оверквотинг удален]
>>задача:
>>Возможно ли как-то пробросить маршрут на FTP таким образом, чтоб пакеты
>>идущие на ФТП проходили вне ВПН туннеля.
>>может ли mpd передавать клиенту какимто образом роуты в момент подключения к
>>впн.
>
>Теоретическ4и можно все - я вот реально не хватате инфы
>кактинка кортинкой, а гонфиги конфигами и принципы построения сети тоже не понятны
>
>1) Зачем VPN - какова его роль.пользователи с помощью ВПН получают достут в Интернет.
>2) непонятно в каких подсетях работате VPN сервер и с кем он
>создает тунелиработает во всех подсерях
к примеру:
есть 30 домов, каждый дом своя подсеть
>3) Непонятно что за такой свич (и если он вумный) то какие
>на нем настройкисвич умный,
часть свича думает над задачами которые к данному вопросу не касается
вторая часть свича работает в указанной схеме пока как простой коммутатор>4) Непонятна в принцепе структура при которой user to inet проходит 3
>роутера?1- роутер локальный (гейт для всех подсетей)
2- Впн он же маскарад
3- ФТП
4- гейт смотрит в сторону провайдера>опешите структуру и принцепы работы. А на основе имеющейся информации - если
>VPN и роутера до свича и свич вам подконтрольны то можно.
>всё оборудование мне подконтрольно
>всё оборудование мне подконтрольноПокажи
uname -a
pkg_info | grep mpd
ngctl list
>
>>всё оборудование мне подконтрольно
>
>Покажи
>uname -a6.2-RELEASE
>pkg_info | grep mpd
mpd-3.18_4 Multi-link PPP daemon based on netgraph(4)
mpd-4.4.1 Multi-link PPP daemon based on netgraph(4)
mpd-5.1 Multi-link PPP daemon based on netgraph(4)работает mpd-4.4.1
mpd-3.18_4 - грузит по страшному камень
mpd-5.1 - под нагрузкой отваливается
>ngctl listngctl: recv msg: No buffer space available
>>
>>>всё оборудование мне подконтрольно
>>
>>Покажи
>>uname -a
>
>6.2-RELEASEрекомендую перейти на 7-ку или даже на 8-ку.
>
>>pkg_info | grep mpd
>
>mpd-3.18_4 Multi-link PPP
>daemon based on netgraph(4)
>mpd-4.4.1 Multi-link
>PPP daemon based on netgraph(4)
>mpd-5.1
> Multi-link PPP daemon based on netgraph(4)
>это тебе не Линукс.
Придется в системе оставить одну версию mpd>работает mpd-4.4.1
>mpd-3.18_4 - грузит по страшному камень
>mpd-5.1 - под нагрузкой отваливается
>>ngctl list
>
>ngctl: recv msg: No buffer space availableУ тебя netgraph не пашет.
покажи netstat -m , top -S 5 и sysctl -a | grep buf
укажи железо - проц, память.
>У тебя netgraph не пашет.
>покажи netstat -m2544/10266/12810 mbufs in use (current/cache/total)
2360/3534/5894/25600 mbuf clusters in use (current/cache/total/max)
2360/3528 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
5876K/9634K/15511K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
0 calls to protocol drain routines
>top -S 5last pid: 37046; load averages: 0.00, 0.01, 0.00 up 15+00:57:47 16:33:18
71 processes: 2 running, 50 sleeping, 19 waiting
CPU states: 1.1% user, 0.0% nice, 0.4% system, 5.6% interrupt, 92.9% idle
Mem: 32M Active, 286M Inact, 178M Wired, 24K Cache, 112M Buf, 1505M Free
Swap: 998M Total, 998M FreePID USERNAME THR PRI NICE SIZE RES STATE TIME WCPU COMMAND
10 root 1 171 52 0K 8K RUN 270.8H 93.55% idle
12 root 1 -32 -151 0K 8K WAIT 38.2H 1.46% swi4: clock
11 root 1 -44 -163 0K 8K WAIT 48.8H 0.10% swi1: net
41565 root 3 20 0 8468K 6608K kserel 84:50 0.00% mpd4
14 root 1 -16 0 0K 8K - 48:06 0.00% yarrow
>sysctl -a | grep bufkern.ipc.maxsockbuf: 262144
kern.ipc.sockbuf_waste_factor: 8
kern.ipc.nsfbufsused: 0
kern.ipc.nsfbufspeak: 4
kern.ipc.nsfbufs: 6656
cluster_save buffer 0 0K - 402 32,64
BIO buffer 0 0K - 119 2048
mbuf_tag 1948 487K -7381499446 32,64,256
sbuf 0 0K - 29006 16,32,64,128,256,512,1024,2048,4096
devbuf 2332 6810K - 4681 16,32,64,128,256,512,1024,2048,4096
kern.msgbuf_clear: 0
kern.msgbuf: eject TCP 192.168.1.76:4444 85.238.124.128:11288 in via ng100
kern.consmsgbuf_size: 8192
mbuf_jumbo_1: 16384, 0, 0, 0, 0
mbuf_jumbo_9: 9216, 0, 0, 0, 0
mbuf_jumbo_p: 4096, 0, 0, 0, 0
mbuf_cluster: 2048, 25600, 5888, 6, 5888
mbuf: 256, 0, 6091, 6719, 16152600265
mbuf_packet: 256, 0, 9179, 3631, 10307200375
vfs.nfs.bufpackets: 4
vfs.getnewbufrestarts: 0
vfs.getnewbufcalls: 1068488
vfs.hifreebuffers: 812
vfs.lofreebuffers: 406
vfs.numfreebuffers: 7222
vfs.dirtybufthresh: 1643
vfs.hidirtybuffers: 1826
vfs.lodirtybuffers: 913
vfs.numdirtybuffers: 2
vfs.altbufferflushes: 0
vfs.dirtybufferflushes: 0
vfs.bufdefragcnt: 0
vfs.buffreekvacnt: 0
vfs.bufreusecnt: 7180
vfs.hibufspace: 117702656
vfs.lobufspace: 117637120
vfs.maxmallocbufspace: 5885132
vfs.bufmallocspace: 0
vfs.maxbufspace: 118358016
vfs.bufspace: 117637120
vfs.runningbufspace: 0
vfs.reassignbufcalls: 652972
net.bpf.maxbufsize: 524288
net.bpf.bufsize: 4096
debug.sizeof.buf: 328
security.bsd.unprivileged_read_msgbuf: 1>укажи железо - проц, память.
dual core 2000 на ядро
2Гб ддр2
И всё таки, как после авторизации VPN передать клиенту маршрут на определённый IP не через тунель VPN?
>И всё таки, как после авторизации VPN передать клиенту маршрут на определённый
>IP не через тунель VPN?Глаттону я в свое время говорил: "Надо покупать грамотных специалистов, а не заниматься все самим".
P.S.
Переходите на PPPoE и не играйтесь с VPN'ами.
>ngctl: recv msg: No buffer space availableЕсть некоторые моменты, которые следует учесть, если ваш сервер имеет большое количество соединений. Например, можно столкнуться с ситуацией, когда при выводе комманды ngctl list будет выдававаться No buffer space available. Чтобы этого избежать следует добавить в /boot/loader.conf:
kern.ipc.nmbclusters=16384
kern.ipc.maxsockets=16384
net.graph.maxalloc=2048
kern.maxusers=512
kern.ipc.maxpipekva=32000000в /etc/sysctl.conf:
net.graph.maxdgram=128000
net.graph.recvspace=128000