URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID1
Нить номер: 85632
[ Назад ]

Исходное сообщение
"не работает соединение mpd5 c корбиной"

Отправлено dmitriadis , 15-Июн-09 15:36 
Настроен mpd5. Интерфейс создаётся, авторизация проходит успешно, IP-адрес присвается интерфейсу, типа всё выглядит хорошо, но затем mpd5 замирает на строчке, находящейся выше маркера "-----------------------" в логе ниже. Там висит где то минуту (интернета нету, пинги через интерфейс NG0 не проходят), затем соединение рвётся, что видно после маркера "----------------------------" и происходит попытка соединиться вновь.

Куда рыть, что делать?

В ipfw всё разрешено.

<code>
[L1] LCP: state change Stopped --> Starting
[L1] LCP: LayerStart
[L1] Link: reconnection attempt 1 in 3 seconds
[L1] Link: reconnection attempt 1
[L1] L2TP: Incoming call #8620001 via control connection 0x2860f008 initiated
[L1] L2TP: Call #8620001 connected
[L1] Link: UP event
[L1] LCP: Up event
[L1] LCP: state change Starting --> Req-Sent
[L1] LCP: SendConfigReq #3
[L1]   ACFCOMP
[L1]   PROTOCOMP
[L1]   MRU 1500
[L1]   MAGICNUM d7e02bf4
[L1] LCP: SendConfigReq #4
[L1]   ACFCOMP
[L1]   PROTOCOMP
[L1]   MRU 1500
[L1]   MAGICNUM d7e02bf4
[L1] LCP: rec'd Configure Request #1 (Req-Sent)
[L1]   MRU 1460
[L1]   AUTHPROTO CHAP MD5
[L1]   MAGICNUM 487ef8a3
[L1] LCP: SendConfigAck #1
[L1]   MRU 1460
[L1]   AUTHPROTO CHAP MD5
[L1]   MAGICNUM 487ef8a3
[L1] LCP: state change Req-Sent --> Ack-Sent
[L1] LCP: rec'd Configure Ack #4 (Ack-Sent)
[L1]   ACFCOMP
[L1]   PROTOCOMP
[L1]   MRU 1500
[L1]   MAGICNUM d7e02bf4
[L1] LCP: state change Ack-Sent --> Opened
[L1] LCP: auth: peer wants CHAP, I want nothing
[L1] LCP: LayerUp
[L1] CHAP: rec'd CHALLENGE #1 len: 28
[L1]   Name: "bras248"
[L1] CHAP: Using authname "dmi*****"
[L1] CHAP: sending RESPONSE #1 len: 33
[L1] CHAP: rec'd SUCCESS #1 len: 4
[L1] LCP: authorization successful
[L1] Link: Matched action 'bundle "B1" ""'
[L1] Link: Join bundle "B1"
[B1] Bundle: Status update: up 1 link, total bandwidth 64000 bps
[B1] IPCP: Open event
[B1] IPCP: state change Initial --> Starting
[B1] IPCP: LayerStart
[B1] IPCP: Up event
[B1] IPCP: state change Starting --> Req-Sent
[B1] IPCP: SendConfigReq #1
[B1]   IPADDR 0.0.0.0
[B1] IPCP: rec'd Configure Request #1 (Req-Sent)
[B1]   IPADDR 85.21.0.248
[B1]     85.21.0.248 is OK
[B1] IPCP: SendConfigAck #1
[B1]   IPADDR 85.21.0.248
[B1] IPCP: state change Req-Sent --> Ack-Sent
[B1] IPCP: rec'd Configure Nak #1 (Ack-Sent)
[B1]   IPADDR 95.24.173.212
[B1]     95.24.173.212 is OK
[B1] IPCP: SendConfigReq #2
[B1]   IPADDR 95.24.173.212
[B1] IPCP: rec'd Configure Ack #2 (Ack-Sent)
[B1]   IPADDR 95.24.173.212
[B1] IPCP: state change Ack-Sent --> Opened
[B1] IPCP: LayerUp
[B1]   95.24.173.212 -> 85.21.0.248
[B1] IFACE: Up event
----------------------------------------------------------------------
[L1] LCP: rec'd Terminate Request #2 (Opened)
[L1] LCP: state change Opened --> Stopping
[L1] Link: Leave bundle "B1"
[B1] Bundle: Status update: up 0 links, total bandwidth 9600 bps
[B1] IPCP: Close event
[B1] IPCP: state change Opened --> Closing
[B1] IPCP: SendTerminateReq #3
[B1] IPCP: LayerDown
[B1] IFACE: Down event
[B1] IPCP: Down event
[B1] IPCP: LayerFinish
[B1] Bundle: No NCPs left. Closing links...
[B1] IPCP: state change Closing --> Initial
[L1] LCP: SendTerminateAck #5
[L1] LCP: LayerDown
[L1] L2TP: call #8620001 terminated: result=2 error=6 errmsg="Locally generated disconnect"
[L1] Link: DOWN event
[L1] LCP: Down event
</code>


Содержание

Сообщения в этом обсуждении
"не работает соединение mpd5 c корбиной"
Отправлено Fagor , 16-Июн-09 17:01 
>[оверквотинг удален]
>[B1] IPCP: Down event
>[B1] IPCP: LayerFinish
>[B1] Bundle: No NCPs left. Closing links...
>[B1] IPCP: state change Closing --> Initial
>[L1] LCP: SendTerminateAck #5
>[L1] LCP: LayerDown
>[L1] L2TP: call #8620001 terminated: result=2 error=6 errmsg="Locally generated disconnect"
>[L1] Link: DOWN event
>[L1] LCP: Down event
></code>

Покажи конфиг, все проще будет ориентироваться чем столько букАВАК читать


"не работает соединение mpd5 c корбиной"
Отправлено dmitriadis , 21-Июн-09 16:18 
конфиг

l2tp_client:
    create bundle static B1
    set iface route default
    set ipcp ranges 0.0.0.0/0 0.0.0.0/0
    set iface mtu 1460
    set iface idle 0
    set iface enable tcpmssfix
    #set iface up-script /usr/local/etc/mpd5/io-up-l2tp.sh
    #set iface down-script /usr/local/etc/mpd5/mpd4/io-down-l2tp.sh
    #set bundle disable multilink
    set bundle disable crypt-reqd
    #set bundle disable noretry 1460
    set ipcp no vjcomp
    create link static L1 l2tp
    set link action bundle B1
    set l2tp peer tp.corbina.net
    set auth authname "******"
    set auth password "*********"
    set link keep-alive 60 180
    set link no pap
    set link disable chap
    set link accept chap
    set link mtu 1460
    set link max-redial 0
    set link enable originate
    set link disable incoming
    open


"не работает соединение mpd5 c корбиной"
Отправлено PZrk , 09-Июл-09 23:43 
ОФФ: Тоже с корбиной страдаешь? гыыыы
На форуме корбины в общем этот вопрос поднимался.
Причина, главным образом в том, что у них раздача подглючений по китайского производства, в смысле через Китай идёт:
1. Сначала выдаётся адрес в локальной сети вида 10.хы.хы.хы - "серый".
2. Шлюз по умолчанию выдаётся в эту же сеть, что логично, типа 10.хы.хы.1.
3. Сервер ВПН ищется через это же соединени, но он уже БЕЛЫЙ, типа, например 85.хы.хы.хы, что тоже пока логично.
4. После этого устанавливается соединение по ВПН, и ПРОПИСЫВАЕТСЯ НОВЫЙ МАРШРУТ ПО УМОЛЧАНИЮ уже через интерфейс ng0, а старый шлюз 10.хы.хы.1, теперь обслуживает только сеть 10.хы.хы.хы.
При этом Выньда помнит старый короткий маршрут на ВПН сервер через 10.хы.хы.1. У Фрии то ли происходит очистка таблицы маршрутизации при задании нового маршрута, то ли она всегда переключается на новый маршрут по умолчанию, но ВПН сервер уже пытается обнаруживаться через собственный тоннель, потому соединение и рвётся.

"не работает соединение mpd5 c корбиной"
Отправлено PZrk , 09-Июл-09 23:46 
Додумались же шлюзы запрашиваемые из внутренней сети, для выхода во внешнюю расположить во внешней сети!

"не работает соединение mpd5 c корбиной"
Отправлено Дмитрий , 29-Фев-12 15:46 
> Додумались же шлюзы запрашиваемые из внутренней сети, для выхода во внешнюю расположить
> во внешней сети!

А возможное решение данной проблемы ?


"не работает соединение mpd5 c корбиной"
Отправлено DZ , 01-Июн-12 17:04 
>> Додумались же шлюзы запрашиваемые из внутренней сети, для выхода во внешнюю расположить
>> во внешней сети!
> А возможное решение данной проблемы ?

default:
        load Corbina_L2TP
Corbina_L2TP:
        create bundle static L2TP
        set bundle disable compression
        set bundle disable round-robin
        set bundle disable encryption
        set bundle disable crypt-reqd
        set bundle disable bw-manage
        set bundle disable ipv6cp
        set bundle enable ipcp
        set ipcp no vjcomp
#       set ipcp dns 195.58.1.172 195.58.1.173
        set iface enable nat
        set iface mtu 1460
        set iface idle 0
        set iface enable tcpmssfix
        set iface up-script /usr/local/etc/mpd5/ng0-up.sh
        set iface down-script /usr/local/etc/mpd5/ng0-down.sh
        create link static L2 l2tp
        set link action bundle L2TP
        set link latency 0
        set link max-redial 0
        set link redial-delay 0
        set link disable incoming acfcomp protocomp magicnum check-magic sh
        set link deny chap-msv2 chap-msv1 pap eap acfcomp protocomp shortse
#       set link accept chap
        set link accept chap-md5
        set link keep-alive 30 75
        set l2tp peer tp.internet.beeline.ru
        set auth authname "###########"
        set auth password "###########"
        open

Gateway# cat /usr/local/etc/mpd5/ng0-up.sh
#!/bin/sh
# Set gateway
gw=`netstat -rn | awk '$1=="default"{print $2}'`
route delete $4
route add $4 $gw
route delete default
route add -host 172.18.48.160 10.201.40.1
route add default $4
echo $4  > /tmp/mpd_dr
echo $gw > /tmp/mpd_gw

Gateway# cat /usr/local/etc/mpd5/ng0-down.sh
#!/bin/sh
dr=`cat /tmp/mpd_dr`
gw=`cat /tmp/mpd_gw`
route delete $dr
route delete default
route add default $gw
rm -f /tmp/mpd_dr
rm -f /tmp/mpd_gw

но иногда не подключаеться сразу