URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID1
Нить номер: 93604
[ Назад ]

Исходное сообщение
"ceph client configuration"

Отправлено fgh , 26-Июл-12 16:16 
привет

кто-то сталкивался с ceph уже?

я построил кластер из 3х серверах.

в документации написано, что клиент подключается к одному из мониторов.

вопрос:

если монитор, к которому подключен клиент внезапно умирает, то клиент теряет связь с хранилищем?
или как-то можно указать на клиенте список мониторов, чтобы клиент понимал, что монитор недоступен и нужно подключится к следующему монитору в кластере?


Содержание

Сообщения в этом обсуждении
"ceph client configuration"
Отправлено fgh , 26-Июл-12 16:27 
> привет
> кто-то сталкивался с ceph уже?
> я построил кластер из 3х серверах.
> в документации написано, что клиент подключается к одному из мониторов.
> вопрос:
>  если монитор, к которому подключен клиент внезапно умирает, то клиент теряет
> связь с хранилищем?
> или как-то можно указать на клиенте список мониторов, чтобы клиент понимал, что
> монитор недоступен и нужно подключится к следующему монитору в кластере?

собственно проверил на практике.
вырубил монитор, на котором висел клиент -- клиент тут же потерял раздел и высыпал на консоль:

[89745.962972] libceph: mon0 10.40.105.143:6789 socket closed
[89745.963158] libceph: mon0 10.40.105.143:6789 session lost, hunting for new mon
[89745.965281] libceph: mon1 10.40.105.126:6789 session established
[89747.073258] libceph: mds0 10.40.105.143:6800 socket closed
[89747.614249] libceph: mds0 10.40.105.143:6800 connection failed
[89748.525196] libceph: mds0 10.40.105.143:6800 connection failed
[89749.523544] libceph: mds0 10.40.105.143:6800 connection failed
[89751.520218] libceph: mds0 10.40.105.143:6800 connection failed
[89798.451719] ceph: mds0 caps stale
[89813.426708] ceph: mds0 caps stale
[89818.608094] libceph: mds0 10.40.105.143:6800 connection failed
[89829.410138] libceph: mds0 10.40.105.143:6800 connection failed


"ceph client configuration"
Отправлено gred , 26-Июл-12 16:29 
>[оверквотинг удален]
> [89745.965281] libceph: mon1 10.40.105.126:6789 session established
> [89747.073258] libceph: mds0 10.40.105.143:6800 socket closed
> [89747.614249] libceph: mds0 10.40.105.143:6800 connection failed
> [89748.525196] libceph: mds0 10.40.105.143:6800 connection failed
> [89749.523544] libceph: mds0 10.40.105.143:6800 connection failed
> [89751.520218] libceph: mds0 10.40.105.143:6800 connection failed
> [89798.451719] ceph: mds0 caps stale
> [89813.426708] ceph: mds0 caps stale
> [89818.608094] libceph: mds0 10.40.105.143:6800 connection failed
> [89829.410138] libceph: mds0 10.40.105.143:6800 connection failed

ну, тогда, наверное, использование CARP/VRRP спасет смертельно раненного кота.


"ceph client configuration"
Отправлено fgh , 26-Июл-12 16:33 
>[оверквотинг удален]
>> [89747.073258] libceph: mds0 10.40.105.143:6800 socket closed
>> [89747.614249] libceph: mds0 10.40.105.143:6800 connection failed
>> [89748.525196] libceph: mds0 10.40.105.143:6800 connection failed
>> [89749.523544] libceph: mds0 10.40.105.143:6800 connection failed
>> [89751.520218] libceph: mds0 10.40.105.143:6800 connection failed
>> [89798.451719] ceph: mds0 caps stale
>> [89813.426708] ceph: mds0 caps stale
>> [89818.608094] libceph: mds0 10.40.105.143:6800 connection failed
>> [89829.410138] libceph: mds0 10.40.105.143:6800 connection failed
> ну, тогда, наверное, использование CARP/VRRP спасет смертельно раненного кота.

хм, сам же себе и отвечаю, в логи одним местом смотрел :)

похоже клиент всё-таки понимает что есть еще сервара в кластере :

[89745.962972] libceph: mon0 10.40.105.143:6789 socket closed
[89745.963158] libceph: mon0 10.40.105.143:6789 session lost, hunting for new mon
[89745.965281] libceph: mon1 10.40.105.126:6789 session established

и пытается к ним подключится.
только почему-то не получилось подключится :(
бум копать