ДОбрый день!вопрос к знатокам pacemaker, corosync.
Есть: CentOS 5, x86_64, подключены rpmforge, epel, pacemaker
установлены пакеты:
pacemaker-1.0.12-1.el5
corosync-1.2.7-1.1.el5на двух серверах делаю простую конфигурацию, позволяющая перекидывать общий ip адрес:
# crm configure show
node server1
node server2
primitive TC2IP ocf:heartbeat:IPaddr2 \
params ip="192.168.10.10" cidr_netmask="32" \
op monitor interval="10s"
property $id="cib-bootstrap-options" \
dc-version="1.0.12-unknown" \
cluster-infrastructure="openais" \
expected-quorum-votes="2" \
no-quorum-policy="ignore" \
stonith-enabled="false"Если взять и перезагрузить один из серверов то видим следующую картину:
На сервере который остался:
============
Last updated: Thu Jun 28 20:01:58 2012
Stack: openais
Current DC: server1 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============Online: [ server1 ]
OFFLINE: [ server2 ]TC2IP (ocf::heartbeat:IPaddr2): Started server1
Загружается второй сервер, заходим на него, запускаем crm_mon и видим "зеркальную" картину============
Last updated: Thu Jun 28 20:03:27 2012
Stack: openais
Current DC: server2 - partition WITHOUT quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
1 Resources configured.
============Online: [ server2 ]
OFFLINE: [ server1 ]TC2IP (ocf::heartbeat:IPaddr2): Started server2
при этом ip адрес 192.168.10.10 цепляется на интерфейсе на обоих серверах.
Где-то через 20 секунд, на втором сервере всё прочухивается и он убирает адрес с интерфейса и видит, что он закреплён на server1.Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из официального родного репозитория) и никогда с такой проблемой не сталкивался, всё работало как надо.
Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?
> при этом ip адрес 192.168.10.10 цепляется на интерфейсе на обоих серверах.
> Где-то через 20 секунд, на втором сервере всё прочухивается и он убирает
> адрес с интерфейса и видит, что он закреплён на server1.
> Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из
> официального родного репозитория) и никогда с такой проблемой не сталкивался, всё
> работало как надо.
> Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?сюда по логам проблема с задержке отработки arping
странно...
>> при этом ip адрес 192.168.10.10 цепляется на интерфейсе на обоих серверах.
>> Где-то через 20 секунд, на втором сервере всё прочухивается и он убирает
>> адрес с интерфейса и видит, что он закреплён на server1.
>> Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из
>> официального родного репозитория) и никогда с такой проблемой не сталкивался, всё
>> работало как надо.
>> Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?
> сюда по логам проблема с задержке отработки arping
> странно...разобрался сам.
оказалось проблема в libnet.
просто нужно было доустновить yum install libnet
>[оверквотинг удален]
>>> адрес с интерфейса и видит, что он закреплён на server1.
>>> Что характерно, я поднимал pacemaker 1.1 на centos6 (он там ставится из
>>> официального родного репозитория) и никогда с такой проблемой не сталкивался, всё
>>> работало как надо.
>>> Может быть дело в версии pacemaker и стоит поискать 1.1 для centos5?
>> сюда по логам проблема с задержке отработки arping
>> странно...
> разобрался сам.
> оказалось проблема в libnet.
> просто нужно было доустновить yum install libnetблин, вот нефига.
Забыл упомянуть, что все эти сервера виртуальные на xen.
И походу косяк всё же в xen, потому что когда машины находятся на одном хосте - всё нормально. А когда виртуалки мигрируют на разные хосты - то возникают траблы.
Замечено, что наличие или отсутствие openvswitch не влияет
для разруливания splitbrain на двух хостах разве не нужен третий арбитр?
> на двух серверах делаю простую конфигурацию, позволяющая перекидывать общий ip адрес:Если задача только в IP-адресе, то не проще ли использовать VRRP (keepalived)?
Добрый день! Удалось ли решить вы эту проблему?
В данный момент безуспешно борюсь с тем же самым багом.