Здравствуйте!
Есть два одинаковых сервера, на них стоит ОС Centos-5.5, ядро - 2.6.18-194.11.1.el5xen
На данных серверах нужны следующие сервисы: самба и фаирфокс.
Один сервер - первичный, второй - вторичный.
Решил использовать связку drbd+heartbeat.На каждом сервере по три сетевые карты:
eth0 192.168.100.1-2/24 использую для мониторинга, что сервера живы
eth1 192.168.9.0.24 - клиенты на этой сети
eth2 192.168.1.0.24 - другие клиентыКонфиг drbd.conf
resource r0 {
protocol C;
startup {
wfc-timeout 60;
degr-wfc-timeout 60;
}
net {
after-sb-0pri discard-younger-primary;
after-sb-1pri consensus;
rr-conflict disconnect;
}
disk {
on-io-error detach;
}
syncer {
rate 100M;
al-extents 257;
}
on srvprod1 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.9.195:7789;
meta-disk internal;
}on srvprod2 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.9.161:7789;
meta-disk internal;
}
}Конфиг ha.cf
debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local7
keepalive 1
deadtime 30
warntime 10
initdead 60
#udpport 694
#baud 19200
#serial /dev/ttyS0 # Linux
bcast eth0 eth1 # Linux
#mcast eth0 225.0.0.1 694 1 0
#ucast eth0 192.168.1.2
auto_failback on
#stonith baytech /etc/ha.d/conf/stonith.baytech
#stonith_host * baytech 10.0.0.3 mylogin mysecretpassword
#stonith_host ken3 rps10 /dev/ttyS1 kathy 0
#stonith_host kathy rps10 /dev/ttyS1 ken3 0
#watchdog /dev/watchdog
node srvprod1
node srvprod2
ping 192.168.9.249
#ping_group group1 10.10.10.254 10.10.10.253
#hbaping fc-card-name
#respawn userid /path/name/to/run
respawn hacluster /usr/lib64/heartbeat/ipfail
#apiauth client-name gid=gidlist uid=uidlist
apiauth ipfail gid=haclient uid=haclusterКонфиг haresources
srvprod1 192.168.9.252/24/eth1
srvprod1 192.168.1.250/24/eth2
srvprod1 Filesystem::/dev/drbd0::/mnt/drbd::ext3 smb xinetdservice drbd status
drbd driver loaded OK; device status:
version: 8.3.8 (api:88/proto:86-94)
GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by mockbuild@builder10.centos.org, 2010-06-04 08:04:27
m:res cs ro ds p mounted fstype
0:r0 Connected Primary/Secondary UpToDate/UpToDate C /mnt/drbd ext3Когда я пытаюсь перегрузить компьютер со статусом secondary, первый мастер есть так и остался, но когда мастер перегружаю, то начинается интересное.
То drbd становится Secondary/Secondary то Primary/Unknown
И соответсвенно, самба из-за этого не запускается.
У меня подозрение, что я не правильно drbd настроил. Помогите пожалуйста разобраться из-за чего heartbeat не может мигрировать сервисы или переключать сервера?
Ткните носом где я неправильно настроил, а то уже запутался в настройках.
А ты сделай конфигурацию в режиме primary-primary
global {
usage-count yes;
}common {
syncer {
rate 100M;
al-extents 257;
}
}resource r0 {
protocol C;
startup {
become-primary-on both; ### For Primary/Primary ###
degr-wfc-timeout 60;
wfc-timeout 30;
}disk {
on-io-error detach;
}net {
allow-two-primaries; ### For Primary/Primary ###
cram-hmac-alg sha1;
shared-secret "FooFunFactory";
after-sb-0pri discard-zero-changes;
after-sb-1pri violently-as0p;
after-sb-2pri violently-as0p;
}on osc-1 {
device /dev/drbd0;
disk /dev/sda3;
address 10.60.11.103:7788;
meta-disk internal;
}on osc-2 {
device /dev/drbd0;
disk /dev/sda3;
address 10.60.11.104:7788;
meta-disk internal;
}
}
А ты сделай в режиме primary-primary, правда потребуется оcfs2 или gfs2
global {
usage-count yes;
}common {
syncer {
rate 100M;
al-extents 257;
}
}resource r0 {
protocol C;
startup {
become-primary-on both; ### For Primary/Primary ###
degr-wfc-timeout 60;
wfc-timeout 30;
}disk {
on-io-error detach;
}net {
allow-two-primaries; ### For Primary/Primary ###
cram-hmac-alg sha1;
shared-secret "FooFunFactory";
after-sb-0pri discard-zero-changes;
after-sb-1pri violently-as0p;
after-sb-2pri violently-as0p;
}on osc-1 {
device /dev/drbd0;
disk /dev/sda3;
address 10.60.11.103:7788;
meta-disk internal;
}on osc-2 {
device /dev/drbd0;
disk /dev/sda3;
address 10.60.11.104:7788;
meta-disk internal;
}
}
>А ты сделай в режиме primary-primary, правда потребуется оcfs2 или gfs2А сервис самба переключать heartbeat-ом?
Мне же еще самба нужна.
>>А ты сделай в режиме primary-primary, правда потребуется оcfs2 или gfs2
>
>А сервис самба переключать heartbeat-ом?
>Мне же еще самба нужна.Самба - через ctdb.
firebird-classic я установил на оба сервака, а /var/lib/firebird перенес на drbd-шару и симлинком обратно в /var/lib.
В качестве кластерной ФС использую ocfs2, она раза в два быстрее работает, чем GFS.
Рекомендую все это делать на debian или ubuntu, сам делал на debian-lenny. Сейчас планирую переползти на Squeeze. Сперва ставил все это на Centos, работает не очень стабильно, кроме этого в нем есть баг - при копировании файлов большого размера, система больше ни на что не реагирует. Будут вопросы пиши, конфигами могу поделиться.
>[оверквотинг удален]
>Самба - через ctdb.
>firebird-classic я установил на оба сервака, а /var/lib/firebird перенес на drbd-шару и
>симлинком обратно в /var/lib.
>В качестве кластерной ФС использую ocfs2, она раза в два быстрее работает,
>чем GFS.
>Рекомендую все это делать на debian или ubuntu, сам делал на debian-lenny.
>Сейчас планирую переползти на Squeeze. Сперва ставил все это на Centos,
>работает не очень стабильно, кроме этого в нем есть баг -
>при копировании файлов большого размера, система больше ни на что не
>реагирует. Будут вопросы пиши, конфигами могу поделиться.С Centos я уже натрахался :(
Вообще запустить не могу. Пробую ocfs2 запустить, она требует модуль ocfs2_dlmfs.
DRBD развалил в результате эксперимента.
Попробую дебиан установить.
Буду признателен за конфиги, может свою ошибку найду.
/etc/drbd.conf:global {
usage-count yes;
}common {
syncer {
rate 100M;
al-extents 257;
}
}resource r0 {
protocol C;
startup {
become-primary-on both; ### For Primary/Primary ###
degr-wfc-timeout 60;
wfc-timeout 30;
}disk {
on-io-error detach;
}net {
allow-two-primaries; ### For Primary/Primary ###
cram-hmac-alg sha1;
shared-secret "FooFunFactory";
after-sb-0pri discard-zero-changes;
after-sb-1pri violently-as0p;
after-sb-2pri violently-as0p;
}on node1 {
device /dev/drbd0;
disk /dev/sda3;
address 192.168.0.11:7788;
meta-disk internal;
}on node2 {
device /dev/drbd0;
disk /dev/sda3;
address 192.168.0.12:7788;
meta-disk internal;
}
}
ctdb:
/etc/default/ctdbCTDB_RECOVERY_LOCK="/data/.ctdb/storage" # на drbd-шаре надо создать каталог .ctdb
CTDB_PUBLIC_INTERFACE=eth0
CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses
CTDB_MANAGES_SAMBA=yes
CTDB_MANAGES_HTTPD=yes
#CTDB_MANAGES_WINBIND=yes
ulimit -n 10000
CTDB_NODES=/etc/ctdb/nodes
CTDB_LOGFILE=/var/log/log.ctdb
CTDB_DEBUGLEVEL=2
CTDB_PUBLIC_NETWORK="192.168.0.0/24"/etc/ctdb/nodes
192.168.0.11
192.168.0.12/etc/ctdb/public_addresses
192.168.0.10 eth0
samba:
перенес
/etc/samba
/var/lib/samba
/var/spool/samba
/home
на дрбд шару и симлинками на обе машиныконфиг smb.conf:
[global]
workgroup = CLUSTER
netbios name = CLUSTER1
#passdb backend = tdbsam
printing = cups
printcap name = cups
printcap cache time = 750
cups options = raw
map to guest = Bad User
include = /etc/samba/dhcp.conf
logon path = \\%L\profiles\.msprofile
logon home = \\%L\%U\.9xprofile
logon drive = P:
usershare allow guests = Yes
add machine script = /usr/sbin/useradd -c Machine -d /var/lib/nobody -s
/bin/false %m$
domain logons = No
domain master = Nosecurity = user
clustering = yes
idmap backend = tdb2
private dir=/data/.ctdb
fileid:mapping = fsname
use mmap = no
nt acl support = yes
ea support = yes
[homes]
comment = Home Directories
valid users = %S, %D%w%S
browseable = No
read only = No
inherit acls = Yes
[users]
comment = All users
path = /home
read only = No
inherit acls = Yes
veto files = /aquota.user/groups/shares/ocfs2:
после установки запустить dpkg-reconfigure ocfs2-tools
конфиг /etc/ocfs2/cluster.conf
node:
ip_port = 7777
ip_address = 192.168.0.11
number = 0
name = node1
cluster = ocfs2node:
ip_port = 7777
ip_address = 192.168.0.12
number = 1
name = node2
cluster = ocfs2cluster:
node_count = 2
name = ocfs2
Спасибо. Сейчас я ставлю дебиан.
Потом буду, устанавливать необходимое ПО и конфигурировать
Здравствуйте.
Вопрос у меня такой. я вбил конфиги, которые Вы мне предложили.
Сервисы запустились, монтируется, но когда клиентом под ОС (XP) я подключаюсь, мне приходится вбивать IP одного сервера., а если с ним что-то случится, то клиентов переподключать на другой адрес?Вывел на экран ifconfig
eth0 Link encap:Ethernet HWaddr 00:15:17:e9:20:a0
inet addr:192.168.9.195 Bcast:192.168.9.255 Mask:255.255.255.0
inet6 addr: fe80::215:17ff:fee9:20a0/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:54529199 errors:0 dropped:0 overruns:0 frame:0
TX packets:105250731 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:100
RX bytes:3953853340 (3.6 GiB) TX bytes:4186565987 (3.8 GiB)
Memory:b1b20000-b1b40000lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:107 errors:0 dropped:0 overruns:0 frame:0
TX packets:107 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:9166 (8.9 KiB) TX bytes:9166 (8.9 KiB)
Я так понимаю, что не поднялся у меня интерфейс который я объявил публичным. Я прав?
и не должен подниматься. Создается виртуальный адрес привязанный к определенному интерфейсу. Он описан в public_addresses.
Посмотреть это можно с помощью команды ip addr show eth0
Да, еще забыл
DRBD раздел я монтирую с помощью autofs
>Да, еще забыл
>DRBD раздел я монтирую с помощью autofs/etc/init.d/ctdb status
Checking status of Clustered TDB: ctdb running
Number of nodes:2
pnn:0 192.168.9.195 UNHEALTHY (THIS NODE)
pnn:1 192.168.9.161 UNHEALTHY
Generation:16408489
Size:2
hash:0 lmaster:0
hash:1 lmaster:1
Recovery mode:RECOVERY (1)
Recovery master:1
.
Судя по статусу похоже у меня кластер не совсем корректно работает
>[оверквотинг удален]
>pnn:0 192.168.9.195 UNHEALTHY (THIS NODE)
>pnn:1 192.168.9.161 UNHEALTHY
>Generation:16408489
>Size:2
>hash:0 lmaster:0
>hash:1 lmaster:1
>Recovery mode:RECOVERY (1)
>Recovery master:1
>.
>Судя по статусу похоже у меня кластер не совсем корректно работаетА drbd?
>А drbd?И DRBD похоже не работает. Я один узел, штатно отправил в перезагрузку.
DRBD перешел в режим Splin-brain. Сейчас кое как соединил массивы.
Посмотрю в какой статус перешли.
/etc/init.d/drbd status
drbd driver loaded OK; device status:
version: 8.0.14 (api:86/proto:86)
GIT-hash: bb447522fc9a87d0069b7e14f0234911ebdab0f7 build by phil@fat-tyre, 2008-11-12 16:40:33
m:res cs st ds p mounted fstype
0:r0 Connected Primary/Primary Diskless/UpToDate C
Вот такой статус диска
>[оверквотинг удален]
>drbd driver loaded OK; device status:
>version: 8.0.14 (api:86/proto:86)
>GIT-hash: bb447522fc9a87d0069b7e14f0234911ebdab0f7 build by phil@fat-tyre, 2008-11-12 16:40:33
>m:res cs st
>
> ds
> p
>mounted fstype
>0:r0 Connected Primary/Primary Diskless/UpToDate C
>Вот такой статус дискаТак у тебя на одной ноде drbd раздел не создан. Ты делал drbdadm create-md r0 на обеих нодах?
Кстати для работы в боевом режиме на оба компа лучше ставить две сетевухи. Метаданыые лучше хранить на отдельном разделе.
>Кстати для работы в боевом режиме на оба компа лучше ставить две
>сетевухи. Метаданыые лучше хранить на отдельном разделе.На сервере у меня три сетевые карты. Две для пользователей, а третья запасная.
Да когда создавал drbd делал drbdadm create-md.
Сейчас еще раз сделаю. Пересоздам drbd
>[оверквотинг удален]
>>version: 8.0.14 (api:86/proto:86)
>>GIT-hash: bb447522fc9a87d0069b7e14f0234911ebdab0f7 build by phil@fat-tyre, 2008-11-12 16:40:33
>>m:res cs st
>>
>> ds
>> p
>>mounted fstype
>>0:r0 Connected Primary/Primary Diskless/UpToDate C
>>Вот такой статус диска
>И такой статус появился, когда я имитировал сбой второй ноды (штатно перегрузил сервер).
После этого пошла такая пляска.
2010/08/28 22:59:13.836986 [30577]: Starting CTDB daemon
2010/08/28 22:59:13.837835 [30579]: Set scheduler to SCHED_FIFO
2010/08/28 22:59:13.838073 [30579]: server/eventscript.c:365 eventscript releaseip eth1 192.168.1.253 24 called with no timeout
2010/08/28 22:59:13.838107 [30581]: Refusing to run event scripts with option 'releaseip eth1 192.168.1.253 24' while in recovery
2010/08/28 22:59:13.838203 [30579]: server/eventscript.c:365 eventscript releaseip eth0 192.168.9.252 24 called with no timeout
2010/08/28 22:59:13.838240 [30582]: Refusing to run event scripts with option 'releaseip eth0 192.168.9.252 24' while in recovery
2010/08/28 22:59:13.838337 [30579]: Keepalive monitoring has been started
2010/08/28 22:59:13.838351 [30579]: Monitoring has been started
2010/08/28 22:59:13.838421 [30583]: monitor_cluster starting
2010/08/28 22:59:13.856325 [30583]: server/ctdb_recoverd.c:2208 Got pnn lock on '/shared/.ctdb/storage.pnn'
2010/08/28 22:59:14.860914 [30583]: server/ctdb_recoverd.c:2529 Initial recovery master set - forcing election
2010/08/28 22:59:18.546972 [30579]: server/ctdb_recover.c:841 startrecovery eventscript has been invoked
2010/08/28 22:59:18.598598 [30579]: server/ctdb_recover.c:526 Recovery mode set to NORMAL
2010/08/28 22:59:18.599079 [30607]: ctdb_recovery_lock: Got recovery lock on '/shared/.ctdb/storage'
2010/08/28 22:59:18.599115 [30607]: ERROR: recovery lock file /shared/.ctdb/storage not locked when recovering!
2010/08/28 22:59:19.373153 [30583]: server/ctdb_recoverd.c:2333 in the middle of recovery. skipping public ip address check
2010/08/28 22:59:19.606045 [30579]: server/ctdb_recover.c:841 startrecovery eventscript has been invoked
2010/08/28 22:59:19.657468 [30579]: server/ctdb_recover.c:526 Recovery mode set to NORMAL
2010/08/28 22:59:19.657583 [30620]: ctdb_recovery_lock: Got recovery lock on '/shared/.ctdb/storage'
2010/08/28 22:59:19.657612 [30620]: ERROR: recovery lock file /shared/.ctdb/storage not locked when recovering!
2010/08/28 22:59:20.377150 [30583]: server/ctdb_recoverd.c:2333 in the middle of recovery. skipping public ip address check
2010/08/28 22:59:20.662079 [30579]: server/ctdb_recover.c:841 startrecovery eventscript has been invoked
2010/08/28 22:59:20.713472 [30579]: server/ctdb_recover.c:526 Recovery mode set to NORMAL
2010/08/28 22:59:20.713582 [30633]: ctdb_recovery_lock: Got recovery lock on '/shared/.ctdb/storage'
2010/08/28 22:59:20.713610 [30633]: ERROR: recovery lock file /shared/.ctdb/storage not locked when recovering!Вот, что в логах пишет у меня.
Вы какой пакет устанавливали на Debian samba или sernet-samba?
По ошибкам которые у меня возникают, гугл говорит, что не правильно настроен ctdb.
И какая версия ctdb
Самбу и ctdb Вы собирали из исходников?
>Вы какой пакет устанавливали на Debian samba или sernet-samba?
>По ошибкам которые у меня возникают, гугл говорит, что не правильно настроен
>ctdb.
>И какая версия ctdb
>Самбу и ctdb Вы собирали из исходников?Оказывается все дело в OCFS, как оказалось у нее проблема с блокировками, хотя писали, что в версии 1.4 эту проблему решили. Пробовал создавать Recovery_lock файл на gfs и glusterfs - тогда все работает нормально
>>Вы какой пакет устанавливали на Debian samba или sernet-samba?
>>По ошибкам которые у меня возникают, гугл говорит, что не правильно настроен
>>ctdb.
>>И какая версия ctdb
>>Самбу и ctdb Вы собирали из исходников?
>
>Оказывается все дело в OCFS, как оказалось у нее проблема с блокировками,
>хотя писали, что в версии 1.4 эту проблему решили. Пробовал создавать
>Recovery_lock файл на gfs и glusterfs - тогда все работает нормально
>То есть использовать gfs или glusterfs? Их можно использовать? GFS я читал.
>>Вы какой пакет устанавливали на Debian samba или sernet-samba?
>>По ошибкам которые у меня возникают, гугл говорит, что не правильно настроен
>>ctdb.
>>И какая версия ctdb
>>Самбу и ctdb Вы собирали из исходников?
>
>Оказывается все дело в OCFS, как оказалось у нее проблема с блокировками,
>хотя писали, что в версии 1.4 эту проблему решили. Пробовал создавать
>Recovery_lock файл на gfs и glusterfs - тогда все работает нормально
>http://www.drbd.org/users-guide/s-ocfs-create-resource.html
Я попробую рекомендацию, с данного сайта
resource resource {
startup {
become-primary-on both;
...
}
net {
# allow-two-primaries;
after-sb-0pri discard-zero-changes;
after-sb-1pri discard-secondary;
after-sb-2pri disconnect;
...
}
...
}It is not recommended to enable the allow-two-primaries option upon initial configuration. You should do so after the initial resource synchronization has completed.
>[оверквотинг удален]
> after-sb-1pri discard-secondary;
> after-sb-2pri disconnect;
> ...
> }
> ...
>}
>
>It is not recommended to enable the allow-two-primaries option upon initial configuration.
>You should do so after the initial resource synchronization has completed.
>lock-файл перенести на раздел glusterfs или gfs, а остальное использовать на ocfs2.
Samba-у и ctdb Вы собирали из исходников? или менеджер пакетов использовали.
>Samba-у и ctdb Вы собирали из исходников? или менеджер пакетов использовали.использовал стандартные из apt
Понравилось как работает glusterfs. Попробую в стрессовом режиме, если будет все нормально переведу все на нее. Настройки проще и не надо огород городить с drbd
>>Samba-у и ctdb Вы собирали из исходников? или менеджер пакетов использовали.
>
>использовал стандартные из apt
>
>Понравилось как работает glusterfs. Попробую в стрессовом режиме, если будет все нормально
>переведу все на нее. Настройки проще и не надо огород городить
>с drbdУ меня почему-то стандартные не пошли, я рискнул собрать из исходников.
Очень пришлось повозиться с ctdb.Если не секрет сколько пользоввателей у Вас работают с расшаренными ресурсами?
У меня порядка 30. На сегодня.
Вы не из Красноярска?
>[оверквотинг удален]
>>Понравилось как работает glusterfs. Попробую в стрессовом режиме, если будет все нормально
>>переведу все на нее. Настройки проще и не надо огород городить
>>с drbd
>
>У меня почему-то стандартные не пошли, я рискнул собрать из исходников.
>Очень пришлось повозиться с ctdb.
>
>Если не секрет сколько пользоввателей у Вас работают с расшаренными ресурсами?
>У меня порядка 30. На сегодня.
>Вы не из Красноярска?Странно, я ctdb ставил с диска 5.0.4, запустился сразу если не считать коллизию с ocfs2.
Пользователей пока мало - гоняю в тестовом режиме. Планирую перевести roaming-profiles пользователей. Сам из Казани.
>[оверквотинг удален]
>>
>>Если не секрет сколько пользоввателей у Вас работают с расшаренными ресурсами?
>>У меня порядка 30. На сегодня.
>>Вы не из Красноярска?
>
>Странно, я ctdb ставил с диска 5.0.4, запустился сразу если не считать
>коллизию с ocfs2.
>Пользователей пока мало - гоняю в тестовом режиме. Планирую перевести roaming-profiles пользователей.
>Сам из Казани.
>Диск у меня 5.0.5 Видимо коллизии было из-за ocfs2.
У меня запускалось, но ноды не переходили в статус ОК
>[оверквотинг удален]
>>>Вы не из Красноярска?
>>
>>Странно, я ctdb ставил с диска 5.0.4, запустился сразу если не считать
>>коллизию с ocfs2.
>>Пользователей пока мало - гоняю в тестовом режиме. Планирую перевести roaming-profiles пользователей.
>>Сам из Казани.
>>
>
>Диск у меня 5.0.5 Видимо коллизии было из-за ocfs2.
>У меня запускалось, но ноды не переходили в статус ОКЯ писал выше перенеси lock-файл на раздел с gfs и будет все ок, я сделал на glusterfs. Уже вторую неделю сижу без проблем
>[оверквотинг удален]
>>>Пользователей пока мало - гоняю в тестовом режиме. Планирую перевести roaming-profiles пользователей.
>>>Сам из Казани.
>>>
>>
>>Диск у меня 5.0.5 Видимо коллизии было из-за ocfs2.
>>У меня запускалось, но ноды не переходили в статус ОК
>
>Я писал выше перенеси lock-файл на раздел с gfs и будет все
>ок, я сделал на glusterfs. Уже вторую неделю сижу без проблем
>glusterfs на дебиан у тебя встала из коробки?
>[оверквотинг удален]
>>>>
>>>
>>>Диск у меня 5.0.5 Видимо коллизии было из-за ocfs2.
>>>У меня запускалось, но ноды не переходили в статус ОК
>>
>>Я писал выше перенеси lock-файл на раздел с gfs и будет все
>>ок, я сделал на glusterfs. Уже вторую неделю сижу без проблем
>>
>
>glusterfs на дебиан у тебя встала из коробки?да, работает
>да, работаетчто за Debian у тебя,у меня с коробки вставть не хочет, говорит такого пакета нет
>>да, работает
>
>что за Debian у тебя,у меня с коробки вставть не хочет, говорит
>такого пакета нет
>>да, работает
>
>что за Debian у тебя,у меня с коробки вставть не хочет, говорит
>такого пакета нетА вот как устанавливать и настраивать не из коробки
http://www.howtoforge.com/high-availability-storage-with-glu...
glusterfs по моему требует клиента, то есть два сервера+ клиент
>glusterfs по моему требует клиента, то есть два сервера+ клиентКонфиг клиента
volume remote1
type protocol/client
option transport-type tcp
option remote-host ubuntu.avto.krsn.ru # IP address of the remote brick
option remote-subvolume brick # name of the remote volume
end-volumevolume remote2
type protocol/client
option transport-type tcp
option remote-host test2.avto.krsn.ru
option remote-subvolume brick
end-volumevolume replicate
type cluster/replicate
subvolumes remote1 remote2
end-volumevolume writebehind
type performance/write-behind
option window-size 1MB
subvolumes replicate
end-volumevolume cache
type performance/io-cache
option cache-size 512MB
subvolumes writebehind
end-volumeКонфиг сервера
volume posix
type storage/posix # POSIX FS translator
option directory /home/data/export # Export this directory
end-volumevolume locks
type features/locks
subvolumes posix
end-volumevolume brick
type performance/io-threads
option thread-count 8
subvolumes locks
end-volumevolume server
type protocol/server
option transport-type tcp
subvolumes brick
option auth.addr.brick.allow 192.168.9.* # Allow access to "brick" volume
end-volumeМонтирую я таким образомЖ
mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/sharedЕсли на одном сервере отключить службу gluster то каталог /mnt/shared не доступен. Это нормально?
>[оверквотинг удален]
> option transport-type tcp
> subvolumes brick
> option auth.addr.brick.allow 192.168.9.* # Allow access to "brick" volume
>end-volume
>
>Монтирую я таким образомЖ
> mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/shared
>
>Если на одном сервере отключить службу gluster то каталог /mnt/shared не доступен.
>Это нормально?клиенты тоже надо поставить на оба сервера
>[оверквотинг удален]
>> option auth.addr.brick.allow 192.168.9.* # Allow access to "brick" volume
>>end-volume
>>
>>Монтирую я таким образомЖ
>> mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/shared
>>
>>Если на одном сервере отключить службу gluster то каталог /mnt/shared не доступен.
>>Это нормально?
>
>клиенты тоже надо поставить на оба сервераКлиентов я на оба ставил, вместе с серверами.
Конфиги можете выслать ваши, я сравню со своими?
Может ошибку найду.