URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID3
Нить номер: 38476
[ Назад ]

Исходное сообщение
"OpenNews: Инсталляция и конфигурирование DRBD"

Отправлено opennews , 20-Сен-07 23:36 
Появилась статья (http://xgu.ru/wiki/DRBD), в которой детально описывается процедура подготовки Linux системы для
использования DRBD-устройств - специальных устройств предназначенных для резервирования файловых систем по сети.

URL: http://xgu.ru/wiki/DRBD
Новость: http://www.opennet.me/opennews/art.shtml?num=12123


Содержание

Сообщения в этом обсуждении
"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 20-Сен-07 23:36 
У кого-нить был опыт использования DRBD в системах с большой интенсивностью записи/чтения на эти устойства?
Очень впечатления интересуют.

"Инсталляция и конфигурирование DRBD"
Отправлено Честер , 21-Сен-07 01:43 
Из той же оперы статья - http://www.netup.ru/articles.php?n=13

"Инсталляция и конфигурирование DRBD"
Отправлено LILO , 21-Сен-07 02:08 
вот именно что оперы...

"Инсталляция и конфигурирование DRBD"
Отправлено Antrew , 21-Сен-07 05:58 
Рулез! Теперь точно сделаю общую файловую систему на кластер, которая будет храниться на самих нодах.

"Инсталляция и конфигурирование DRBD"
Отправлено matros , 21-Сен-07 09:54 
обязательно тестируйте после установки и настройки. Не рекомендую использовать под базы данных. Можете напороться на неприятности в виде отката данных на более ранние даты)))

"Инсталляция и конфигурирование DRBD"
Отправлено trantor1 , 21-Сен-07 10:45 
В drbd0.8 --do-what-I-say насколько я помню нет.

"Инсталляция и конфигурирование DRBD"
Отправлено Zlobec , 21-Сен-07 11:07 
есть иначе вторую primary ноду не получть

"Инсталляция и конфигурирование DRBD"
Отправлено Валентин , 21-Сен-07 11:19 
Где то год использовал на двух одинаковых серверах, один на другого бекапились.
Последнее время столкнулся с проблемой: периодически при записи на активный раздел он перемонтируется на рид-онли. Кусок лога:
...
Sep  7 15:23:39 data kernel: drbd0: rw=0, want=307161464, limit=306970624
Sep  7 15:23:39 data kernel: EXT3-fs error (device drbd0): ext3_find_entry: reading directory #18727690 offset 0
Sep  7 15:23:39 data kernel: Aborting journal on device drbd0
...
Не хватает инодов ?

"Инсталляция и конфигурирование DRBD"
Отправлено аноним , 21-Сен-07 11:50 
вполне возможно "want=307161464, limit=306970624" вот на такое число 190840

"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 21-Сен-07 13:42 
Хочу его поверх софтварного raid1 заюзать для web и mysql, пока вроде работает на тестовых серверах нормально.
Только вот какую ФС брать, говорят ext3 глючит поверх софтварного рэйда - никто не сталкивался?

"Инсталляция и конфигурирование DRBD"
Отправлено Enchant , 21-Сен-07 19:20 
XFS - http://www.opennet.me/opennews/art.shtml?num=12120

"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 22-Сен-07 12:53 
Барахло это DRBD. Пользовал, потом плюнул. Проще, надежней, эффективней развернуть полноценное кластерное решение где ноды работаю в режиме Active/Active.
В DRBD только Active/Passive. При этом второй сервер просто курит бамбук.

"Инсталляция и конфигурирование DRBD"
Отправлено xguru , 22-Сен-07 22:35 
В DRBD8 Active/Active поддерживается.


Какие кластерные решения используете вы?


"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 22-Сен-07 23:07 
8.0 пока сплошная сырость.

Кластеры по базе Sun Cluster и Veritas Cluster. Системы поставлены разными поставщиками, поэтому имеется некоторый зоопарк.

Пока я возился с DRBD, то дико душила жаба, что нельзя заюзать второй сервер. Если в 8.0 наконец-то сделали то, что было реализовано уже много лет у других, то разработчикам респект. Только я еще пару лет подожду, пока софт доведут. Мне мои данные дороже.


"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 23-Сен-07 21:31 
GFS2 ??

"Инсталляция и конфигурирование DRBD"
Отправлено LM , 24-Сен-07 12:59 
Скажи как без Shared Storage на GFS2 сделать HA решение. Чтобы две ноды делили общее пространство с резеввированием?

Получаеться что либо две ноды используют один дисковый ресурс который к примеру по iscsi (нету HA).
или же наоборот одна нода использует два дисковых ресурса которые объединены в LVM (собстно не нужен GFS, ибо write нода одна).

Раскажете как сделать HA с GFS в которых Shared Storage будет парочку PC - респект вам и уважение.


"Инсталляция и конфигурирование DRBD"
Отправлено Аноним , 24-Сен-07 22:58 
GNBD разве не для этого придуман?

"Инсталляция и конфигурирование DRBD"
Отправлено LM , 25-Сен-07 13:17 
Очень интересно.

Если вы смогли это сделать с помощью gnbd скажите пожалуста каким образом?
К примеру есть у нас serv1, serv2, node1, node2.

На серверах:
serv1# gnbd_export -e share1 /dev/sdb1
serv2# gnbd_export -e share1 /dev/sdb1

На нодах:
node1# gnbd_import -i serv1
node1# gnbd_import -i serv2
node2# gnbd_import -i serv1
node2# gnbd_import -i serv2

Так что ли? ) Каким образом указать что serv1.sdb1 зеркалирует serv2.sdb1?


"Инсталляция и конфигурирование DRBD"
Отправлено xguru , 25-Сен-07 15:50 
>GNBD разве не для этого придуман?

Для чего именно для этого?

Для экспорта — да.
Для зеркалирования — нет.


"Инсталляция и конфигурирование DRBD"
Отправлено LM , 26-Сен-07 12:01 
Появилась мысля как использовать gndb, для создания зеркалирования.. Конечно решение с извратом и пока Active/Passive но тоже ни чего. Отпишусь тут на всякий случай.

Есть сервер serv1, и serv2.

serv2 экспортирует диск через gndb серверу serv1, тот в свою очередь создаёт на всём этом деле software raid и экспортирует созданный раздел клиентам, которые всою очередь уже используют там любую CFS. При выходи из строя serv1, Hearbeart это видит, и заставляет serv2 экспортировать раздел под тем же именем.

serv2.sdb1 -> gnbd -> serv1.md0 -> gnbd -> node1,2,3,4

Когда умирает serv1 скриптами схема меняеться на:

serv2.sdb1 -> gnbd -> node1,2,3,4

Вот. А воопще конечно легче уж какую нибудь lustre, glusterfs использовать.