Появилась статья (http://xgu.ru/wiki/DRBD), в которой детально описывается процедура подготовки Linux системы для
использования DRBD-устройств - специальных устройств предназначенных для резервирования файловых систем по сети.URL: http://xgu.ru/wiki/DRBD
Новость: http://www.opennet.me/opennews/art.shtml?num=12123
У кого-нить был опыт использования DRBD в системах с большой интенсивностью записи/чтения на эти устойства?
Очень впечатления интересуют.
Из той же оперы статья - http://www.netup.ru/articles.php?n=13
вот именно что оперы...
Рулез! Теперь точно сделаю общую файловую систему на кластер, которая будет храниться на самих нодах.
обязательно тестируйте после установки и настройки. Не рекомендую использовать под базы данных. Можете напороться на неприятности в виде отката данных на более ранние даты)))
В drbd0.8 --do-what-I-say насколько я помню нет.
есть иначе вторую primary ноду не получть
Где то год использовал на двух одинаковых серверах, один на другого бекапились.
Последнее время столкнулся с проблемой: периодически при записи на активный раздел он перемонтируется на рид-онли. Кусок лога:
...
Sep 7 15:23:39 data kernel: drbd0: rw=0, want=307161464, limit=306970624
Sep 7 15:23:39 data kernel: EXT3-fs error (device drbd0): ext3_find_entry: reading directory #18727690 offset 0
Sep 7 15:23:39 data kernel: Aborting journal on device drbd0
...
Не хватает инодов ?
вполне возможно "want=307161464, limit=306970624" вот на такое число 190840
Хочу его поверх софтварного raid1 заюзать для web и mysql, пока вроде работает на тестовых серверах нормально.
Только вот какую ФС брать, говорят ext3 глючит поверх софтварного рэйда - никто не сталкивался?
XFS - http://www.opennet.me/opennews/art.shtml?num=12120
Барахло это DRBD. Пользовал, потом плюнул. Проще, надежней, эффективней развернуть полноценное кластерное решение где ноды работаю в режиме Active/Active.
В DRBD только Active/Passive. При этом второй сервер просто курит бамбук.
В DRBD8 Active/Active поддерживается.
Какие кластерные решения используете вы?
8.0 пока сплошная сырость.Кластеры по базе Sun Cluster и Veritas Cluster. Системы поставлены разными поставщиками, поэтому имеется некоторый зоопарк.
Пока я возился с DRBD, то дико душила жаба, что нельзя заюзать второй сервер. Если в 8.0 наконец-то сделали то, что было реализовано уже много лет у других, то разработчикам респект. Только я еще пару лет подожду, пока софт доведут. Мне мои данные дороже.
GFS2 ??
Скажи как без Shared Storage на GFS2 сделать HA решение. Чтобы две ноды делили общее пространство с резеввированием?Получаеться что либо две ноды используют один дисковый ресурс который к примеру по iscsi (нету HA).
или же наоборот одна нода использует два дисковых ресурса которые объединены в LVM (собстно не нужен GFS, ибо write нода одна).Раскажете как сделать HA с GFS в которых Shared Storage будет парочку PC - респект вам и уважение.
GNBD разве не для этого придуман?
Очень интересно.Если вы смогли это сделать с помощью gnbd скажите пожалуста каким образом?
К примеру есть у нас serv1, serv2, node1, node2.На серверах:
serv1# gnbd_export -e share1 /dev/sdb1
serv2# gnbd_export -e share1 /dev/sdb1На нодах:
node1# gnbd_import -i serv1
node1# gnbd_import -i serv2
node2# gnbd_import -i serv1
node2# gnbd_import -i serv2Так что ли? ) Каким образом указать что serv1.sdb1 зеркалирует serv2.sdb1?
>GNBD разве не для этого придуман?Для чего именно для этого?
Для экспорта — да.
Для зеркалирования — нет.
Появилась мысля как использовать gndb, для создания зеркалирования.. Конечно решение с извратом и пока Active/Passive но тоже ни чего. Отпишусь тут на всякий случай.Есть сервер serv1, и serv2.
serv2 экспортирует диск через gndb серверу serv1, тот в свою очередь создаёт на всём этом деле software raid и экспортирует созданный раздел клиентам, которые всою очередь уже используют там любую CFS. При выходи из строя serv1, Hearbeart это видит, и заставляет serv2 экспортировать раздел под тем же именем.
serv2.sdb1 -> gnbd -> serv1.md0 -> gnbd -> node1,2,3,4
Когда умирает serv1 скриптами схема меняеться на:
serv2.sdb1 -> gnbd -> node1,2,3,4
Вот. А воопще конечно легче уж какую нибудь lustre, glusterfs использовать.