URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID3
Нить номер: 54433
[ Назад ]

Исходное сообщение
"Вышел релиз кластерной файловой системы GlusterFS 2.0"

Отправлено opennews , 16-Май-09 12:37 
Вышел (http://lkml.org/lkml/2009/5/14/153) релиз кластерной файловой системы GlusterFS 2.0 (http://www.gluster.org/), которая теперь распространяется под лицензией GPLv3. В новой версии были значительно переработаны основные компоненты, убрана привязка к ядру системы, а архитектура стала модульной. Данные усовершенствования позволили в несколько раз увеличить производительность,  масштабируемость (близка к O(1)) и управляемость системы, делая задачу построения несколько сот терабайтного распределенного хранилища в течении получаса вполне реальной.

Ниже представлены наиболее выделяющиеся характеристики (http://www.gluster.org/docs/index.php/GlusterFS_Features) этой файловой системы:


-  Работа в пространстве пользователя. Преимущество данного режима заключается в отсутствии зависимости от специфических функций ядра, что в свою очередь делает код более универсальным и легким в отладке, а сбои в работе менее разрушительными.
-  Модульный дизайн, позволяет относительно легко наращива...

URL: http://www.gluster.com/news.php
Новость: http://www.opennet.me/opennews/art.shtml?num=21760


Содержание

Сообщения в этом обсуждении
"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено alexxy , 16-Май-09 12:37 
Ага. Знаем знаем. Пользуюсь. И тока вчера в генту добавил =)
я бы сказал, что она еще по RDMA сетям по протоколу verbs работает.

"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено tx2 , 16-Май-09 12:40 
хм... выглядит занятно... НО...
кто пользуется??
как впечатления?

интересует скорость и надежность...
какой трансферт в среднем удается выжать из нее?? при каких условиях?
как в ней выглядит репликация? как ведет себя при физических сбоях(на дешевых hdd)?? как ведет себя при падении ноды?


"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено tx2 , 16-Май-09 13:15 
и еще вопрос: что у нее с локами?

"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено Sw00p aka Jerom , 16-Май-09 17:20 
Не знаю почему или мне так кажется когда используется афр (авто репликация типа мастер мастер ) если не запросить листинг или какой нибудь файл то он не реплицируется автоматически

то есть может возникнуть проблема когда на один сервер запишутся данные и второй сервер некоторое время ваще не будет запрашивать данные из фс и если упадёт полностью первый сервер то второй останется без тех последних измененний

и ещё так и не понял (опять таки мастер-мастер репликация) на обоих серверах экспортируем к примеру /home и монтируем раздел к примеру /mnt/home
вопрос в том что использовать для обычной работы с фс ?

провёл небольшие эксперименты когда записываем какие либо данные на первом сервере в папку /mnt/home они появляются как в /mnt/home на втором сервере, также появляются в папках /home на обоих серверах.

когда записываем файл в папку /home на первом, то он появлялся в папке /mnt/home на первом и на втором сервере, а вот в папке /home на втором сервере он не появлялся

Ещё не понятно как ведёт себя эта кластерная фс когда монтируем разделы с уже имеющимися файлами (плюс с одинаковыми именами), то есть процесс стартовой синхронизации не понятен



"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено Аноним , 16-Май-09 23:27 
А вот никак у нее с локами.....

попытался настроить несколько серверов в режиме RAID1 по конфигу из примера.

Ну то есть типа папочки /var/shared на двух машинах и чтоб там репликация была...   и подмонтировать это как /mnt/shared на двух машинах....

блокировки не работают.
точнее они работают в пределах одной машины.
то есть берем и блокируем файл /mnt/shared/testfile на одной машине.

смотрим на той машине где блокировали -- файл /mnt/shared/testfile блокирован той программой, которая блокирует.
файл /var/shared/testfile блокирован процессом glusterfsd.  

на второй машине -- которая зеркало,  файл /var/shared/testfile тоже блокирован.
зато через /mnt/shared/testfile на другой машине без проблем можно писать в файл с любой эксклюзивной блокировкой....


"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено Sw00p aka Jerom , 17-Май-09 11:59 
>[оверквотинг удален]
>точнее они работают в пределах одной машины.
>то есть берем и блокируем файл /mnt/shared/testfile на одной машине.
>
>смотрим на той машине где блокировали -- файл /mnt/shared/testfile блокирован той программой,
>которая блокирует.
>файл /var/shared/testfile блокирован процессом glusterfsd.
>
>на второй машине -- которая зеркало,  файл /var/shared/testfile тоже блокирован.
>зато через /mnt/shared/testfile на другой машине без проблем можно писать в файл
>с любой эксклюзивной блокировкой....

Я ваще считаю, реализовать RAID1 с помощью гластера - это дурацкая идея

В нашем случаем мы мирроринга независимого (когда данные на двух серверах изменяются независимо и при этом миррорятся) не получим так как нужен как минимум отдельный сервер который будет управлять вот этими глобальными блокировками и которых в гластере нет как я понял там просто обычный посикс локинг и как правильно заметили он работают на самомже сервере. В какой-то степени правильно если со второго сервера через /mnt/home (к примеру) обратиться к этому заблокированному файлу то конечно же мы к нему доступ не получим

тут получается (и это видно из самой модели гластера), что гластер ДА распределённая кфс и всё таки она больше NFS-like, а так называемый афр у них образуется двусторонним типа нфс коннектом.    


"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено pavlinux , 17-Май-09 13:08 
> реализован только алгоритм rot-13. С точки зрения криптостойкости это очень слабый алгоритм

По-моему его и расшифровывать не надо, и так читается :)


"Вышел релиз кластерной файловой системы GlusterFS 2.0"
Отправлено aka_Falsh , 19-Июн-09 12:52 
Фокус гластера в том что если есть кластер с большым количеством узлов, то при настройке хранилища будем иметь скорость доступа к данным больше чем если будем использовать какой-то NAS.