1.1, HounD (?), 10:17, 13/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А кто-нить сравнивал работу существующих распределенных ФС? Laster и Coda, например? | |
|
2.2, fresco (??), 10:28, 13/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
Не думаю. Мало кто этим пользуется. Хотя я бы хотел посмотреть такой обзор. | |
2.3, ltyp (??), 11:15, 13/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
Я использовал коду на двух компах...
Работает она очень тормазно, это мое субъективное мнение. загрузка ЦП иногда
достигает чуть-ли не придела. Следует пробовать Lustre, по крайней мере, как
они говорят она отлично масштабируется, да и её использует HP в своих storageworks'ах,
а это уже о чем-то говорит. | |
|
3.5, Алексей (??), 12:17, 13/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
есть ограничения, к примеру выше 10к клиентов не очень хорошо чувствует себя.
Но я думаю у 99% юзеров 10к клиентов не будет :)
Во всяком случае сейчас IMHO, это лучшая сетевая FS из существующих. | |
|
|
5.9, Алексей (??), 15:18, 13/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
про OpenAFS наверно?
ничего не скажу - на сайте 0 документации по архитектуре, а копать исходники не хочется.
хотя приятно что у OpenAFS есть порт на Win32, что не закончено у люстры. | |
5.11, johnjoy (??), 03:20, 14/02/2007 [^] [^^] [^^^] [ответить] | +/– | AFS не совсем сюда - не той породы Lustre - кластерная ФС AFS - сетевая ФС Есл... большой текст свёрнут, показать | |
|
6.13, Алексей (??), 08:44, 14/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
>Кластерных ФС мзвестных негусто - навскидку Lustre, Google FS (+Hadoop), что-то было
>у IBM.
>Отличительная особенность - все участники ФС унифицированы и являются и серверами и
>клиентами ФС (это имеенно особенности реализации, конечно же можно и настроить
>для работы как "несколько серверов - много клиентов", но преимуществ в
>этом случае не получите, скорее наоборот)
помоему ты ошибаешся...
>Обычный принцип действия - работа на уровне блоков: разбитый на блоки файл
>"размазывается" по нескольким серверам, при его чтении клиент сам собирает блоки
>в файл.
Это Google FS & RedHat GFS.. в люстре оперируют понятием объект.
>ФС этого класса очень разные. Lustre заточнена под hiperf вычисления с низкой
>латентностью, посему пользуют что-нить типа InfiniBand и нестандартные MPI. Люстра замонтированая
>представляет из себя слегка урезaную ext3.
ext3 был только для 2.4 ядер, для 2.6 используется ldiskfs которая значительно ближе к ext4.
>Также есть shared storage FS - эти нужны при работе нескольких (многих)
>серверов с внешними дисковыми массивами. Основная задача - обеспечить быструю и
>правильную блокировку совместного доступа (via SAN, iSCSI, SCSI). Без них фактически
>каждый сервер должен работать со своим личным выделенным на массиве разделом.
>Из известных - GFS от RedHat, Oracle Cluster File System, PolyServe
>и Veritas CFS.
RedHat GFS вобще странная FS - раздает raw девайс и пытается рулить блокировками на уровне блоков, без учета логической организации.
| |
|
7.15, johnjoy (??), 13:27, 14/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
спасибо за правку
>>Кластерных ФС мзвестных негусто - навскидку Lustre, Google FS (+Hadoop), что-то было
>>у IBM.
>>Отличительная особенность - все участники ФС унифицированы и являются и серверами и
>>клиентами ФС (это имеенно особенности реализации, конечно же можно и настроить
>>для работы как "несколько серверов - много клиентов", но преимуществ в
>>этом случае не получите, скорее наоборот)
>помоему ты ошибаешся...
да, несколько неверно выразил (привычка к hadoop). Речь больше идет об унификации параллельных oss. Однако в кластерах имеет смысл использовать их же как вычислительные ноды/клиенты.
>>Обычный принцип действия - работа на уровне блоков: разбитый на блоки файл
>>"размазывается" по нескольким серверам, при его чтении клиент сам собирает блоки
>>в файл.
>Это Google FS & RedHat GFS.. в люстре оперируют понятием объект.
Да, так и есть ) хотя разница не столь катастрофична.
>>ФС этого класса очень разные. Lustre заточнена под hiperf вычисления с низкой
>>латентностью, посему пользуют что-нить типа InfiniBand и нестандартные MPI. Люстра замонтированая
>>представляет из себя слегка урезaную ext3.
>ext3 был только для 2.4 ядер, для 2.6 используется ldiskfs которая значительно
>ближе к ext4.
принято
| |
|
|
|
|
|
|
1.7, gfarm (?), 13:33, 13/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А что можете сказать про gfarm ?
Планируем использовать его для распределенного хранения редко изменяемой статики крупного web-портала на FreeBSD.
Но пока еще не начали внедрение, возможно стоит попробовать lustre ?
Может кто-нибудь описать плюсы/минусы в сравнении с тем же gfarm ?
| |
|
2.12, johnjoy (??), 04:45, 14/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
К сожалению, люстра и бсд несовместимы.
Вообще, был отличный отзыв о продакшн использовании именно в веб-проекте, под статику (несколько десятков нодов)
Советую самостоятельно оттестировать
а GFarm говорит так:
The major difference from the
Grid Datafarm architecture is that Lustre separates file sys-
tem nodes from clients (or compute nodes). This reflects
the fact that Lustre assumes an operating environment of
large clusters and intra-enterprise high bandwidth connec-
tivity, where moving data to computation makes sense, in
contrast to Gfarm where data may reside distributedly in
wide area, making exploitation of local high bandwidth by
moving computation to data essential.
то бишь gfarm изначально позиционирует себя для таковой модели использования:
есть много данных, распределенных по нодам,
нужно их все параллельно обработать. В случае люстры и подобных - compute node сначала фетчит себе данные из кластерной фс, обрабатывает и возвращает обратно (отсюда требования к пропускной способности и латентности)
В случае gfarm - задание по обработке для compute нода попадает благодаря gfarm именно на тот нод, где локально лежит одна из реплик требуемых данных. Соответственно по сети происходит трансфер задания на обработку данных , а не самих данных. (например, http://datafarm.apgrid.org/pdf/GCA3059-xiaohui.pdf, да и вообще тут- http://datafarm.apgrid.org/paper.en.html большинство тем именно parallel computing, а не distributed fs )
Касательно статики и веб-использования - там обработки нет никакой, нужно именно фетчить. То есть не та задача, под которую проектировался gfarm (хотя вполне вероятно, что подходит =).
Относительно люстры - она рассчитана именно на такое использование, там несколько релизов назад сделали оптимизацию под "много маленьких файлов" (трабл многих распределенных фс), живет она в кернеле и основана на ext3. Думаю, стоит попробовать =) | |
|
3.14, Алексей (??), 08:48, 14/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
>К сожалению, люстра и бсд несовместимы.
1. fuse может работать под BSD и под MacOS X.
2. в свете вылизывания lustre patchless client - есть шанс сделать полноценный клиент (пусть и тормозной, для ускорения нужны некоторые правки в VFS у fbsd) для BSD взяв за основу MacOS порт. С сервером сложнее. | |
|
4.16, johnjoy (??), 13:30, 14/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
>>К сожалению, люстра и бсд несовместимы.
>1. fuse может работать под BSD и под MacOS X.
>2. в свете вылизывания lustre patchless client - есть шанс сделать полноценный
>клиент (пусть и тормозной, для ускорения нужны некоторые правки в VFS
>у fbsd) для BSD взяв за основу MacOS порт. С сервером
>сложнее.
да, меня опять тянет на унификацию =)
а в роадмапе с поддержкой бсд - грустно.
| |
|
5.18, Алексей (??), 08:47, 15/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
>>>К сожалению, люстра и бсд несовместимы.
>>1. fuse может работать под BSD и под MacOS X.
>>2. в свете вылизывания lustre patchless client - есть шанс сделать полноценный
>>клиент (пусть и тормозной, для ускорения нужны некоторые правки в VFS
>>у fbsd) для BSD взяв за основу MacOS порт. С сервером
>>сложнее.
>да, меня опять тянет на унификацию =)
>а в роадмапе с поддержкой бсд - грустно.
думаю будут заказы или интуазисты - будет сделано :) | |
|
|
|
|
1.19, Zed (??), 12:31, 15/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А поставил ли кто-нить люстру под БСД, а точнее под ФриБСД?
Не получается скомпилить lustre-1.5.97.tar.gz.
| |
|