The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Red Hat выпустит кластерный Linux дистрибутив. Сравнение кластерных ФС

28.09.2008 09:53

В начале октября компания Red Hat планирует выпустить новый специализированный кластерный Linux дистрибутив, ориентированный на создание высокопроизводительных систем. Дистрибутив представляет собой продолжение развития продукта Red Hat Enterprise Linux for HPC Compute Nodes, в который будет интегрирована поддержка реализации стека Platform Computing Open Cluster Stack 5.0 (OCS), созданного в рамках проекта Kusu.

Подобный подход подразумевает выпуск самодостаточного, для развертывания кластеров, Linux дистрибутива, в отличии от ранее предоставляемых решений, упрощающего процесс планирования и не требующего покупки отдельного комплекта Red Hat Enterprise Linux ES/AS для машин инфраструктуры управления кластером.

В заключение, можно обратить внимание на PDF презентацию "HEPiX FSWG - Final Report" (459 Кб), в которой представлены результаты сравнения производительности распределенных ФС Lustre, dCache, DPM, Xrootd, AFS и GPFS.

Тест 1. Измерение скорости записи 50 тыс. файлов, каждый размером 300 Мб, равномерно распределенных по 10 серверам. Запись производилась одновременно из 60 процессов, размещенных на 60 различных машинах. Результаты:

  • Lustre - 117 Мб/сек;
  • dCache - 117 Мб/сек;
  • DPM - 117 Мб/сек;
  • Xrootd - 114 Мб/сек;
  • AFS - 109 Мб/сек;
  • GPFS - 96 Мб/сек.

Тест 2. Подготовленное в первом тесте хранилище было разбавлено 450 тыс. файлов минимального размера. Далее было произведено измерение скорости последовательного чтения 300 Мб файлов блоками в 1Мб одновременно в 10,20,40,100,200,480 потоков. Лучшие показатели были продемонстрированы GPFS и Lustre. На небольшом числе одновременных запросов немного отстали dCache, DPM и AFS (более заметное отставание вначале). Производительность Xrootd заметно упала при интенсивности более 40 одновременных запросов, все остальные ФС при высокой интенсивости запросов показали близкие и достаточно стабильные результаты.

Тест 3. В отличие от второго теста, была предпринята попытка эмуляции случайного доступа к данным в 100,200 и 480 потоков. Чтение производилось блоками размером 10,25,50 или 100 Кб, выбираемыми в случайном порядке. Результаты (средняя пропускная способность для 100, 200 и 480 потоков):

  • Lustre - 117, 117, 117 Мб/сек (явное преимущество перед другими ФС);
  • GPFS - 114, 75, 69 Мб/сек;
  • AFS - 79, 112, 87 Мб/сек;
  • dCache - 35, 49, 65 Мб/сек;
  • DPM - 35, 48, 64 Мб/сек;
  • Xrootd - 34, 47, 60 Мб/сек.

При тестировании был использован следующий тюнинг параметров TCP/IP стека:


     net.ipv4.tcp_timestamps = 0
     net.ipv4.tcp_sack = 0
     net.ipv4.tcp_mem = 10000000 10000000 10000000
     net.ipv4.tcp_rmem
     net ipv4 tcp rmem = 10000000 10000000 10000000
     net.ipv4.tcp_wmem = 10000000 10000000 10000000
     net.core.rmem_max = 1048576
     net.core.wmem_max = 1048576
     net.core.rmem_default = 1048576
     net.core.wmem_default = 1048576
     net.core.netdev_max_backlog = 300000


  1. Главная ссылка к новости (http://tech.slashdot.org/artic...)
  2. Анонс в ru_highload: Тестирование кластерных FS
  3. Список файловых систем
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/18141-redhat
Ключевые слова: redhat, cluster
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (10) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, vadiml (?), 11:44, 28/09/2008 [ответить]  
  • +/
    pohmelfs http://www.opennet.me/opennews/art.shtml?num=15561 ещё не котируется?
     
     
  • 2.8, _umka_ (ok), 15:42, 29/09/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >pohmelfs http://www.opennet.me/opennews/art.shtml?num=15561 ещё не котируется?

    а она где-то работает под нагрузкой? Обзор вобще был посвящен выбору FS для кластера.


     

  • 1.2, Аноним (-), 11:54, 28/09/2008 [ответить]  
  • +/
    с люстрой понятно, а что на счет OracleFS?
     
     
  • 2.3, Антон (??), 12:26, 28/09/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >с люстрой понятно, а что на счет OracleFS?

    Не путайте теплое с мягким. Oracle OCFS2 и Red Hat GFS предназначены для доступа кучи машин к одной физической системе хранения (SAN), а в обзоре было сравнение распределенных ФС, в которых данные не хранятся одной кучей, а разбиты на куски, распределенные по разным машинам.

     
  • 2.4, alexxy (?), 12:33, 28/09/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >с люстрой понятно, а что на счет OracleFS?

    тестили distributed fs а не shared disk fs

     

  • 1.5, Аноним (5), 21:18, 28/09/2008 [ответить]  
  • +/
    Lustre рулит!
    А как она с xen дружит? никто не тестировал?
     
     
  • 2.6, pavlinux (ok), 22:29, 28/09/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >Lustre рулит!
    >А как она с xen дружит? никто не тестировал?

    http://blog.adaniels.nl/articles/howto-install-xenlustre-on-ubuntu-gutsy/

     

  • 1.7, Аноним (5), 13:14, 29/09/2008 [ответить]  
  • +/
    2Антон: но ведь ОраклФС требует партиции на каждом узле? Разве нет? Если на каждом узле, следовательно там данные размазаны по всем машинам.
     
  • 1.9, Аноним (9), 20:00, 29/09/2008 [ответить]  
  • +/
    где POHMELFS?
     
     
  • 2.10, _umka_ (ok), 08:12, 30/09/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >где POHMELFS?

    Как только она перестанет терять данные, будет обкатана где нить в серьезной работе - тогда появится и она в обозоре ;)
    А пока - вычеркиваем.

     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру