После двух с половиной лет разработки увидел свет (http://www.rocksclusters.org/wordpress/?p=519) релиз основанного на пакетной базе CentOS специализированного дистрибутива Rocks 6.2 (http://central6.rocksclusters.org/roll-documentation/base/6....), предназначенного для создания вычислительных кластеров, grid-сетей и инфраструктур для обеспечения работы виртуальных окружений на базе Xen и KVM. Дистрибутив может быть использован для быстрого развертывания кластеров в локальной сети с загрузкой основного управляющего узла с LiveCD/LiveUSB. После загрузки управляющего узла, дополнительные узлы могут быть загружены по сети через PXE и автоматически настроены. В комплект входит набор специально разработанных средств для централизованного управления кластером и мониторинга его работы.Размер универсального загрузочного iso-образа (ftp://ftp.rocksclusters.org/pub/rocks/rocks-6.2/linux/) 3.3 Гб. Дополнительно подготовлено (ftp://ftp.rocksclusters.org/pub/rocks/rocks-6.3/linux/) около десятка специализированных roll-образов, позволяющих упростить изменение конфигурации различных приложений (изменённые приложения ставятся в /opt) при развёртывании узлов на большом числе машин (например, созданы образы c пакетами для web-сервера, bio, condor, ganglia, perl, python, hpc, java, kvm, sge).
Новый выпуск доступен только в редакции для 64-разрядных систем и основан на пакетной базе CentOS 6.6 с учётом всех обновлений, выпущенных до 10 мая. Из новшеств отмечается возможность изменения настроек (http://central6.rocksclusters.org/roll-documentation/base/6....) сетевого фронтэнда без переустановки, например, можно централизованно поменять закреплённое за кластером полного доменное имя (FQDN) и IP-адреса. В интерфейс настройки пакетного фильтра добавлена поддержка SNAT. При сборке фронтенда в сетях с jumbo-кадрами, в команде build реализована возможность явного указания MTU. Для монтирования домашних директорий и раздела /share задействован NFSv4.
Обновлены версии компонентов дистрибутива, в том числе ZFS 0.6.4.1 и HTCondor 8.2.8. Добавлена поддержка (http://central6.rocksclusters.org/roll-documentation/perfSON...) системы мониторинга perfSONAR (https://www.perfsonar.net/).
URL: http://www.rocksclusters.org/wordpress/?p=519
Новость: http://www.opennet.me/opennews/art.shtml?num=42210
эммм, это уже настоящий кластер? не такой как Proxmox?
а вы про проксмокс мож чё не то знаете?
С их сайта: Proxmox VE is a complete open source server virtualization management solution.
ага, настолько "комплит", что "кластером" у них называется возможность миграции ВМ между нодами, о распределении ресурсов в кластере (ну как по моему скромному мнению и должен работать кластер) речи там не идетЗЫ мало того, при падении мастер ноды, другая нода еще работает, но только до перезагрузки, никакие настройки там уже не поменяешь, и как вернуть обратно в сингл - непонятно (это уже где то здесь обсуждалось)
Дык настрой мульти-мастер. Всё там прекрасно работает: при падении ноды ее VM/CT стартуют на другой ноде. Proxmox - это HA-кластер, а не вычислительный. Если тебе нужно "распределении ресурсов в кластере (ну как по моему скромному мнению и должен работать кластер)", то тебе нужен OpenMPI и софт, специально написанный для этого.
> Дык настрой мульти-мастер. Всё там прекрасно работает: при падении ноды ее VM/CT
> стартуют на другой ноде. Proxmox - это HA-кластер, а не вычислительный.
> Если тебе нужно "распределении ресурсов в кластере (ну как по моему
> скромному мнению и должен работать кластер)", то тебе нужен OpenMPI и
> софт, специально написанный для этого.ну вот я и хочу уточнить - этот самый Rocks 6.2 умеет быть вычислительным кластером?
Нет.
Да
Может быть.
> предназначенного для создания вычислительных кластеров
И?
#pvecm expected 1
кворум в 1 голос (собственный)#pvecm delnode xxx
удалить из конфига "лишнюю" нодуВ принципе, так уже можно оставить. Убедившись, что не застрелят через power-switch или ipmi (что в игрушечной конфигурации вряд ли).
Насколько я помню totem, там ещё риск самоубийства через опускание сетевого интерфейса с мультикастом, так что безопаснее потом погасить всякие там rgmanager|fenced (и разобрать clvm, если такое извращение было).
так какое ПО взято за основу кластера?