>> Чтобы эти плюшки были нужны обычно берут корзинку вроде Dell M1000e, напихивают
>> в неё штук 16 Dell M710HD и парочку свитчей Brocade. Потом
>> оптоволокно к EMC CX4-960 и можно делать разные забавные штуки, чтобы
>> железо не простаивало и юзеры не задыхались.
> А можешь чуть подетальней обьяснить?? Ну оочень интересно просто.. что к чему..
> кто че делает..Ящик, набитый blade-серверами через FC подключен к SAN. Всё дисковое пространство SAN доступно, скажем, всем (полностью открытый FC-свитч). На blade-серверах стоит ESX. Создаём файловые системы VFS, регистрируем их на всех хостах ESX. Теперь размещаем виртуальные машины, забивая хосты один за другим. Оптимизировать будем по памяти, то есть под машины заказываем памяти, скажем, вдвое больше, чем есть на хосте.
Очевидно, что 5% машин сожрут 50% памяти, которая потребна на всю ораву (это свойство нормального распределения), пусть это будет 100% физической памяти. Какие именно гости окажутся прожорливыми - мы заранее не знаем. Очевидно, что на части хостов начнётся своп, в то время как на части из них ресурсов окажется с избытком.
Теперь начнём перебрасывать машины с хоста на хост на ходу. Поскольку сам образ машины доступен любому хосту, нам нужно сделать "снимок" памяти работающей машины из одного хоста, и втянуть на другой хост. Последующие изменения в памяти пробрасывать напрямую. В этот момент машина будет подтормаживать, но всё ещё живая. Как только синхронизировались, один хост остановил машину, другой продолжил буквально с того же такта.
Погоняв машины туда-сюда, получаем весь кластер загруженный на 100%, при этом памяти выделено 200%, но никто никому не мешает.