Доступен (http://www.proxmox.com/news/press-releases/proxmox-ve-3-4-re...) релиз Proxmox Virtual Environment 3.4 (http://www.proxmox.com), специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием OpenVZ и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа (http://www.proxmox.com/downloads/) 540 Мб. Начиная с выпуска 3.1 по умолчанию предлагается платный репозиторий Enterprise, возможность использовать бесплатный репозиторий сохранена (http://pve.proxmox.com/wiki/Package_repositories) и он является достаточно стабильным, но создатели дистрибутива не гарантируют качество его работы не рекомендуют к промышленному использованию.Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).
В новом выпуске (http://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_3.4):
- Добавлена полноценная поддержка файловой системы ZFS. ZFS можно использовать при установке на корневом разделе, помимо ранее поддерживаемых ext3 и ext4, а также для размещения raw-образов KVM в блочном хранилище zvol. В инсталляторе присутствует возможность создания любых уровней ZFS RAID (raid-0/1/10 и raidz-1/2/3). В графическом интерфейсе обеспечены средства для настройки и управления ZFS-разделами;
<center><iframe width="640" height="360" src="https://www.youtube.com/embed/3COIGdZdfXI?rel=0" frameborder="0" allowfullscreen></iframe></center>
- Добавлена поддержка горячего подключения устройств (hotplug) для виртуальных машин, которая позволяет на лету добавлять виртуальные накопители, сетевые карты и USB-устройства;
- Добавлена поддержка NUMA (non-uniform memory access);
- Обновлён графический интерфейс pve-manager, в котором добавлена поддержка спящего режима для openvz, в сетевые настройки добавлена кнопка для отключения виртуальной сетевой карты, добавлены кнопки для запуска/остановки/миграции сразу всех окружений.- QEMU обновлён до выпуска 2.1.3;
- Пакетная база синхронизирована с Debian Wheezy 7.8.
URL: http://www.proxmox.com/news/press-releases/proxmox-ve-3-4-re...
Новость: http://www.opennet.me/opennews/art.shtml?num=41700
Зачем они роботом озвучили видео?
Ты еще не видел как робот из гугли субтитры на ролики делает... :)
Ребята из Германии...
Приходилось как-то общаться с немцем на английском - уж лучше робот.
факт
Просто тебе не повезло. Немцы, как правило очень четко и хорошо говорят на английском
конечно, я лучше
Оно по-прежнему не умеет устанавливаться на software raid?
А зачем это?
У меня домашний "сервер" под различные нужды. На кой мне отдавать сотни нефти за минимум два аппаратных RAID-контроллера?
> У меня домашний "сервер" под различные нужды. На кой мне отдавать сотни
> нефти за минимум два аппаратных RAID-контроллера?Для владельцев 'домашних "серверов"' все уже давно описано: http://habrahabr.ru/post/186818/.
P.S.: Аппаратный RAID - зло.
P.P.S.: А гипервизор (ОС) и данные лучше уж все-таки разделять.
>> P.P.S.: А гипервизор (ОС) и данные лучше уж все-таки разделять.Смысл фразы не понятен, что от чего предполагается разделять? Не использовать функционал доступный в хост-системе или о том, что держать данные гостевых систем следует на отдельном разделе?
Почему из коробки то не сделать? Дебиан лежащий в основе дистрибутива это позволяет без проблем. Мануал с хабра не плох, но ничего нового не открыл.
> Для владельцев 'домашних "серверов"' все уже давно описано: http://habrahabr.ru/post/186818/.Я знаю. И это указывал.
> P.S.: Аппаратный RAID - зло.Смотря, какой и для чего.
> P.P.S.: А гипервизор (ОС) и данные лучше уж все-таки разделять.
Так они и разделяются.
Умеет на Soft RAID на ZFS
Зачем мне дома ZFS? Её требования к ресурсам для меня явный перебор.
Зачем тебе дома спец.дистрибутив для виртуализации?
Ставь поверх Debian и не задавай глупых вопросов, их инсталятор принципиально soft raid не поддерживает.
> Зачем тебе дома спец.дистрибутив для виртуализации?Надо. Именно для виртуализации.
> Ставь поверх Debian и не задавай глупых вопросов, их инсталятор принципиально soft raid не поддерживает.
А можно не указывать мне, что делать?
Хорошо, тогда вам другой человек не указывать будет, а совет давать.
Советую поставить просто дебиан и следовать инструкции по установке проксмокса поверх имеющейся системы.Установка на софтрейды принципиально не планируется.
Предполагаю, что мнение о софтрейде у них изменится, когда сделают поддержку btrfs.
> Хорошо, тогда вам другой человек не указывать будет, а совет давать.
> Советую поставить просто дебиан и следовать инструкции по установке проксмокса поверх имеющейся системы.У меня текущая инсталляция на softraid-зеркале. Пока переустанавливать нет нужды. За совет спасибо, но что-то не хочется...
> Установка на софтрейды принципиально не планируется.
А ZFS у нас, значит, энтерпрайзнее... Печально.
> Предполагаю, что мнение о софтрейде у них изменится, когда сделают поддержку btrfs.
Будем "ждать, надеяться и верить" ©
> Надо. Именно для виртуализации.Выкинь наф эту поделку и сделай себе lxc. Дешево, сердито и ставиться на любую FS.
>> Надо. Именно для виртуализации.
> Выкинь наф эту поделку и сделай себе lxc. Дешево, сердито и ставиться на любую FS.Только тогда, когда в LXC Шindoшs и прочие не-Linux ОС заработают :)
ставь вымой варю
> ставь вымой варюЯ её на работе мою. Пусть там и остаётся. Слишком энтерпрайзно для меня.
ЎҐ, эталонное ынтырпрайзное ненужно, ибо:
- тормоза
- глюки
- проприетарь
- кривизна реализацииКто попробовал КВМ - на вымытую варю даже не посмотрят.
Те кто пробовал, может, и не посмотрят. Ну а те кто крутят хотя бы несколько десятков гостей под реальной нагрузкой в kvm, думают куда бы мигрировать (это я про себя сейчас). Настройки по умолчанию не пригодны для использования в принципе. Перелопатив документацию RH по kvm и частично по ядру можно настроить на приличный уровень, но сделать круто можно только после экспериментов и тестов длинной в несколько лет. Вот она цена бесплатного софта (уверен, что если заплатить RH, всё сразу будет хорошо). И если линуксы работают под ним более-менее сносно, то Винда сильно страдает от глючности реализации acpi и драйверов версии 0.1 (сами разрабы как бы намекают) (я сейчас про irq not less or equal, вот это всё). Всё вышесказанное относится к Centos (версии 6.6 и 7.0) и Windows (XP,2003r2,7,2008r2). Изменения в xen (я про версии 4.2 - 4.5) выглядят захватывающе и впечатляюще, думаю о миграции. Что до сабжа - не рискнул бы ставить что-то важное, а тем, кто "не хочет разбираться и вникать" рекомендую XenServer.
> И если линуксы работают под ним более-менее сносно,
> то Винда сильно страдает от глючности реализации acpi и драйверов версии
> 0.1 (сами разрабы как бы намекают) (я сейчас про irq not
> less or equal, вот это всё).А как быть тем у кого на Xen или на железе винда такие BSODы выдает? Куда податься?
> Всё вышесказанное относится к Centos
> (версии 6.6 и 7.0) и Windows (XP,2003r2,7,2008r2). Изменения в xen (я
> про версии 4.2 - 4.5) выглядят захватывающе и впечатляюще, думаю о
> миграции. Что до сабжа - не рискнул бы ставить что-то важное,
> а тем, кто "не хочет разбираться и вникать" рекомендую XenServer.То есть ты не работал ни с сабжем ни с XenServer, но рекомендуешь последний. Ну хорошо, примем к сведению.
Гонял вантуз 2008r2 поверх kvm, в прдокшне, acpi работает, глюков нет виртио-устройства быстрые, проброс физ-устройств работает. Настройки дефолтные. Хост виртуализации Убунта 13.10(да, знаю что не лтс). Ничего плохого в принципе не могу сказать, ибо УМВР, ЧЯДНТ.
У меня штук 40 виртуальных машин Windows (2008 R2, немного 2003) на KVM и ничего подобного вашим проблемам не видел, кластеры на CentOS 6.
Рекомендую Xen + lvm + bridge на хосте.
За пару лет и 50+ виртуалок - ни единого разрыва.
ну lvm и bridge это стандарт, а хост у вас какой? шаблонами не поделитесь? я в xen новичок...
> ну lvm и bridge это стандарт, а хост у вас какой? шаблонами
> не поделитесь? я в xen новичок...Можно взять SLES и при установке указать virtualization host.
Потом только в grub указать грузиться в xen ядро.
Получите xen в 2 клика.
> Рекомендую Xen + lvm + bridge на хосте.
> За пару лет и 50+ виртуалок - ни единого разрыва.Аналогично, только kvm + lvm + bridge. Ну еще drbd, либо lvm-mirror, где нужно отказоустойчивое хранилище..
Ох уж мне эти специалисты! Давайте сделаем вид, что это не я написал, а вы сами погоняли разнообразные тесты и поняли, что любое резервирование средствами lvm может (и как правило) драматично сказаться на производительности дисковой подсистемы (мы же беседуем про реальные нагрузки, а не AD на 30 человек, и падение скорости записи на диск вдвое для нас фатально, правда?). Ну а отказоустойчивое хранилище делается накатыванием lvm поверх mdraid1 (если дисков > 4, то можно mdraid6) с последующей закаткой grub в mbr всех дисков.
> Ох уж мне эти специалисты! Давайте сделаем вид, что это не я
> написал, а вы сами погоняли разнообразные тесты и поняли, что любое
> резервирование средствами lvm может (и как правило) драматично сказаться на производительности
> дисковой подсистемы (мы же беседуем про реальные нагрузки, а не AD
> на 30 человек, и падение скорости записи на диск вдвое для
> нас фатально, правда?). Ну а отказоустойчивое хранилище делается накатыванием lvm поверх
> mdraid1 (если дисков > 4, то можно mdraid6) с последующей закаткой
> grub в mbr всех дисков.Не понимаю вот этого возмущения. Я говорю о том, что вижу на тестах и в реальной эксплуатации, у меня кластеры виртуализации используют kvm и в основном с резервированием дискового хранилища, там где это возможно.
Где нагрузка большая на дисковую подсистему по записи, там другие решения. К тому же узкое место в синхронной дисковой репликации только для определенных шаблонов ввода-вывода, а не для всех и не в два раза, как вы тут постулировали.
Какое совпадение. Я тоже из Сибири и тоже рекомендую XenServer если нет задачи изучить виртуализацию изнутри.Я пробовал PVE 3.3. Сыровато выглядит. Хотя многие вещи можно пощупать руками вживую, так сказать. Консоль приятно порадовала. И виртуализация CPU. Но файловер я так и не запустил, плюс требования для этого самого файловера выглядят глупо в сравнении с другими.
Короче если просто пользоваться виртуалками и все - лучше XenServer (он, кстати сейчас без Citrix идет), если поизучать внутренности систем виртуализации - PVE.
PS
У самого работает два кластера XenServer 6.5. Недавно только закончил обновление.
Производительность дисковая примерно одинаковая у PVE и XenServer.
Остальное не заморачивался
тормоза, глюки? какие ещё тормоза?
и дома и на работе стоит ESXi, всё достаточно бодренько
Накатывай поверху установленного debian.
> Накатывай поверху установленного debian.Не хочу. Есть же готовое решение.
Вот и жри чё дают.
Эксперт по сортам?
Капризы как у молодой барышни... Не хочу, не буду, дайте мне все бысто...
> Капризы как у молодой барышни... Не хочу, не буду, дайте мне все бысто...Да ладно? А не политик/маркетолог ли ты, анон? А то мастерски прилюдно передергиваешь.
Вчера проверял - создает Софт-рейд ZFS "искоропки".
> Вчера проверял - создает Софт-рейд ZFS "искоропки".Мне не нужна ZFS. В моём случае это overengineering.
Очень зря плюётесь, товарисч!! На вращение ЗФС-пулы уходит около 1ГБ ОЗУ, но потом есть прозрачное управление всеми дисковыми ресурсами, начинающееся с простого добавления диска в пул. Сначала попробуйте. Мне очень понравилось.Год назад я констатировал факт, что ЗФС на Линухе стабильна, работает хорошо. И нифига это не оверинжениринг.
Я считаю, что на стервере пердуализации больше вращаться не должно ничего. Только среда.
Ещё, если у вас 1 машина - просто ставьте virsh + virt-manager_на_вашей_машине. Этого хватит с головой, ибо Прохмох и Опенстек - это облачные решения.
Если чего - не стесняйтесь спрашивать. Расскажу.
> Очень зря плюётесь, товарисч!! На вращение ЗФС-пулы уходит около 1ГБ ОЗУ, но потом есть прозрачное управление всеми дисковыми ресурсами, начинающееся с простого добавления диска в пул. Сначала попробуйте. Мне очень понравилось.Я не плююсь. Не имею ничего против. Просто лично мне это не нужно.
> Год назад я констатировал факт, что ЗФС на Линухе стабильна, работает хорошо. И нифига это не оверинжениринг.
У меня нет лишней оперативной памяти. Даже 1 гигабайта.
> Я считаю, что на стервере пердуализации больше вращаться не должно ничего. Только среда.
Гм. А у меня там четверг. В смысле Proxmox. И htop+mc+most для мониторинга/настройки через консоль.
> Ещё, если у вас 1 машина - просто ставьте virsh + virt-manager_на_вашей_машине. Этого хватит с головой, ибо Прохмох и Опенстек - это облачные решения.
Нет, нода Proxmox у меня - отдельная пекарня. И вопрос был не на что поменять Proxmox, а почему туда затолкали ZFS, но не хотят MD-raid.
> Если чего - не стесняйтесь спрашивать. Расскажу.
Спасибо. Я бы спросил, но попозже. Как с Вами связяться?
> Очень зря плюётесь, товарисч!! На вращение ЗФС-пулы уходит около 1ГБ ОЗУ, но
> потом есть прозрачное управление всеми дисковыми ресурсами, начинающееся с простого добавленияА в btrfs "уходит" хорошо, если десятая часть от этого
> диска в пул. Сначала попробуйте. Мне очень понравилось.
пробовал - не понравилось )
> Год назад я констатировал факт, что ЗФС на Линухе стабильна, работает хорошо.
> И нифига это не оверинжениринг.Ога, ошенно стабильна: https://github.com/zfsonlinux/zfs/issues
> Я считаю, что на стервере пердуализации больше вращаться не должно ничего. Только
> среда.А я хотел еще и четверг там завращать...
> Ещё, если у вас 1 машина - просто ставьте virsh + virt-manager_на_вашей_машине.
> Этого хватит с головой, ибо Прохмох и Опенстек - это облачные
> решения.вот тут согласен
> Если чего - не стесняйтесь спрашивать. Расскажу.
Не стесняясь спрошу - как, используя KVM, делать инкрементальный бэкап ВМ хотя-бы на qcow2, не говоря о уже о raw?
> как, используя KVM, делать инкрементальный бэкап ВМ хотя-бы на qcow2, не говоря о уже о raw?- Так делается в опенстеке: http://wiki.qemu.org/Features/Snapshots2
- А ещё можно LVM и Zpool.> А я хотел еще и четверг там завращать...
Тяпницу бы....
> пробовал - не понравилось )
Должен не согласиться, ибо понравилось :)
>> как, используя KVM, делать инкрементальный бэкап ВМ хотя-бы на qcow2, не говоря о уже о raw?
> - Так делается в опенстеке: http://wiki.qemu.org/Features/Snapshots2Это в каком таком "опенстеке" так делается и где бы найти исходники всего этого добра?
> - А ещё можно LVM и Zpool.
LVM не предлагать, а по Zpool - а примерчиков?
>> пробовал - не понравилось )
> Должен не согласиться, ибо понравилось :)Неа, не понравилось...
ZFS это вкусно...
Стоит ли на него мигрировать с CitrixXenServer?
> ZFS это вкусно...
> Стоит ли на него мигрировать с CitrixXenServer?Другая причина: у КВМ оверхеда меньше чем у Ксена. И это уже сегодня. Притом, я ничего не говорил про ЛХЦ. Конечно же стоит!
Ты утверждаешь, тебе и доказывать, г0вна кусок
ИМХО The Best. Пользуюсь долгое время. Нареканий нет.
Хм-м-м... Я вот в компании все Windows-серверы перевёл на CitrixXenServer.
Работает всё стабильно. Мигрирует надёжно, есть возможность создания кластеров хост-машин.
Единственное неудобство - скупой Openxenmanager под Linux...
Я вот и задумался: имеет ли смысл менять CitrixXenServer на Proxmox?
Есть ли какие вкусные особенности в Proxmox?
> Хм-м-м... Я вот в компании все Windows-серверы перевёл на CitrixXenServer.
> Работает всё стабильно. Мигрирует надёжно, есть возможность создания кластеров хост-машин.
> Единственное неудобство - скупой Openxenmanager под Linux...
> Я вот и задумался: имеет ли смысл менять CitrixXenServer на Proxmox?
> Есть ли какие вкусные особенности в Proxmox?Подскажите адекватну линуховую управлялку под XenServer, чтобы хотя-бы с HA была?
>> Единственное неудобство - скупой Openxenmanager под Linux...
> Подскажите адекватну линуховую управлялку под XenServer, чтобы хотя-бы с HA была?Вот и я говорю: скупой Openxenmanager.
Вполне удобный CitrixXENxenter, но он "ожесточённо" под Windows.
А вот в truecolor управление раскрывается из командной строки.
>>> Единственное неудобство - скупой Openxenmanager под Linux...
>> Подскажите адекватну линуховую управлялку под XenServer, чтобы хотя-бы с HA была?
> Вот и я говорю: скупой Openxenmanager.
> Вполне удобный CitrixXENxenter, но он "ожесточённо" под Windows.
> А вот в truecolor управление раскрывается из командной строки.А вот тут можно проявить себя идеалы OpenSource и сделать под НЕвинду.
Исходники XenCenter доступны
>>>> Единственное неудобство - скупой Openxenmanager под Linux...
>>> Подскажите адекватну линуховую управлялку под XenServer, чтобы хотя-бы с HA была?
>> Вот и я говорю: скупой Openxenmanager.
>> Вполне удобный CitrixXENxenter, но он "ожесточённо" под Windows.
>> А вот в truecolor управление раскрывается из командной строки.
> А вот тут можно проявить себя идеалы OpenSource и сделать под НЕвинду.
> Исходники XenCenter доступныНет никаких возражений!
Одна оговорочка: я не программист. Ну не дал бог такого склада ума. :)
Я в состоянии попытаться найти "нескладухи" и поправить чей-то код, а вот свой создать не могу...
> Хм-м-м... Я вот в компании все Windows-серверы перевёл на CitrixXenServer.
> Работает всё стабильно. Мигрирует надёжно, есть возможность создания кластеров хост-машин.
> Единственное неудобство - скупой Openxenmanager под Linux...
> Я вот и задумался: имеет ли смысл менять CitrixXenServer на Proxmox?
> Есть ли какие вкусные особенности в Proxmox?Пока рано. может через годик-другой можно будет смотреть. сам знакомился, но решил остаться на XS
На proxmoxе торренттв тормозило, на xenserverе таких тормозов заметно меньше.
Что у них там за zfs реализация, интересно.
Ничего интересного, она единственная под Linux — http://zfsonlinux.org/
А как они обошли несовместимость лицензий?
> А как они обошли несовместимость лицензий?Модуль для ядра.
фаерволл реально работает??
для виндовых гостей?
Нет. Только виртуально.
я в плане того..
можно ли на виндового гостя ограничить доступ на rdp только с определенных айпишников
остальных гостей не трогая
> я в плане того..
> можно ли на виндового гостя ограничить доступ на rdp только с определенных
> айпишников
> остальных гостей не трогаяНиразу не пробовал на боевых серверах это настраивать.
Вообще, там создаются правила для iptables, можно просто самому сделать любые правила.
Я обожаю анально огораживать серверы: если там вебсервер с чем-то установленным мною же, то изнутри запрещаю соединяться ко всему, а снаружи разрешаю только хождение по 80 порту.
Внутри поковыряться могу и через vzctl enter
>> Добавлена поддержка горячего подключения устройств (hotplug) для виртуальных машин, которая позволяет на лету добавлять виртуальные накопители, сетевые карты и USB-устройства;Я джва года ждал
>>> Добавлена поддержка горячего подключения устройств (hotplug) для виртуальных машин, которая позволяет на лету добавлять виртуальные накопители, сетевые карты и USB-устройства;
> Я джва года ждалПрисоединяюсь )
P.S.: Хотя в qemu это около того срока и существовало )
Это сто лет как было, просто "рычажка" в веб-интерфейсе не было.
"man qm" в консоли проксмоска и искать по слову hotplug.
> Это сто лет как было, просто "рычажка" в веб-интерфейсе не было.
> "man qm" в консоли проксмоска и искать по слову hotplug.
>сто летВрёте, батенька: https://www.google.com/search?q=qemu+hotplug&biw=1106&bih=73...,cd_min:1914,cd_max:1915&tbm=
Дак ты с 1915г ищи.
мы только ушли с Проксмокса.
А они обновы кидают.
Ушли куда? Почему? Сообществу интересно )
> мы только ушли с Проксмокса.
> А они обновы кидают.И вправду интересны причины смены гипервизора.
Я правильно понял, что Proxmox теперь нормально работает c EXT4 на хостовой системе?