Состоялся (https://www.proxmox.com/en/news/press-releases/proxmox-ve-4-...) релиз Proxmox Virtual Environment 4.1 (http://www.proxmox.com), специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа (http://www.proxmox.com/downloads/) 685 Мб. Начиная с выпуска 3.1 по умолчанию предлагается платный репозиторий Enterprise, возможность использовать бесплатный репозиторий сохранена (http://pve.proxmox.com/wiki/Package_repositories) и он является достаточно стабильным, но создатели дистрибутива не гарантируют качество его работы не рекомендуют к промышленному использованию.Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).
В новом выпуске (http://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_4.1):
- По умолчанию включена поддержка NTP;- Улучшено поведение при запуске и завершении работы (systemd);- В инсталляторе реализована возможность определения до 8 дисков для ZFS;- Для KVM в GUI добавлена опция для агента QEMU и добавлена возможность обновления прошивок для загрузки по сети;- Улучшен интерфейс настройки отказоустойчивых конфигураций для пользователей с ограниченными правами доступа;- Для LXC представлена возможность изменения размера rootfs через GUI. Реализована поддержка непривилегированных контейнеров. Добавлена поддержка Fedora 22, Debian stretch/sid и Ubuntu 15.10.- Добавлена поддержка динамического выделения места в хранилище ("thin provisioning") на основе LVM (Logical Volume Manager); - Возможность использования образов LXC-контейнеров от проекта Turnkey Linux (https://www.opennet.me/opennews/art.shtml?num=42988); - Добавлена команда pvereport.
URL: https://www.proxmox.com/en/news/press-releases/proxmox-ve-4-...
Новость: http://www.opennet.me/opennews/art.shtml?num=43504
based on Debian Jessie 8.2.0
Linux kernel 4.2.6
improved startup/shutdown behavior (systemd)
enable NTP by default
installer: allow up to 8 disks for ZFS
KVM: add qemu agent GUI option
KVM: update network boot ROMs
Improve HA GUI for users with restricted permissions
add Galician language to GUI
LXC: add rootfs resize to GUI
LXC: add support for Fedora 22 and Debian stretch/sid, Ubuntu 15.10
LXC: support unpriviledged containers (technology preview)
storage: added LVM thin support (technology preview)
Support for Turnkey Linux LXC appliances
added new pvereport command
ай малаца, умеете пользоваться ctrl+c
всяко лучше умею, чем топикстартер английским языком
и ctrl-v
возможно еще ctrl-a
> KVM: add qemu agent GUI optionДавно пора!
> enable NTP by default
А разве не было?
Как по производительности по сравнению с Xenserver?
Относительно ВМвари с производительностью было грустно, относительно железки совсем грустно.
Тото VMware выдохлась, не успев появиться на spec.org )
все это замечательно, но LXC выглядит уныло относительно openvz. Нет ploop, mount bind экспериментальный, выпускать LXC окружения наружу не рекомендуют. Грустно смотрится все это. Но ждать команде proxmox, когда команда openvz разродится новым стабильным ядром было не вариант.
> Нет ploopА в чём его преимущество перед тем же raw фалом? он всё равно не ужимается. И лежать умеет только на NFSv3 и ext4 с строго заданым набором опций монтирования.
> mount bind экспериментальныйНе использовал, не знаю.
> выпускать LXC окружения наружу не рекомендуютДиванные эксперты? Для них да, даже на lo вешать не рекомендуется.
> когда команда openvz разродится новым стабильным ядром было не вариант.Всё верно. Пока они пилят поддержку, у ядра заканчивается срок поддержки.
>А в чём его преимущество перед тем же raw фалом? он всё равно не ужимается. И лежать умеет только на NFSv3 и ext4 с строго заданым набором опций монтирования.когда у вас с десяток контейнеров с кучей мелких файлов и все лежит на ФС, бекапить все это дело становится долго.
>Не использовал, не знаю.
я активно использую, например для того, чтобы вывести статический контент из сайтов в контейнерах на HN и не бекапить его каждый раз, тк бекап делается долго и медленно, см. пункт 1.
>Диванные эксперты? Для них да, даже на lo вешать не рекомендуется.
https://service.ait.ac.at/security/2015/LxcSecurityAnalysis.txt
ознакомьтесь с этой ссылкой.
а что, статический контент - это такой уж большой объем в вашем случае? и он совпадает у всех 10 вм? к тому же скорость от дисков зависит...
> когда у вас с десяток контейнеров с кучей мелких файлов и все лежит на ФС, бекапить все это дело становится долго.ты што, норкоман шоле? там лвм же.
>>А в чём его преимущество перед тем же raw фалом? он всё равно не ужимается. И лежать умеет только на NFSv3 и ext4 с строго заданым набором опций монтирования.
> когда у вас с десяток контейнеров с кучей мелких файлов и все
> лежит на ФС, бекапить все это дело становится долго.Я говорил не о simfs а о хранении на lvm, в файле.
> https://service.ait.ac.at/security/2015/LxcSecurityAnalysis.txt
> ознакомьтесь с этой ссылкой.Там ничего нет про удалённые уязвимости. А значит не разумно рекомендовать lxс только для локалхоста. А то, что можно вылезти за пределы и так понятно, но все пилится и развивается.
Не вижу унылости. С 2012 контейнеры у меня работают как часы в количестве трех штук на старом железе. Не провайдер а частная фирма.
> Не вижу унылости. С 2012 контейнеры у меня работают как часы в
> количестве трех штук на старом железе. Не провайдер а частная фирма.сразу видно какие у вас требования к доступности сервиса и объемах внедрения.
У меня было требования перенести с трех железяк на одно железо. Миграция прошла быстро и успешно по переносу Ubuntu Server.
add qemu agent GUI option ???
как понимаю нужно будет в гостевой винде ставить тулзу?
а где визуально то обраджаться этот гуи будет?? в окне vnc подключения??
кстате еще появился vm protection mode
>Замена VMware vSphere, Microsoft Hyper-V и Citrix XenServer.С амбициями в Proxmox все хорошо.
Годовая стоимость поддержки в vSphere такая же как и у этих товарищей.
Только за vSphere надо будет отчехлить по количеству сокетов (кроме поддержки, которая 10% от первоначальой стоимости), плюс $6000 за vCenter, а за MS - сначала прочитать толмуды по лицензированию и тоже отчехлить (про "поддержку" MS, надеюсь рассказывать не нужно?).А ещё давайте-ка посчитаем vSphere+VSAN (c поддержкой на год) супротив Proxmox+Ceph, например на сокетов 20. И?
P.S.: сфера (особенно Enterprise Plus) - жутко крутая и фичастая штука. Но: 1) мы вроде-как на opennet, 2) эти фичи иногда совсем не уперлись.
Я не спорю, всё это так и круто будет если подобные решения будут ставить у нас например в гос струкрурах, где это уместно.До недавнего времени работал в одной из гос структур, так там впустую ухайдакивали миллионы на блэйдценты с всферами, просто для "освоения".
Похоже на сравнение цен оракл и _обычной_бд_, виндосервера и _алтеранативы_, т е сравнение бессмысленно, т к фичи более дорогой фигни либо нужны либо нет, а цена не важна.
а что ceph уже можно пользоваться?... сколько пробовал не взлетало.
...а некоторые госструктуры уже имеют кластер на сабже, кто знает может режим экономии других наставит на этот путь
Как по мне, сейчас единственная серьёзная проблема - это встроенный файрвол. Я натыкаюсь постоянно на его неадекватность и ненадёжность.LXC разочаровал . В OpenVZ я выделил 200 гигов виртуалке, просто от балды. Ну и при конвертировании получил 200 raw. Он дырявый, но всё равно рано или поздно он превратится в живые 200 гигабайт. Надо завязывать со всем кроме KVM.
KVM - это лишний оверхед. Зачем он нужен, если хоть использует какое же ядро как и хост. Будущее за контейнерами. Проблема только в том, что не все еще допилено.
Где там на сайте описание как безболезненно и удаленно перейти на c 3-ей ветки на 4-ую
при том условии что машина сидит на зеркальном райде
В гугле забанили ?
> В гугле забанили ?а о том что зеркальный райд кроме ZFS официально не поддерживается и установить на SoftRAID можно без проблем только с версии 3.3 (в 3.4 по умолчанию еще EFI раздел вставляется который не зазеркалить) и обновление может пройти с бешеными костылями вплоть до выезда до места сервера
Гугл об этом молчит!
> Где там на сайте описание как безболезненно и удаленно перейти на c
> 3-ей ветки на 4-ую
> при том условии что машина сидит на зеркальном райдеКакой рейд, наверно, не важно - если он аппаратный. Но у меня переход по инструкции не получился - сервер не отвечал. Разбираться я не стал.
>> Где там на сайте описание как безболезненно и удаленно перейти на c
>> 3-ей ветки на 4-ую
>> при том условии что машина сидит на зеркальном райде
> Какой рейд, наверно, не важно - если он аппаратный. Но у меня
> переход по инструкции не получился - сервер не отвечал. Разбираться я
> не стал.в том то и дело что SoftRAID
> KVM - это лишний оверхед. Зачем он нужен, если хоть использует какое же ядро как и хоствот вы и ответили себе - зачем нужен KVM ;)
Ну и "Проблема только в том, что не все еще допилено."
Изменять размер диска на лету уже можно?
И раньше можно было, что в lvm, что в zfs.
lvm нужно еще передернуть 3мя командами.