Вышел (http://forum.proxmox.com/threads/9416-Proxmox-VE-2-1-released!) релиз Virtual Environment 2.1 (http://www.proxmox.comProxmox), специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание виртуальных серверов с использованием OpenVZ и KVM. Сразу после установки пользователь получает полностью готовую систему виртуальных серверов промышленного уровня с управлением через web-интерфейс. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Размер установочного iso-образа (http://www.proxmox.com/downloads/proxmox-ve/iso-images/114-p...) 367 Мб.
Для управления дистрибутивом присутствует web-интерфейс, который рассчитан на управление сотнями или даже тысячами виртуальных машин. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).
Основные улучшения Proxmox 2.1:
- Устранены ошибок, связанных с новым методом (http://pve.proxmox.com/wiki/Virtual_Machine_Startup_and_Shut...) запуска и остановки виртуальных машин, представленном в версии 2.0;
- Для пользователей, без расширенных прав доступа, упрощён управляющий GUI-интерфейс;
- Реализована возможность задания порядка запуска и выключения виртуальных машин;
- Улучшено ведения лога задач, выполняемых в процессе запуска узлов;
- Добавлены переводы элементов интерфейса на русский язык;
- До версии 1.4.3 обновлён кластерный стек corosync, используемый для организации кластерных коммуникаций;
- Обновлена версия LVM 2.02.95.URL: http://forum.proxmox.com/threads/9416-Proxmox-VE-2-1-released!
Новость: http://www.opennet.me/opennews/art.shtml?num=33723
Заголовок исправьте, 2.0->2.1.
Обнадеживает.
Ставил 2.0 версию 2 раза на чистую. В обоих случаях не удавалось ничего загрузить в стораж через веб морду или даже создать виртуалку из-за некой ошибки worker error 500 что-то там права и абракадабра. Все делал от рута, поэтому странно. В гугле подобных ошибок нет, что еще более странно.И еще в догонку. На их сайте написано, что их ядро не поддерживает софт рейд. Значит ли это, что если замениить ядро на уже настроенной машине на ихнее рейд не определится? Нужно ли вообще их ядро использовать, может только для openvz?
Странно, я тоже делал с нуля (2.0), несколько инсталляций и ошибок не видел. На мой взгляд, все встало удивительно ровно. После установки только сертификаты для https заменил, да на "десктопной" ноде собрал `r8168` для встроенной сетевухи.Что касательно софтрейда, вроде пилили там в последнее время (но не уверен, поскольку этой фичей не пользуюсь).
> И еще в догонку. На их сайте написано, что их ядро не
> поддерживает софт рейд. Значит ли это, что если замениить ядро на
> уже настроенной машине на ихнее рейд не определится? Нужно ли вообще
> их ядро использовать, может только для openvz?поддерживает, не поддерживает создание при установке. Просто разработчики считают эту технологию нестабильной.
Софт рейд они принципиально поддерживать не хотят, но в 1.9 у меня получилось настроить руками, правда в этом случае проще вообще Proxmox не использовать.P.S.
И ещё они пишут, что ядро RHEL 2.6.32 . Версия 1.9 не могла на серваке найти железный рейд, хотя Scientific Linux отлично установился на это же железо.
ставь дебиан как тебе нравится, включая софтрейд, потом накатывай proxmox все работает , проверено
Сегодня проксмокс обновился до 2,1. Выше описанная проблема вроде бы исчезла. По крайней мере, удалось залить 1 темплейт в стораж (потестить не успел). При загрузке через веб морду файл все еще кешируется в оперативке. При объеме файла в 1,9 Гб, а рамы 2Гб почти полностью занимается еще и своп (который вроде бы несколько гигов), что есть странно. Десяток минут адских тормозов системе обеспечен. Надо копировать образа и темплейты напрямую при возможности.
Это конечно обычный писюк на коре ай 3.
А готовая инсталляция дебиана с рейдом есть, поэтому и интересуюсь.Интересно, если на серврере будет крутится 1-2 виртуалки и я добавлю еще свой писюк в кластер, который будет работать только 8-9 часов в рабочие дни, то можно ли будет получить такой-то профит в виде автоматической репликации и даже отказоустойчиваости? Проксмокс нормально отнесется к тому, что одна нода почти все время в дауне?
>Десяток минут адских тормозов системе обеспеченсказал одмин локал хоста
> сказал одмин локал хостаСказал админ мега корпорации, очевидно. =)
Ты настолько крут, что свои компы и сервера уже не админишь, это же так мелко? Нанимаешь админов поменьше (потоньше)?
Конфиг ядра можно выдернуть из текущей версии но собрать более новое. В ядре нет ничего необычного
> Конфиг ядра можно выдернуть из текущей версии но собрать более новое. В
> ядре нет ничего необычногоРаботать будет, апгрейдить и поддерживать сложно. Я тоже собирал одно время, потом решил, что лучше надоедать разработчикам апстрима. Там и народу на тестировании больше, а то иногда было, что фиксил багу, через некоторое время появлялось две.
Согласен, что потом это придется поддерживать самому, но во всем есть минусы. Я не пользователь дебиана, но неужели к нему нет альтернативных пакетов с ядром, новых и при этом чтобы это кто нить поддерживал постоянно?
Набор ядер для дебиана есть, для proxmox-а нет. То есть, приходим к тому же самому.
Как это поделие поставить на машину с UEFI?
Как и обычный Debian.
ProxMox использует их пакетную базу.
Так почему с диска не получается загрузится, и на диске ни слова про uefi?
> Так почему с диска не получается загрузится, и на диске ни слова
> про uefi?1. Ставьте с usb;
2. Ставьте Debian, добавляйте репозиторий proxmox и вперед.
> Так почему с диска не получается загрузится, и на диске ни слова
> про uefi?Где вы этот уефи нашли? В большинстве материнок это только графическая оболочка, у некоторых ряд функций уефи для определения дисков и прочего можно включить опционально. Тогда да, и диски могут не видется. Но я эту настройку видел только в ноуте за 60 штук.
Новые сервера. Если отключить uefi - не получится создавать разделы больше 2 TB.
Уже есть надежные и быстрые рейдовые диски такого раздела? (если речь про сервера)
Тут народ молча намекает на LVM2 и прочие плюшки
> Уже есть надежные и быстрые рейдовые диски такого раздела? (если речь про
> сервера)
> Тут народ молча намекает на LVM2 и прочие плюшкиМеня и медленные устраивают. И lvm мне на фиг не нужен.
пробовал proxmox + kvm. жутко маленькая скорость сети из гостя во внешку(хоть даже до хоста, на котором kvm и запущена). 140-260 Mbits/sec! Это провал. virtio дрова не спасают. твики винды не спасают http://www.linux-kvm.org/page/WindowsGuestDrivers/kvmnet/reg... Для сравнения, скорость host-host 952 Mbits/secПретензия больше к kvm, а не proxmox.
openvz работает идеальноПерехожу на esxi (которая спокойно поняла iscsi+lvm raw "винты", созданные в proxmox. ничего конвертировать не пришлось)
kvm тут не причём. У меня ещё на Debian 5 выдавала ~790-800Мбит/с при скорости между хостами 900. Впрочем гости тоже были линуксовые.
Там проблема в чём-то другом, у меня с kvm под proxmox 1.9 такая же ерунда была - если замерять то между хостами 800-820 МБит/с , а работать с виртуалками больше чем одному человеку просто невозможно, особенно самба вешается, иногда по несколько секунд ждёшь чтобы директорию посмотреть. Решили это только тем что всех линуксовых гостей на ovz перенесли.
> Там проблема в чём-то другом, у меня с kvm под proxmox 1.9
> такая же ерунда была - если замерять то между хостами 800-820
> МБит/с , а работать с виртуалками больше чем одному человеку просто
> невозможно, особенно самба вешается, иногда по несколько секунд ждёшь чтобы директорию
> посмотреть. Решили это только тем что всех линуксовых гостей на ovz
> перенесли.1. какие драйверы в гостевой ОС
2. какая гостевая ОС?
3. версии kvm и qemu?
Гости были debian 5.0.7 amd64 , драйвера пробовали и virtio и rtl8139 , без большой разницы. Хосты - cpu Xeon X3450, ядро 2.6.32-6-pve x86_64 от pve , qemu 0.15.0 от них же. Виртуалки стояли поверх drbd, крутился стандартный вебдизайнерский набор - apache, mysql, samba. Вобщем ощущение было такое что по какой-то причине появляется дикая латентность, особенно если несколько человек с одной виртуалкой работают, хотя пропускная способность в порядке. Долго исследовать это не могли, перенесли всё на ovz , там работает как надо.
уже в который раз слышу такие вещи о kvm бегущем на дебиан/убунту, причем повторить проблему на федоре/RHEL не получается
Оно всё ещё на Lenny?
Нет
> Оно всё ещё на Lenny?squeeze