The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Выпуск Proxmox VE 9.0, дистрибутива для организации работы виртуальных серверов

05.08.2025 22:01

Опубликован релиз Proxmox Virtual Environment 9.0, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix Hypervisor. Размер установочного iso-образа 1.6 ГБ.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса: поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Осуществлён переход на пакетную базу дистрибутива Debian 13, релиз которого ожидается 9 августа. По умолчанию задействовано ядро Linux 6.14. Обновлены версии QEMU 10.0.2, LXC 6.0.4, OpenZFS 2.3.3 и Ceph Squid 19.2.3.
  • Представлен новый web-интерфейс для мобильных устройств, написанный на языке Rust с использованием web-фреймворка Yew. Интерфейс автоматически применяется при доступе с мобильных устройств вместо штатного Proxmox VE GUI и позволяет быстро оценить состояние гостевых систем, задач, хранилищ и других ресурсов. Через мобильный web-интерфейс также можно изменять базовые настройки и выполнять типовые операции, такие как запуск и остановка виртуальных машин.
  • Добавлена поддержка нового механизма создания снапшотов виртуальных машин, который можно использовать с любыми системами хранения, поддерживающими блочное хранилище, включая SAN на базе iSCSI и Fibre Channel. Функциональность реализована через снапшоты как цепочки томов (volume), в которых том, основанный на снапшоте, сохраняет только отличия по сравнению с родительским томом. Поддержка снапшотов на основе цепочек томов также доступна для хранилищ Directory, NFS и CIFS.
  • Предложен новый механизм "HA affinity rules", позволяющий управлять распределением виртуальных машин в кластере и размещением ресурсов в отказоустойчивых конфигурациях. Механизм даёт возможность определять правила привязки ресурса к определённому узлу или закрепления ресурсов между собой. Например, зависящие друг от друга ресурсы, такие как сервер приложений и связанная с ним база данных, могут быть размещены вместе на одном физическом узле для минимизации задержек при обмене данными. С другой стороны, для сервисов, требующих максимальной избыточности, можно настроить разнесение обработчиков по разным узлам. Например, для обеспечения отказоустойчивости можно настроить запуск виртуальных машин, выполняющих одно и то же критически важное приложение, всегда на разных узлах.
  • В стеке программно определяемых сетей (SDN, Software-Defined Networking) появилась функция SDN Fabric, упрощающая настройку и управление сложными маршрутизируемыми сетями из соединённых между собой узлов. Для повышения надёжности SDN Fabric может направлять межузловой трафик по разным маршрутам и автоматически обрабатывать сбои сетевых карт. SDN Fabric упрощает управление динамически маршрутизированными сетями, которые могут использоваться для создания кластера Ceph или в качестве основы для построения VPN-сети. Из протоколов маршрутизации поддерживаются OpenFabric и OSPF.
  • Предоставлена возможность прозрачного обновления с ветки Proxmox VE 8.x до выпуска 9.0.
  • В OpenZFS реализовано добавление на лету новых дисков в существующий массив RAIDZ, что позволяет увеличить размер хранилища без остановки работы и без необходимости создания новой группы накопителей. Перераспределение избыточных данных с учётом новых дисков осуществляется автоматически.




  1. Главная ссылка к новости (https://www.proxmox.com/en/abo...)
  2. OpenNews: Выпуск Proxmox VE 8.4, дистрибутива для организации работы виртуальных серверов
  3. OpenNews: Доступен дистрибутив Proxmox Backup Server 3.3
  4. OpenNews: Выпуск дистрибутива Proxmox Mail Gateway 8.2
  5. OpenNews: Выпуск дистрибутива Proxmox Mail Gateway 8.0
  6. OpenNews: Выпуск дистрибутива Proxmox Mail Gateway 8.0
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/63688-proxmox
Ключевые слова: proxmox, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (122) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.2, Аноним (2), 23:10, 05/08/2025 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • –20 +/
     
  • 1.3, Rev (ok), 23:17, 05/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    Офигенная штука! Отличные новости о релизе!
    Кстати, ядро 6.14 у них давно в репе, пару недель юзаю - вполне всё хорошо.
     
     
  • 2.10, dalco (ok), 03:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +6 +/
    Если честно, то к ядру 6.14 у части народа были вопросы. В основном, переставал корректно работать проброс реального железа через PCIe.
    В общем, кто пользуется этой фишкой - не торопитесь.
     
     
  • 3.15, 12yoexpert (ok), 07:00, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –5 +/
    какой ты честный, респект
     
     
  • 4.67, Аноним (67), 11:19, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    ну мы же не на двачах - тут все мои друзья!
     
  • 3.111, Олег (??), 21:01, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Очень важное замечание
    Спасибо
    Повременим теперь с апгрейдами
     

  • 1.4, Аноним (4), 00:32, 06/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Просто интересно, крупные облачники что используют? Сабж реально настолько "промышленного уровня" как о нем написано?
     
     
  • 2.6, pofigist (?), 01:17, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Нет. СОХО-решение.
     
     
  • 3.7, Аноним (7), 01:33, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Для СОХО не чересчур ли функционал?
     
     
  • 4.8, pofigist (?), 01:35, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Да нет - базовый, для запуска кластера из нескольких год.
    То что они называют sdn - не sdn, а так... Костыль.
     
     
  • 5.21, Аноним (21), 07:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А чего не хватает? Мне просто любопытно. Никогда не сталкивался с таким спектром задач.
     
  • 5.24, нах. (?), 08:05, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > Да нет - базовый, для запуска кластера из нескольких год.
    > То что они называют sdn - не sdn, а так... Костыль.

    другого sdn у меня для вас (страдальцев с линуксом) больше нет. Все понамногообещавшие решения уже проплыли кверху вздувшимся брюхом по реке мимо. Используйте нормальную СХД, а не этовот. (только убедитесь что ваше "6.14" не встает колом при переключении путей)

    Кстати, кто в теме - пресловутый zVirt уже слез с дохлого гластера или все как было?

     
     
  • 6.29, pofigist (?), 08:14, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Ты sdn и sds часом не перепутал?
     
     
  • 7.31, nikweter (?), 08:18, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +3 +/
    он тупенький, ему простительно
     
  • 7.44, Tron is Whistling (?), 09:28, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Да не только он перепутал.

    А расскажите, зачем вам SDN в небольших масштабах?

     
     
  • 8.60, нах. (?), 11:02, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    дык - за свитчи нормальные чтоб не платить они ж называют sdn пяток вланов н... текст свёрнут, показать
     
  • 7.55, пох. (?), 10:46, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    а, точно. С snd (почти) все в порядке - они вроде бы даже научились через менюшки с окошком настраивать вланы на ovs а не "редактируйте вручную interfaces на всех двадцати хостах"

     
     
  • 8.119, pofigist (?), 22:25, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Нет не почти Почти это когда ты тупо подключаешь физические интерфейсы Надя к o... текст свёрнут, показать
     
  • 6.42, Tron is Whistling (?), 09:27, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    SDN это 3.14ц, если честно. Одни ребята собрали - радовались-не нарадовались, пока при блэкауте не легли пара ДЦ разом. А потом плакали, потому что оно легло целиком, а время развёртывания бэкапа в таких объёмах получилось кошмарное.
     
     
  • 7.43, Tron is Whistling (?), 09:27, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    SDS, то есть, сорян, я тут SDN с SDS перепутал.
     
     
  • 8.56, нах. (?), 10:47, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    у кого чего болит, да... текст свёрнут, показать
     
  • 8.122, pofigist (?), 22:42, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    С sds в линаксе совсем беда - нет нижнего уровня Совсем Zfs не кошерен, в ядро... текст свёрнут, показать
     
     
  • 9.130, Tron is Whistling (?), 09:03, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Не нужно Так-то всё описанное к SDS отношения почти не имеет SDS - это не о ... текст свёрнут, показать
     
  • 9.135, nikweter (?), 09:53, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Конечно Напишите как со всем этим в винде ... текст свёрнут, показать
     
  • 6.73, User (??), 11:56, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну, тут главное - внимательно смотреть, чтобы унутре "мамой клянус, нормальной!" СХД вот ОНО не оказалось. Или даже совсем ОВНО, ага - глянь на aerodisk, у них там имопортозамещенная гиперковергентная софтваребейзед распределенная аналоговнета ARDFS
     
  • 6.109, RHEL fan (?), 20:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    А с нормальными СХД proxmox только только работать научился, вон прям в новости написано.
    zVirt это ж oVirt, который уже все. Слабо верится, что они там сами что-то пишут.
     
     
  • 7.136, nikweter (?), 09:55, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    А почему овирт все?
     
     
  • 8.137, нах. (?), 10:11, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    главный сказал - всьо ты же знаешь, кто тут главный Нимишайти продавать впо... текст свёрнут, показать
     
  • 7.138, нах. (?), 10:23, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    а где тут - "научился"? Он вроде кое-как научился видеть схдшные снапшоты (в принципе, мог бы и не видеть, какая печаль... они ж от него вообще никак не зависят, стоп вм, ролбэк, старт, он даже не заметит, висел блок дивайс на конце fc, он и остался, главное не на ходу чтобы) - отличное достижение к аж девятой версии, не?

    > zVirt это ж oVirt, который уже все. Слабо верится, что они там сами что-то пишут.

    Вон, пишутЪ что запилили аж лайв мигрейшн. Шта? Нет, не померещилось. У оригинала ее... нетЪ!
    https://www.ovirt.org/develop/release-management/features/storage/storagelivem
    (В смысле - это было такое вот планов громадье, но что-то помешало им осуществиться. Вероятно - то что планировщиков уволили нахрен.)

    Там другое смешно - sds у овирта был основан на (тогдашнем окончательном ит д) гластере. Гластер полетел в окошко еще впереди овирта. И? Ииииии?! И ничего. В смысле, ТАКОЕ болгеносерам разумеется не потянуть.

    И из работающего внезапно остается... nfs. Здрасьте, приехали.

    А потом аерофлот чем-то недоволен... да им молиться на тех хакеров надо, что на них все свалить можно, а не само паламалася и никто не знает с какого конца подойти.

     
  • 6.115, Аноним (115), 21:53, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Там сейчас новое подкатывают - устор. Отечественный вариант, но за лицензии платить отдельно.
     
  • 4.9, Роман (??), 02:09, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Пользую как раз и для дома и для малого офиса: Есть все для удобной работы в браузере, но без сугубо жнтерпрайзных штук.

    Часто пользуют для хомлаб, когда на стареньком ПК или современном миниПк ставят PVE, а в нем уже всякие хомфассистанты, расы, среды разработки и торрентокачалки. И все это с минимальнызюм погоном вхождения.

    Для офиса с парой-тройкой серверов удобно раздавать доступы и мигрировать виртуалки с сервера на сервер

     
     
  • 5.23, Леонид (??), 07:56, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Можешь рассказать о железе узла виртуализации?
    Сравнивал с чем либо из российских продуктов?
     
     
  • 6.35, Роман (??), 08:51, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Можешь рассказать о железе узла виртуализации?

    - В офисе серваки 15 летней давности (часть померла уже) и mac mini 12 года
    - Дома на мини ПК от intel N4000 до Ryzen 5825U

    > Сравнивал с чем либо из российских продуктов?

    Очень бегло, с учетом того, что поднималось все еще до начала активного импортозамещения и бюджеты примерно околонулевые, то приходится работать с бесплатным опенсорсом

     
     
  • 7.57, нах. (?), 10:48, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > - В офисе серваки 15 летней давности (часть померла уже) и mac mini 12 года

    все что надо знать о целевой аудитории...

     
     
  • 8.62, Роман (??), 11:08, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я рад за вас, что Вы крутой спец, обслуживающий фермы серверов в выделенном дата... текст свёрнут, показать
     
     
  • 9.74, нах. (?), 12:03, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    дык ничего личного, это наезд на проксмокс и авторов новости копипастящих ту уны... текст свёрнут, показать
     
  • 9.81, Аноним (81), 12:42, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Здесь не требуется каких-то особых знаний и навыков Если базиса у пользователя ... текст свёрнут, показать
     
     
  • 10.85, нах. (?), 13:24, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –2 +/
    ну вот ты и звиздуй к устройству из где ты там в отпуске шляешься Юзеру надо на... текст свёрнут, показать
     
     
  • 11.87, Аноним (81), 14:41, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Когда я в отпуске, работают другие админы Кнопку Reset пользователю нужно уме... текст свёрнут, показать
     
     
  • 12.106, нах. (?), 19:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    классная работа Много денег поди плотют а мы вот бездельничаем Кнопку ресет п... текст свёрнут, показать
     
     
  • 13.132, Аноним (81), 09:28, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Все относительно По рынку и мне достаточно Пытаешься как-то мой ответ обесцени... текст свёрнут, показать
     
  • 8.105, Аноним (105), 18:34, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    А у нас около полутора сотен железных серверов, половина набита видюхами, которы... текст свёрнут, показать
     
     
  • 9.107, нах. (?), 19:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    а какую крипту майните ... текст свёрнут, показать
     
  • 6.38, dalco (ok), 09:06, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вот, например, один из наших узлов...
    Gigabyte R262-ZA2
    AMD EPYC 7643 48-Core (96vCPU)
    1Tb RAM
    2x3.84Tb SSD + 2x7.68Tb SSD - под виртуалки
    2x18Tb - под локальные бэкапы и прочий хлам

    Проблем нет. Всё работает ровно так, как нам и надо.
    Крутится что-то около 50-70 виртуалок (когда как).

    В комплекте с Proxmox Backup Server (несколько штук на других машинах) получается очень приятная система.

     
     
  • 7.41, Tron is Whistling (?), 09:25, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    2x3.84Tb SSD + 2x7.68Tb SSD - под виртуалки

    То есть миграция невозможна? А если нода ляжет?

     
     
  • 8.45, dalco (ok), 09:35, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    К сожалению, это не нода, а отдельный сервер Хотя я давно говорил начальству, ч... текст свёрнут, показать
     
     
  • 9.47, Tron is Whistling (?), 09:47, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ну как почему, общей хранилки нет Возможна миграция с переносом хранилища - но ... текст свёрнут, показать
     
     
  • 10.49, dalco (ok), 09:55, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Для случая упавшей ноды там есть другой вариант Когда, грубо говоря, просто ра... текст свёрнут, показать
     
     
  • 11.63, Роман (??), 11:15, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    gt оверквотинг удален В идеале делать отказостойчивость на L7 надо, но это рес... текст свёрнут, показать
     
     
  • 12.82, dalco (ok), 12:56, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Нам пока оно не требовалось, но, надеюсь, когда-нибудь сделаем всё по-взрослому ... текст свёрнут, показать
     
  • 5.25, нах. (?), 08:07, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –4 +/
    > Пользую как раз и для дома и для малого офиса: Есть все
    > для удобной работы в браузере, но без сугубо жнтерпрайзных штук.

    а зачем тебе - БРАУЗЕР для работы - с системой виртуализации?
    Он тут вообще-то совершенно лишний. Сугубо ентер-прайсная штука (впрочем, тоже так себе).

    Вам же дали нахаляву vmware WS - казалось бы, можно жить а не страдать.

     
     
  • 6.30, nikweter (?), 08:16, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А твоя ws умеет между нодами онлайн миграцию ВМ делать?
     
     
  • 7.58, нах. (?), 10:51, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    там вон выше расписано про "онлайнмиграции" для типичного потребителя этой шв@60дкиной технологии.
    С инкрементальными бэкапами на коленке и подобной ересью.

    (ну собственно, он-то все правильно сделал - из того что было. Про трехнодовый ceph совершенно верно - забыть как страшный сон)

     
     
  • 8.93, KRom (ok), 15:57, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    А можно поподробней Я как раз ждал выхода 9 версии PVE и думал поднять 3 нодовы... текст свёрнут, показать
     
     
  • 9.104, нах. (?), 18:34, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +2 +/
    оно сдохнет Не экспериментируй ни с тремя, ни с четырьмя Ну то есть туда можно... текст свёрнут, показать
     
     
  • 10.131, Tron is Whistling (?), 09:05, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Полностью двачую После нескольких заходов на цеф осознал, что повех цефа нужен ... текст свёрнут, показать
     
     
  • 11.140, нах. (?), 10:28, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    не поверх а рядом Чтоб было на что бэкап раскидывать Ну когда у тебя единица р... текст свёрнут, показать
     
  • 7.65, penetrator (?), 11:17, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    онлайн миграция отличный маркетинговый булшит для виртуализированных продаванов

    а в реальности оно и без миграции тупит, а во время миграции так вообще не пригодно для сколь-нибудь массивного прода

    так и смысл? миграцию между серверами я лучше через балансировку буду делать и репликацию

    а не на уровне блочных устройств

     
     
  • 8.71, нах. (?), 11:32, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Смотрите, смотрите - эксперт пожаловал Мы с феликс эдмундовичем вот вчерась пря... текст свёрнут, показать
     
  • 8.78, Роман (??), 12:20, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не надо путать высокую доступность и миграции, даже онлайн Я согласен, что мигр... текст свёрнут, показать
     
  • 8.108, Tron is Whistling (?), 19:59, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Не знаю, нам live migration столько времени и волос на опе спасла, что просто бе... текст свёрнут, показать
     
     
  • 9.126, нах. (?), 22:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    у них - серверов полторы Некуда мигрировать Было б куда - и оно бы уже тоже ок... текст свёрнут, показать
     
  • 9.133, penetrator (?), 09:41, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    я не понимаю в унылых терминах про полторы апликухи спрячься за балансировщик ... текст свёрнут, показать
     
     
  • 10.134, Tron is Whistling (?), 09:43, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Всё просто если у тебя все апликухи умеют в L7-балансировку по двум нодам или т... текст свёрнут, показать
     
     
  • 11.139, penetrator (?), 10:27, 07/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    можно и L4, зависит от приложения, но от апликух ничего экстраординарного не тре... текст свёрнут, показать
     
  • 6.33, Роман (??), 08:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ну как минимум для удобного и быстрого доступа к консоли виртуалки На одном объ... большой текст свёрнут, показать
     
  • 6.46, Аноним (46), 09:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    затем что это удобно и просто. В консоль любой виртуалки можно зайти потыкать.
     
     
  • 7.59, нах. (?), 10:58, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –2 +/
    это настолько удобно и просто что я всюду таскаю за собой ЭТО вот:
    function start-vmrc($vmname) {
      $vm = Get-VM -Name $vmname
      $sessionMgr= Get-View $DefaultViserver.ExtensionData.Client.ServiceContent.SessionManager
    $url = "vmrc://clone:{0}@{1}/?moid={2}" -f $sessionMgr.AcquireCloneTicket(), $DefaultVIServer.serviceuri.Host, $vm.ExtensionData.moref.value
      &"\Program Files (x86)\VMware\VMware Remote Console\vmrc.exe" $url
    }
    (попячено с серверфолта, не благодарите. И да, знаю что криво, не пайплайнится)
    - уверяю тебя, я уже все свои чорные дела сделаю и домой уйду пока ты будешь мышиком клац-клац-клац до нужной вмки (особенно когда их побольше одной и ищешь ты ее через поиск, потому что иначе хрен найдешь)
    Даже с учетом того что у меня там будет не "безопастная vnc консоль" а еще одно окошко браузера без надобности вручную устанавливать угадай-как-мы-его-назвали пакет со SPICE, а скриптлетом стартует совсем отдельный тормоз на J#.

    Отдельно прикольно будет понатыкать что-то в консоли с могильника и немножко промахнуться по буковке.

     
  • 3.110, Юрий (??), 20:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ну в этом релизе наконец-то нормальная поддержка FiberChannel SAN со снапшотами. А это уже не SOHO.
     
     
  • 4.116, RHEL fan (?), 21:56, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, она там условно нормальная, ближе к начальной. Но лучше, чем было, это да.
     
  • 2.12, WE (?), 05:01, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Смотря какая у вас промышленность, и какая задача ставится. Если 10 виртуалочек на нём поднять и делать вид, что он в кластере, то сгодиться.
     
  • 2.16, 12yoexpert (ok), 07:01, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +3 +/
    > Сабж реально настолько "промышленного уровня" как о нем написано?

    думаю, имеется ввиду, что его используют только эникейщики на российских заводах, что полностью соответствует действительности

     
     
  • 3.20, Аноним (20), 07:49, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    там, скорее всего, альт виртуализация :-)
     
     
  • 4.26, нах. (?), 08:08, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > там, скорее всего, альт виртуализация :-)

    это не для завода. Завод денег ЭТИМ не даст.


     
  • 4.28, pofigist (?), 08:12, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Там астра.
     
  • 3.22, User (??), 07:53, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Эээээ... ни на одном не видел. Там или (теперь) трофейная vmware (Hyper-V не прижился) или вот уже чего-то импортозамещенно-сертифицированное навроде Бреста, хоста, zсквирта или еще какой нечисти - а уот это уот... Не, не видел. И не слышал даже.
     
  • 3.36, leap42 (ok), 08:58, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    В своё время я работал на удалёнке в стартапе из Кремниевой Долины, у них был Proxmox (я сам удивился тогда). Не для всего правда, только для внутренней инфраструктуры. Клиентские сервисы все были в облаках.
     
     
  • 4.61, нах. (?), 11:05, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    для стартапа в режиме быстро-быстро что-то выкатить и свалить в закат - ничего удивительного в общем-то. Денег платить за вмварь надо у инвестора клянчить, а он - жяяяядный.

    "за эти деньжищи я могу еще одного хорошего инженера нанять, или полтора не очень" (c) как раз инвестор.

     
  • 3.112, Юрий (??), 21:15, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ммм, ты мне "эникейщику" хочешь предложить кусок говна под названием OpenNebula, который так и не умеет в нормальные снапшоты с FC SAN? Теперь уверен, что OpenStack такая же переоцененная параша, требующая серьезных программистов для допиливания.
     
     
  • 4.118, 12yoexpert (ok), 22:16, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    извини, в сортах говна не разбираюсь. с требованиями о предложениях обратись к начальнику смены
     
  • 4.121, нах. (?), 22:32, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    В смысле? Открыл америку. опенстек всегда и был набором кубиков (точнее разной кривизны очень сложных деталей с произвольным количеством и качеством граней) которые без напильника и клея друг к другу подогнать невозможно, и к внешней среде приспособить получившееся тем более.
    Но поскольку у очень-больших все равно стоит задача как-то это все допилить до связности с той самой внешней средой - им проще решение из кубиков чем готовый проект в котором просто все работает из коробки, но не так как им вписывается в корпоративный дизигн. При этом одинаковые кубики таки масштабируются до бесконечности или во всяком случае около того.

    nebula ему не нравится, блин. ты еще nova не видел. И никаких тебе "fc san" - те кто размером с типичного потребителя опенстеков - разорятся на них и их поддержке. На те cinder, и п3рд0лься с ЕГО снапшотами как хошь.

    А рабы, которые соберут всю эту кучу во что-то работающее - они, в перспективе - дешовые.


     
     
  • 5.125, Юрий (??), 22:51, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Понятно что "кубики", но из реально рабочего на Linux только Proxmox. ИМХО, я приветствую нормальные продукты, более-менее похожие на коммерческие. Допилы до корпоративного уровня - это уже совсем другие бюджеты и единичные конторы, которые могут себе это позволить. Что-то я сомневаюсь, что вы один из таких программеров, а иначе копаться в них смысла нет - гробить свое время ни на что.
     
     
  • 6.128, нах. (?), 23:26, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Понятно что "кубики", но из реально рабочего на Linux только Proxmox.

    ну если тебе из коробки, больше чем один сервер, и чтоб бесплатно ass in free bear - то да.

    А вот если ты уже дорос со своим ass a service до состояния когда "а давайте подключать коммерческих юзеров к нашей инфре за малую мзду, ресуры-то есть" - то опаньки... чо, вот так и высунешь вебморду проксы на улицу? Вот именно - придется пилить.
    То же самое если станет ясно что возможности бухгалтерии по апгрейду твоей хранилки исчерпались и дальше начинаются какие-то астрономические ценники. (а проксин цеф таки  не является готовым надежным решением)

    В общем, в какой-то момент орава таких пильщиков в растущей конторе таки набирается и уже может запилить и нечто более сложное чем обертки над коммерческим решением забесплатно. Ну или деньги падают с неба и ораву приводит очередной интегратор (а ты останешься за ними выгребать).

    Копаться самому смысл только посмотреть не получится ли продаться этим большим в розницу и хочешь ли ты быть таким рабом в принципе. У себя дома под столом ты точно этого не хочешь, да и денег не напасешься (питоноподелки прожорливы).

     
  • 2.27, нах. (?), 08:09, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –4 +/
    Ну вот айерофлот слыхал о таком использовал zVirt Не помогло Думали что про... большой текст свёрнут, показать
     
     
  • 3.32, Аноним (32), 08:40, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +2 +/
    С виндой в корпоративной сети и украинскими подрядчиками с доступами вообще без разницы, что использовалось в этом эрофлоте. Чтобы "помогло" надо менять кадры и строить процессы принципиально по-другому. Корпоративная модель условно мирного времени (и растущего рынка) принципиально не способна защищаться от настоящих угроз. Даже против мамкиных хакеров с бюджетом в 1000 долларов не способна. Против поддерживаемых спецслужбами вообще без шансов.
     
  • 3.54, n1kt0 (??), 10:14, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >>>без этих вот вещей претендовали

    Этих это каких этих?

     
     
  • 4.64, нах. (?), 11:15, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    вот прямо по списку:
    Добавлена поддержка нового механизма создания снапшотов виртуальных машин
    (как у взрослых, то есть, а не то куемовое недоразумение непонятно для чего нужное)

    Предложен новый механизм "HA affinity rules", позволяющий управлять распределением

    ну это вообще с добрым утром.

    В стеке программно определяемых сетей (SDN, Software-Defined Networking) появилась функция SDN Fabric, упрощающая настройку и управление сложными маршрутизируемыми сетями из соединённых между собой узлов. Для повышения надёжности SDN Fabric может направлять межузловой трафик по разным маршрутам и автоматически обрабатывать сбои сетевых карт.

    ну охренеть, достижение. (да, понятно, что бондинг наше всьо, но если карт недофига что делать-то будим? Перемешаем управление, ха и юзерский сегмент в один транк, конечно же! (и недо-sds туда же)

    Ну и это только девятая версия. Восьмая тоже была с богатым списком умений наконец-то удалять гланды - и с такой же рекламой что мы де почти как вмваря и хуперве только шв.... ass in free beer!

     
     
  • 5.72, n1kt0 (??), 11:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я думал Вы конкретное что то хотите, сильно ентерпрайзное, а у вас сарказм.

    Такое ощущение что Вы им грузовик денег отвезли а они демоноиды Вам не сделали что то! Ребята вообще ни на что не претендуют, просто пилят что могут и за что им клиенты отвалили денек.
    Я согласен что данный проект не совершенен, но и в таком виде не плох.

     
     
  • 6.76, нах. (?), 12:11, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Я думал Вы конкретное что то хотите, сильно ентерпрайзное

    да какое там сильно энтерпрайзное если у тебя host affinity - уот, в свежайшей недо-бете появился.

    > Такое ощущение что Вы им грузовик денег отвезли а они демоноиды Вам
    > не сделали что то! Ребята вообще ни на что не претендуют,

    дратути. А кто ж это вот написал - "способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix Hypervisor", кто это сделал?!

    > Я согласен что данный проект не совершенен, но и в таком виде
    > не плох.

    это ты четвертую версию не видел просто ;-)

    Мне оно больше кажется похожим не на "клиенты отвалили", а скорее на хобби-проект. В качестве которого вполне в общем и ничего - "вот, взяли набор шв... бесплатного софта и приделали к  нему вебморду и еще нескучный рест апи" (что там помимо морды - учоные спорят).
    "вышло внешне даже похожее на как у больших, и даже можно иногда пользоваться, аккуратно обходя грабли"

    Ну а что он еще и спонсируемый - повезло ребятам.

     
     
  • 7.77, n1kt0 (??), 12:20, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    >>> А кто ж это вот написал

    Дык, кто новость написал. Сами то они пишут что им перестала нравится вари и они запилили свой KVM  с LXC и не скошной webкой.

    >>>это ты четвертую версию не видел просто ;-)

    Угумс, только с 5ки счупать начал.

    >>>а скорее на хобби-проект.

    Так и было, сами на сайте и пишут

    >>>Ну а что он еще и спонсируемый - повезло ребятам.

    Ну как повезло, когда варю штормит, то за CPU то за хост то за ядро денег хотят (а давайте вот возьмём и разорвём все контракты и заново подпишем, афигеть идея). Любой начинает смотреть по сторонам в поисках более тёплой норы.
    Ну и да, ребята взяли стандартный софт и над ним сделали просто webку. Мне кажется что есть смысл.

     
     
  • 8.79, нах. (?), 12:31, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    поставиться на zfs mirror мы можем, но загрузиться уже не - И другие забавны... текст свёрнут, показать
     
     
  • 9.114, Аноним (21), 21:50, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –2 +/
    esxi - так это и есть ужасная поделка ... текст свёрнут, показать
     
  • 7.120, RHEL fan (?), 22:27, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Да хрен бы с ним, с аффинити, там дрс все равно нет, виртуалки сами никуда не ездят. Но они запилили конвертер для вари, а поддержки схд не было и не понятно, что вмварщики со своими хранилками должны были делать, на помойку нести или через блокбридж подключать.
     
     
  • 8.123, нах. (?), 22:44, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    там evc нет, что хужее Любая live-migration может обернуться not-so-live если с... текст свёрнут, показать
     
  • 2.37, Аноним (37), 08:59, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Используют. Например: мангохост, хосткей, хостингер, каматера и целая куча других. Вроде бы, облако аэрофлота полностью или частично на proxmox.
     
  • 2.39, Tron is Whistling (?), 09:23, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Крупные в основном используют openstack. Но для него нужен масштаб (два датацентра из 10 серверов не покатят) + его рехнёшься поддерживать.
     
     
  • 3.40, Tron is Whistling (?), 09:24, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    openstack/KVM, если точнее

    Amazon модифицированный Xen использует - но Amazon это особая тема.

     
     
  • 4.52, Аноним (52), 10:06, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    openstack/KVM на домашних серверах не получится запустить?
     
     
  • 5.90, Tron is Whistling (?), 14:50, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > openstack/KVM на домашних серверах не получится запустить?

    Почему, получится, но чтобы что-то работоспособное получить (не лабу) - вам их потребуется достаточно много

     
  • 4.66, RM (ok), 11:17, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Amazon модифицированный Xen использует - но Amazon это особая тема.

    Это было давно и неправда ;)
    Гамазон уже давно почти всю виртуализацию воплотил в железячных решениях, что бы накладные расходы прцессора на виртуализацию уменьшить и больше хомячков упаковать на один хост.
    (Kurwa, я написал это предложение не использовав ни одного слова - кальки с англосакского!)

    кому интересно - читайте их технопоп материалы про Nitro.

    А live migration у aws до сих пор не просматривается.

     
     
  • 5.80, нах. (?), 12:33, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > А live migration у aws до сих пор не просматривается.

    одноразовым инстансам оно как-то и не очень надо.
    Неодноразовые принято держать у себя под столом, на амазоне обойдется дороже и будет всем хуже.

    > ни одного слова

    "хост" - пересдача. Написал бы "коробка", почти и не соврал бы.

     
     
  • 6.95, RM (ok), 16:07, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Неодноразовые принято держать у себя под столом, на амазоне обойдется дороже и будет всем хуже

    это понятно уже давно, но к сожалению "не только лишь всем"
    кроме того хасты имеют тенденцию из одноразовых становиться многоразовыми, если очень хочеться что бы хоть как-то (прямо как резинотехнические изделия), пока девляпсы как всегда все пролюбили и пайплайн не арбайтен.

    > "хост" - пересдача

    да, бегу учить уроки


     
  • 6.98, Аноним (98), 16:39, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Неодноразовые принято держать у себя под столом, на амазоне обойдется дороже и будет всем хуже.

    Геораспределённый стол с зонами доступности и избыточным подключением к магистралям. Куплю дорого.

    А чтобы не было дорого на амазоне надо уметь им пользоваться.

     
     
  • 7.99, нах. (?), 17:28, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    некоторые вещи, не поверишь, до сих пор не геораспределяются. Вообще. Никак.

    Не все в мире можно уложить в одноразовые микросервисы.

     
  • 7.102, RM (ok), 18:05, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    так было все.
    стойки в датацентрах на разных континентах, забитые серверами, с подключением к 2-3 tier1 интернет провайдерам, напрямую к fiber ring не воткнулись только потому что не было достаточно шарящего в BGP человека.
    нет, lift and shift в облако, оборудование на свалку.
    а потом "а че это xlarge сервер такой дорогой?" а там всего 2 ядра
     
  • 4.70, penetrator (?), 11:26, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    уже давно нет

    поделие их для EC2 называется AWS Nitro и основана на KVM

    Xen был лет 10 назад

    P.S. не забуду добавить, что AWS и прочие гиперскейлеры - тормознутое оверпрайснутое ражно

     
     
  • 5.88, Tron is Whistling (?), 14:48, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Amazon EC2 supports the following hypervisors Xen and Nitro Nitro-based instan... большой текст свёрнут, показать
     
     
  • 6.96, RM (ok), 16:09, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    там есть волшебные слова "current generation instances"
     
  • 5.89, Tron is Whistling (?), 14:49, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Но да, судя по всему, уходят на Nitro.
     
  • 2.48, nebularia (ok), 09:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Про облачников хз, корпы в основном на вмвари. Те, кого видел на проксмоксе из разряда "решили сэкономить на виртуализации и пытаются как-то на этом ехать"
     
     
  • 3.91, Tron is Whistling (?), 14:51, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Мы на XenServer (ISP, можно считать корпом). Просто вот реально всё посмотрели - и ничего кроме VMWare и XenServer не зашло, но VMWare в нашем применении - это слишком дорого.
     
  • 2.50, Аноним (52), 10:05, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Крупное или мелкое не знаю, отель 5 звезд  на одном из курортов, на прошлой работе, запустили на сабже новые виртуалки, старые остались на Hyper-V,
     
  • 2.92, BAZ_Megodriver (?), 15:55, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    В то время как тут разные умники пыхтарят разную чушь:
    У меня прод среды с 2014 ( версия 3.x )
    19 хостов и 350 виртуалок в самой большой, тз тех, что я обслуживаю.

    Из шероховатостей текущей версии:
    Рюшики в виде отчётов и перформанс каунтеров из коробки отсутствуют.Через доп.софт/родная функциональность в разработке.
    Синхронизация виртуалок между хостами/кластерами специфическая (У конкурентов она реализуется только дополнительным не дешевым софтом).
    CEPH уступает VSAN по производительности и эффективной ёмкости.(Raid 1 vs Raid 5)

    Крупные облачники используют OpenStack - он как раз и придуман для Больших и Очень больших сред. Среднюю там даже не выгодно поднимать.

     
     
  • 3.103, нах. (?), 18:13, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    вот изумительно - как можно "прод среды с 2014", и не знать про ceph osd pool create <pool> erasure ? Хотя бы в теории. Мышиком клик-клик-клик?

    (осторожно, в именно таком виде эта команда создаcт при314зднутую конфигуру непригодную ни для какого мыслимого практического применения, да еще и фс на ней создать нельзя - но это обычно для ceph, пользуемые им должны гордиться умением преодолевать трудности)

     

  • 1.83, Аноним (83), 13:17, 06/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Прекрасно себя зарекомендовал даже в довольно крупных кластерах(5к машин)
     
  • 1.94, dalco (ok), 16:00, 06/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Кстати, только-только зарелизился и Proxmox Backup Server 4.xx
     
  • 1.97, Аноним (98), 16:35, 06/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Оно уже научилось не прибивать OOM киллером виртуалки в дефолтной конфигурации?
     
     
  • 2.101, нах. (?), 17:52, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    просто выключи оверкомит. И наслаждайся невозможностью запустить даже третью виртуалку.
    (как ты себе технически представляешь отсутствие оом-киллера при оверкомите - я даже предположить боюсь)

     
     
  • 3.113, Аноним (98), 21:39, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Всего на сервере 32GB RAM, на нём запущено 3 VM: 16, 8 и 4 GB RAM соответственно. Всем трём лимит памяти задан статически, balloning отключен. Время от времени OOM убивает одну из виртуалок. Я понимаю, что система там может что-то очень важное делает и ей не хватает гигабайтов, вопрос почему OOM не настроен не трогать critical path для работы vm. Ей-богу, пусть лучше sshd убьёт, ребут ноды запланировать куда проще — два клика и готово.
     
     
  • 4.117, нах. (?), 22:09, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    ну а ЧТО у тебя в системе управляющей виртуалками - не "critical"?

    Собственно, отключай оверкомит (в чем проблема-то) и убедись - даже не запустится у тебя третья. А может и вторая тоже.

    Можно вместо этого руками расставлять oom-scores, ну у тебя и навернется все управление - так что и консоль не откроешь.

    > Ей-богу, пусть лучше sshd убьёт

    не лучше, потому что того ssh'а у тебя... где он там:
    4     0   1319      1  20   0  72304  1452 -      Ss   ?          1:52 /usr/sbin/sshd -D
    ну и чем тебе помогут полтора килобайта? (и даже все 72 виртуальных)

    > Ей-богу, пусть лучше sshd убьёт, ребут ноды запланировать куда проще — два клика и готово.

    Куда ты кликать-то собрался? sshа нет, вебмордочку тоже убили (еще килобайт аж шесть сэкономили), а памяти как не было свободной, так и нет ее. Тут только по кнопке reset кликнуть можно, физической, если в твоем подкроватном сервере предусмотрена. Хорошо если еще к самой виртуалке для шатдауна подключишься, там в общем нет ничего в userspace кроме самого kvm.

    Ну нету у тебя памяти на три таких прожорливых. Либо докупай эту самую память, либо занимайся кроиловом с baloon (оно в квм так себе работает, так что вряд ли поможет) либо за новым "сервером" в ларек. Ну сколько такое недоразумение у тебя может стоить - тыщ 20 наверное? Если виртуалка не ценнее разовой выплаты такой суммы - ну выключи ее к чертям.

     
     
  • 5.127, Аноним (98), 23:07, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Куда ты кликать-то собрался?

    В pdu на иконку с розеткой, куда ж ещё, ssh-то лежит.

    > Ну нету у тебя памяти на три таких прожорливых.

    4ГБ свободно. Дисковый кэш системы вмки не юзают, грузятся с жёстких дисков напрямую (sdb/sdc/sdd). Какие должны быть накладные расходы на ядро и сетевой мост, чтобы такое происходило?

    > за новым "сервером" в ларек

    Не, проще выкинуть. Пока кроме электричества ничего не жрёт, то как стенд для лабы пусть трудится, иначе — в шреддер.

     
     
  • 6.129, нах. (?), 23:41, 06/08/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Дисковый кэш системы вмки не юзают, грузятся с жёстких дисков напрямую (sdb/sdc/sdd).

    я не уверен что это ТАК работает. В теории могло бы но вот не факт что тут получилось.

    > Какие должны быть накладные расходы на ядро и сетевой мост, чтобы такое происходило?

    top запустить да и посмотреть, что, никак?
    Помимо ядра и сетевого моста у тебя нескучный вебсервер с нескучным rest api, и еще пачка интересных вещей (кстати, совершенно непонятно, зачем они в твоей схеме нужны. И что мешало без всяких проксмоксов запустить три раза команду kvm прямо из шелла.)

    А в свете современный технологий кодинга - 4g под систему управления в общем-то и ниочем.

    Name    cpudemand guest mem host mem
    ----    --------- --------- --------
    vCenter      1262      6615    19552

    и это ночью, когда к нему и обращений-то нет.

     

  • 1.100, нах. (?), 17:50, 06/08/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ой, смотрите чё нашел:
    https://mylemans.online/posts/Ceph-Upgrade-Reef-to-Squid/
    https://mylemans.online/posts/Proxmox-Upgrade-8-to-9/

    слабоумие и отв... и слабоумие.

    (правда, он говорит что это хомлаба и ее типа видимо не очень жалко)

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2025 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру