The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Новая версия системы управления инфраструктурой виртуализации oVirt 3.2

20.02.2013 18:38

Представлен релиз проекта oVirt 3.2, в рамках которого развивается основанная на гипервизоре KVM и библиотеке libvirt система для развёртывания, сопровождения и мониторинга набора виртуальных машин и управления облачной инфраструктурой. Код oVirt был изначально разработан и открыт компанией Red Hat, и включает в себя наработки, созданные в процессе разработки платформы Red Hat Enterprise Virtualization. После открытия кода к разработке oVirt присоединились такие компании, как Canonical, Cisco, IBM, Intel, NetApp и SUSE.

Целью oVirt является создание стека, охватывающего все уровни виртуализации - от гипервизора до API и GUI-интерфейса. Несмотря на то, что в качестве основного гипервизора в oVirt позиционируется KVM, интерфейс реализован как надстройка над библиотекой libvirt, которая абстрагирована от типа гипервизора и подходит для управления виртуальными машинами на базе различных систем виртуализации, включая Xen и VirtualBox. В составе oVirt развивается интерфейс для быстрого массового создания высоко доступных виртуальных машин с поддержкой средств Live-миграции окружений между серверами без остановки работы.

Платформой предоставляются средства для создания правил динамической балансировки и управления ресурсами кластера, механизмы управления энергопотреблением кластера, инструменты управления образами виртуальных машин, компоненты для конвертирования и импорта существующих виртуальных машин. Поддерживается единое виртуальное хранилище данных, доступное с любого узла. Интерфейс содержит развитую систему отчётов и средства администрирования, позволяющие управлять конфигурацией как на уровне инфраструктуры, так и на уровне отдельных виртуальных машин.

Основные нововведения, добавленные в версии oVirt 3.2:

  • Поддержка разработки и распространения плагинов с реализацией элементов пользовательского интерфейса, интегрируемых в web-портал администратора (WebAdmin). Для разработки плагинов используется язык JavaScript и специальный API для интеграции с функциями web-портала oVirt. Плагины выполняются в контексте клиентского web-браузера и взаимодействуют с серверной частью только через доступный API;
  • Режим зеркалирования портов, позволяющий направить копию сетевого трафика в определённую виртуальную машину. Виртуальный сетевой адаптер при этом начинает отслеживать весь трафик выбранной логической сети, который включает в себя трафик других виртуальных машин;
  • Поддержка Live-миграции хранинища, что позволяет переносить диски виртуальных машин между разными устройствами хранения, не требуя остановки виртуальных машин. Поддержка обновления доменов хранения в Live-режиме - данные виртуальных машин могут быть перенесены со старого типа датацентра на новый домен V3 без остановки виртуальных машин. Также добавлена возможность создания на лету снапшотов виртуальных машин;
  • Расширение интеграции с распределенной файловой системой GlusterFS: средства для импорта существующих кластеров GlusterFS, поддержка однонаправленной гео-репликации, поддержка выполнения асинхронных работ с разделами Gluster, настройка конфигурации через CLI-интерфейс с автоматической синхронизацией изменений, средства мониторинга работы GlusterFS и просмотра детальной информации через web-интерфейс, инструмент для оптимизации Gluster-разделов для использования в системах виртуализации;
  • Переработка консольного интерфейса TUI, используемого для настройки oVirt Node. Новый интерфейс основан на библиотеке urwid и прост для добавления расширений. По сути каждая страница в TUI-интерфейсе выполнена в виде плагина, взаимодействующего с базовой частью TUI через ограниченный набор методов, что позволило разделить компоненты, отвечающие за логику работы и внешний вид;
  • Поддeржка добавления дополнительных функций в oVirt Node через плагины. В частности, в форме плагинов теперь поставляются модули с поддержкой SNMP и CIM;
  • Переработана система квот, в том числе логика работы, метод расчёта квот и мониторинг за их соблюдением;
  • В интерфейс пользователя добавлена поддержка использования символов UTF8 для именования виртуальных машин, шаблонов, снапшотов и псевдонимов дисков;
  • Поддержка проброса смарткарт в виртуальные машины пользователей. Проброс может быть организован через административный интерфейс, web-интерфейс пользователя или через REST API;
  • В интерфейсе пользователя появилась новая вкладка "Network", на которой собраны все связанные с сетью параметры и обеспечена возможность поиска сетей. Во вкладку "Storage" добавлен раздел "Disks", позволяющий быстро посмотреть, добавить или удалить диски из домена хранения.


  1. Главная ссылка к новости (http://lists.ovirt.org/piperma...)
  2. OpenNews: Релиз системы управления виртуализацией oVirt 3.1
  3. OpenNews: Первый публичный релиз oVirt, системы управления инфраструктурой виртуализации
  4. OpenNews: Лидеры индустрии объявили об участии в проекте oVirt
  5. OpenNews: Релиз распределенной файловой системы GlusterFS 3.3
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/36150-ovirt
Ключевые слова: ovirt, cloud, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (56) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Омский линуксоид (ok), 19:18, 20/02/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Вовремя. Омские линуксоиды одобряют. Правда пользую сейчас Archipel. Есть где-либо грамотное сравнение подобных систем?
     
     
  • 2.8, kerneliq (ok), 20:45, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Archipel это же вечная бета.
     

  • 1.2, Аноним (-), 19:21, 20/02/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Кто нибудь знает почему oVirt нету в Debian ?
     
     
  • 2.3, кверти (ok), 19:32, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    не уверен, но с высокой долей вероятности отсутствие связано с банальным отсутствием мэйнтэйнеров в дебиане для поддержки oVirt
     
  • 2.4, WhiteWind (??), 19:44, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • –5 +/
    Потому что сильно завязано на RedHat, а документации толковой нет. Вы когда-нибудь пытались поднять, например, clvm на дебиане?
     
     
  • 3.7, Romik (??), 20:39, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Не завязано там на Red Hat. Тем более clvm/clvmd.
     
     
  • 4.16, АнонимусРекс (?), 23:23, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Большая часть коммитов как раз из Red Hat, но дело и впрямь в отсутствии мейнтейнеров. Да и гонять виртуалки на Дебиане/убунту - это же надо себя не любить настолько...
     
     
  • 5.19, ssh (ok), 01:05, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    В чем заключаются трудности с Debian? OpenVZ из пакетов взлетает и летит. ;) Тот же proxmox основан на Debian и тоже отлично работает.
     
     
  • 6.21, АнонимусРекс (?), 01:08, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > В чем заключаются трудности с Debian? OpenVZ из пакетов взлетает и летит.
    > ;) Тот же proxmox основан на Debian и тоже отлично работает.

    в дебиане весь стек виртуализации собирается двумя левыми ногами с бодуна. ну или просто вообще никак не тестируется - проблем, которых нет даже в rawhide федоры просто куча.

     
     
  • 7.31, Аноним (-), 10:19, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Поэтому Debian с OpenVZ используют в продакшене в отличии от федоры. У вас с логикой всё ок?
     
     
  • 8.35, AnonymousRex (?), 12:19, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    это не логика, а опыт последние 5 лет в основном работаю с kvm... текст свёрнут, показать
     
  • 8.37, Дима (??), 17:41, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вы ни чего не перепутали Как можно сравнивать KVM и OpenVZ Совершенно не сравн... текст свёрнут, показать
     

  • 1.5, Аноним (-), 20:01, 20/02/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Хорошо бы сделали поддержку NFS-виртуалок (у которых рут на NFS). Ну и работу с ZFS-овскими хранилищами.
     
     
  • 2.6, BratSinot (ok), 20:29, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    RedHat, какой к черту ZFS?
     
     
  • 3.10, Stax (ok), 21:22, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Да обычный такой ZFS. С iSCSI, FC или IB-таргета с хранилища на солярке. Отлично совместимо с oVirt.
     
     
  • 4.18, VoDA (ok), 00:14, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Red Hat ... С iSCSI, FC или IB-таргета с хранилища на солярке.

    Red Hat ... на солярке ...

    А нафига им поддерживать конкурента? ;)

     
     
  • 5.20, АнонимусРекс (?), 01:06, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Red Hat ... С iSCSI, FC или IB-таргета с хранилища на солярке.
    > Red Hat ... на солярке ...
    > А нафига им поддерживать конкурента? ;)

    там поддерживается FC/iSCSI/FCoE/IB/NFS. Все это вполне можно экспортировать откуда угодно, хоть из винды

     
  • 5.22, Stax (ok), 01:49, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Да я вам просто решение подсказываю. Вы же хотели совместить oVirt и ZFS. Вот, совместили. Между прочим, реально неплохой профит можно поиметь с такого совмещения (гибридный сторейдж - емкие SAS + быстрые кэширующие SSD в ZFS, очень полезно для виртуалок).
     
  • 2.27, scout (??), 08:26, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Можно создать zpool на солярке и раздавать его по iscsi. Там из коробки есть такой функционал.
     
     
  • 3.32, Аноним (-), 11:36, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Это понятно, но NFS интереснее. Файловое дерево всех сразу легко доступно, снапшоты/клонирование/откаты делать удобнее, меньше вероятность что виртуалка снесет свою собственную файловую систему из-за глюка.

    Кстати, ZFS и под линуксом уже довели до юзабельного состояния.

     
     
  • 4.33, scout (??), 11:52, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    в продуктиве использую )
     

  • 1.11, фыва (?), 21:24, 20/02/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    а proxmox (DEBIAN) и oVirt это два сапога пара?
    или в чем различие??
     
     
  • 2.12, кверти (ok), 21:59, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    единственное, в чём их схожесть - использование KVM(ну и линукс как платформа, естественно). Ты бы ещё спросил "а HyperV и VMware это два сапога пара?"
     
     
  • 3.13, фыва (?), 22:09, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    так я же и поинтересовался от незнания.
    Оба позволяют развернуть комплекс параллельных виртуальных машин на серваке, дать доступ к ним с других комповчерез web браузер. Оба KVM. В чем тогда отличие?
     
     
  • 4.14, Аноним (-), 22:37, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Proxmox использует свои закрытые разработки. oVirt использует libvirt
     
     
  • 5.15, кверти (ok), 23:14, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +3 +/
    с каких пор AGPL - это закрытые разработки?
    http://pve.proxmox.com/wiki/Developer_Documentation#Software_License_and_Copy
     
  • 4.17, АнонимусРекс (?), 23:26, 20/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > так я же и поинтересовался от незнания.
    > Оба позволяют развернуть комплекс параллельных виртуальных машин на серваке, дать доступ
    > к ним с других комповчерез web браузер. Оба KVM. В чем
    > тогда отличие?

    оВирт (он же RHEV) умеет намного больше, если смотреть на список фичеров, поддерживается и разрабатывается самыми серьезными фирмами (IBM, Cisco, Red Hat, HP, Netapp, SuSE и т.д.), и расширяется намного лучше не только проксмоксов, но и vmware/hyper-v/ovm

     
  • 2.23, web (?), 04:36, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    пробовали ovirt(кажется 3.0) и Проксмос.

    ovirt был со знатным глюкодромом, написанный на java.
    Проксмос был более легко обслуживаем, если каких фич через web и не хватало - спокойно правил всё без web-интерфейса из консоли.

    В ovirt-расширения можно писать на python, что для меня +, в отличии от Перл у проксмоса, но как-то первое впечатление нестабильного продукта на тот момент произвел.

     
     
  • 3.24, blablabla (ok), 06:00, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > пробовали ovirt(кажется 3.0) и Проксмос.
    > ovirt был со знатным глюкодромом, написанный на java.
    > Проксмос был более легко обслуживаем, если каких фич через web и не
    > хватало - спокойно правил всё без web-интерфейса из консоли.
    > В ovirt-расширения можно писать на python, что для меня +, в отличии
    > от Перл у проксмоса, но как-то первое впечатление нестабильного продукта на
    > тот момент произвел.

    Не знаю как у вас но мы то же когда то выбирали выбирали и остановились на Proxmox
    Proxmox на столько прост в администрировании что справится даже домохозяйка
    а на счет того что если и не хватик к.л. функций в веб морде то из консоли можно подправить
    еще плюс Proxmox в том что все на Debian а значит документации полно

    у ovirt может и поболе будет функционала но в администрировании ну тяжеловат немного, особенно в разборе полетов почему то это не работает то то

     
     
  • 4.25, Аноним (-), 08:01, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >Proxmox на столько прост в администрировании что справится даже домохозяйка

    Ага, sotf raid 10 сделай на нём, что бы он потом внезапно не развалился.

     
     
  • 5.26, вадег (?), 08:07, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Зачем это нужно?
    Сделать можно без проблем. Но вот зачем?
    Покупаем хороший контроллер с батарейкой и включаем кэширование. На софтрэйде я кэширование как-то опасаюсь включать.
     
     
  • 6.28, Аноним (-), 08:56, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    По поводу преимуществ программных и аппаратных RAID массивов можно спорить и спорить.
    >Сделать можно без проблем

    Я тоже так думал, до такого монента когда после перезагрузки массив не развалился и не угробил всё что там было. Такая ситуация была только на Proxmox.

     
     
  • 7.39, Сам (?), 21:13, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > По поводу преимуществ программных и аппаратных RAID массивов можно спорить и спорить.
    >>Сделать можно без проблем
    > Я тоже так думал, до такого монента когда после перезагрузки массив не
    > развалился и не угробил всё что там было. Такая ситуация была
    > только на Proxmox.

    Какое отношение имеет система виртуализации к mdadm? Если после перезагруки не грузится, и железо целое, то на 99% проблема была не в raid, а в конфигурации grub, а если точнее что ты там не так сделал.

     
     
  • 8.41, Аноним (-), 22:59, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Grub как раз грузился нормально так как он был на sotf raid 1, а вот всё что был... текст свёрнут, показать
     
  • 5.29, blablabla (ok), 09:14, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • –3 +/
    >>Proxmox на столько прост в администрировании что справится даже домохозяйка
    > Ага, sotf raid 10 сделай на нём, что бы он потом внезапно
    > не развалился.

    когда сервак минимум за 10к то о софтовом raid и речи не может быть

    P.S. софтовый RAID использую только зеркало да и то только под систему

     
     
  • 6.36, kokoko (?), 13:49, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Лол ШТО?
    Админ локалхоста?
     
  • 6.43, Michael Shigorin (ok), 14:28, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > когда сервак минимум за 10к то о софтовом raid и речи не может быть

    Некоторое время тому аппаратный рейд, способный на средней железке тягаться с софтовым, в эти деньги запросто мог не поместиться.  Как именно сейчас, не знаю.

     
  • 5.38, Сам (?), 21:04, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    >Ага, sotf raid 10 сделай на нём, что бы он потом внезапно не развалился.

    А есть какие-то проблемы в дебиане? mdadm разные?

     
     
  • 6.40, XPEH (?), 21:51, 21/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >>Ага, sotf raid 10 сделай на нём, что бы он потом внезапно не развалился.
    > А есть какие-то проблемы в дебиане? mdadm разные?

    Ну дык разруха не в mdadm'ax, а в головах.

     
  • 2.42, zystem (ok), 13:55, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Proxmox надежнее. У ovirt есть Single point of failure это его менеджер (ovirt-engine). Если он умрет то пропадает управление кластером. А главное ним умрет и отказоустойчивость так-как это он следит за нодами и в случае сбоя мигрирует сервисы на выжившую ноду. Разработчики о проблеме знают но даже написать инструкцию для интеграции с pacemaker не могут (а CLI не работает). Интерфейс WEB консоли на jBOSS и ОЧЕНЬ медленный.
    К тому-же oVirt вечная бета новые функции добавляются но не тестируются. В одной из прошлых версий не работал CLI. Был но не работал. Настройки сети в веб интерфейсе были но не применялись.
    А главное это документация. Её почти нет. Есть обрывки на веб сайте. А еще можно читать код :)
    У Proxmox документации гораздо больше +форум +большинство компонент стандартно (т.е. читать прийдется lvm cman rgmanager ...)
     
     
  • 3.44, AnonymousRex (?), 15:32, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > Proxmox надежнее. У ovirt есть Single point of failure это его менеджер
    > (ovirt-engine). Если он умрет то пропадает управление кластером. А главное ним
    > умрет и отказоустойчивость так-как это он следит за нодами и в
    > случае сбоя мигрирует сервисы на выжившую ноду.

    Engine можно поднять в HA конфигурации. Кроме того, так как ноды продолжают работать, даже переустановка и возврат из бекапа engine не должны ничему помешать в средненькой по динамичности среде.

    > Разработчики о проблеме знают
    > но даже написать инструкцию для интеграции с pacemaker не могут (а
    > CLI не работает).

    разработчики не должны писать инструкции по интеграции со сторонними пакетами, в сети достаточно мануалов по RHCS/pacemaker+corosync/etc.

    > Интерфейс WEB консоли на jBOSS и ОЧЕНЬ медленный.

    вообще то он на GWT, но пыхапэшечка - наше все, да?

    > К тому-же oVirt вечная бета новые функции добавляются но не тестируются.

    это вам рассказали разработчики? но вообще, модель такая же как у федоры и RHEL, хочется стабильности - надо брать RHEV

    > В одной из прошлых версий не работал CLI. Был но не работал.

    линк на баг?

    > Настройки сети в веб интерфейсе были но не применялись.

    линк на баг?

    > А главное это документация. Её почти нет. Есть обрывки на веб сайте.
    > А еще можно читать код :)

    есть документация по RHEV - там все расписано, мейлинг листы и IRC тоже очень активны

    > У Proxmox документации гораздо больше +форум +большинство компонент стандартно (т.е.
    > читать прийдется lvm cman rgmanager ...)

    оВирт использует стандартные компоненты, тот же lvm, dm-mp, kvm, libvirt, jboss, httpd и т.д. Только не на непроверенном никем дебиане, а на федоре, где KVM и libvirt разрабатываются изначально, и прекрасно ставится на другие дистры

     
     
  • 4.45, zystem (ok), 16:45, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    http lists ovirt org pipermail users 2011-November 000029 html C 2011года ника... большой текст свёрнут, показать
     
     
  • 5.46, AnonymousRex (?), 17:28, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Внутри кластера тоже будет, а пока, никто не запрещает поднять engine в отдельно... большой текст свёрнут, показать
     
     
  • 6.47, zystem (ok), 18:39, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Когда нибудь В будущем Лет через 10 А пока лучше использовать что-то другое ... большой текст свёрнут, показать
     
     
  • 7.48, AnonymousRex (?), 19:39, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Это вам разработчики рассказали Потому что я слышал совсем другое Когда обычные... большой текст свёрнут, показать
     
     
  • 8.49, zystem (ok), 20:59, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Но ведь с 2011 года не сделано И если нода ляжет то кто даст команду стартовать... текст свёрнут, показать
     
     
  • 9.50, АнонимусРекс (?), 21:56, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Есть такое выражение bigger fish to fry Oпять 25, если это настолько критично,... текст свёрнут, показать
     
     
  • 10.51, zystem (ok), 22:23, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Дискуссия началась с вопроса в связи с этим признайте что HA из коробки нет Мо... текст свёрнут, показать
     
     
  • 11.52, АнонимусРекс (?), 22:58, 26/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    я отрицал не это, а то что HA нет в принципе Отлично, может пройдемся по всем о... большой текст свёрнут, показать
     
     
  • 12.53, zystem (ok), 13:35, 27/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Вы хорошо расписали преимущества Есть одна проблема Вы хорошо расписали преиму... текст свёрнут, показать
     
     
  • 13.54, AnonymousRex (?), 14:27, 27/02/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Он требует больше внимания, но есть фирмы где он продакшене еще с версии 3 0 Те... текст свёрнут, показать
     

  • 1.55, Bolek (ok), 18:28, 15/08/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    апну новость
    подскажите, сколько виртуальных сетевых позволяет данный продукт?
     
     
  • 2.56, AnonymousRex (ok), 18:39, 15/08/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > апну новость
    > подскажите, сколько виртуальных сетевых позволяет данный продукт?

    думаю 16 точно. всего имеется 32 pci адреса, но на них надо и все остальное железо повесить. если надо знать точно можно написать на users@ovirt.org или спросить в OFTC #ovirt

     
     
  • 3.57, Bolek (ok), 21:01, 15/08/2013 [^] [^^] [^^^] [ответить]  
  • +/
    уточню вопрос: сколько виртуальных интерфейсов на одну гостевую? :)
     
     
  • 4.58, AnonymousRex (ok), 01:07, 16/08/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > уточню вопрос: сколько виртуальных интерфейсов на одну гостевую? :)

    я как раз о них и писал

     
     
  • 5.59, Bolek (ok), 05:18, 16/08/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > я как раз о них и писал

    понял. спасибо

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру