The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Раздел полезных советов: Создание виртуальных машин с помощью Qemu KVM"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Раздел полезных советов: Создание виртуальных машин с помощью Qemu KVM"  +/
Сообщение от auto_tips (??), 10-Сен-22, 23:19 
В статье опишу мой опыт про подготовку и запуск виртуальных машин (ВМ) с помощью открытых и бесплатных средств виртуализации в Linux - Qemu KVM.

В качестве среды для выполнения виртуальных машин будет использоваться Fedora Linux 36, аналогично ВМ можно запускать в Centos 8 и выше.

Для запуска ВМ понадобятся пакеты:

*** qemu-kvm (qemu-system-x86) - эмулятор
*** qemu-img - средство создания и управления виртуальными дисками
*** edk2-ovmf - образы прошивки UEFI

Будет рассмотрено три типа виртуальных машин:

*** Виртуальная машина с BIOS
*** Виртуальная машина с UEFI
*** Кластер виртуальных машин с общим диском

++ Подготовка виртуальной сети

В Qemu я использую два режима подключения сети в гостевую ВМ - user networking и с использованием устройств tap.

Первый режим проще, не требует root прав, но у него меньше производительность, в таком режиме не работает протокол ICMP и он не позволяет обратится к ВМ из физической сети.

Второй режим предоставляет большее быстродействие при работе с сетью, его можно гибко настраивать, но он требует root права.

++ Пользовательская виртуальная сеть

Простейшую ВМ с пользовательской сетью можно запустить так:

   qemu-kvm \
    -m 1G \
    -device virtio-net-pci,netdev=lan \
    -netdev user,id=lan \
    -drive file=/tmp/livecd.iso,media=cdrom

Ключевым параметром, который включает пользовательский режим сети это -netdev user.

Такая команда запустит LiveCD внутри ВМ c 1024 МБ ОЗУ, в качестве сетевой карты будет использовано устройство Virtio.

[[IMG /opennews/pics_base/CFD0C5CECEC5D4_1662830421.png]]

Виртуальная машина автоматически получит ip-адрес из подсети 10.0.2.0/24, шлюз - 10.0.2.2, dns-сервер - 10.0.2.3.

К физическому хосту можно обратиться по адресу 10.0.2.2.

ICMP пакеты через такой тип сети не проходят.

++ Виртуальная сеть с использованием tap-устройств

В данном режиме при запуске ВМ в физической системе будет создано виртуальное сетевое tap-устройство, что потребует root прав
   sudo qemu-kvm \
    -m 1G \
    -device virtio-net-pci,netdev=lan \
    -netdev tap,id=lan,ifname=tap0 \
    -drive file=/tmp/livecd.iso,media=cdrom

При таких настройках машина запустится, но не будет иметь доступа к физической сети. Для предоставления доступа необходимо создать сетевой мост, добавить в него физический сетевой адаптер хоста и настроить скрипты добавления виртуального сетевого tap-устройства в сетевой мост.

Предположим, что физический хост подключен к сети через адаптер enp3s0 и имеет адрес 192.168.1.50/24, шлюз 192.168.1.1.

Удалим все сетевые настройки у адаптера enp3s0 и создадим сетевой мост с помощью Network Manager:

   root# nmcli connection show
   root# nmcli connection delete <имя подключения enp3s0>
   root# nmcli connection add type bridge ifname br0 con-name bridge bridge.stp false ipv4.method manual ipv4.addresses "192.168.1.50/24" ipv4.gateway 192.168.1.1 ipv6.method disabled

Добавляем физический адаптер хоста в сетевой мост:

   nmcli con add type bridge-slave ifname enp3s0 con-name nicHost master br0

Настраиваем скрипт добавления виртуального сетевого tap-устройства к мосту - /etc/qemu-ifup:

   #!/bin/sh
   /usr/sbin/brctl addif br0 $1
   /usr/sbin/ip link set dev $1 up

Скрипт удаления tap-устройства из моста /etc/qemu-ifdown:

   #!/bin/sh
   /usr/sbin/ip link set dev $1 down
   /usr/sbin/brctl delif br0 $1

В скриптах $1 указывает на имя виртуального сетевого адаптера (tap0, tap1 и т.п.).

Если потребуется разместить скрипты по другому пути, то их месторасположение можно указать в свойствах виртуального сетевого устройства с помощью директив script и downscript:

   sudo qemu-kvm \
    -m 1G \
    -device virtio-net-pci,netdev=lan \
    -netdev tap,id=lan,ifname=tap0,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown \
    -drive file=/tmp/livecd.iso,media=cdrom

Запускаем виртуальную машину и проверяем сеть.

[[IMG /opennews/pics_base/CFD0C5CECEC5D4_1662830507.png]]

ВМ получила адрес от DHCP сервера локальной сети.

Проверяем состав сетевого моста на физическом хосте с помощью команды brctl show:

[[IMG /opennews/pics_base/CFD0C5CECEC5D4_1662830574.png]]

В хост-системе появилось устройство tap0, и оно автоматически добавилось в сетевой мост.

По-умолчанию, все виртуальные сетевые адаптеры получают MAC адрес 52:54:00:12:34:56, если потребуется запустить несколько виртуальных машин на хосте, то необходимо указать разные адреса с помощью параметра mac:

   sudo qemu-kvm \
    -m 1G \
    -device virtio-net-pci,mac=52:54:00:00:00:01,netdev=lan \
    -netdev tap,id=lan,ifname=tap0,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown \
    -drive file=/tmp/livecd.iso,media=cdrom

++ Подготовка виртуальных дисков

Ранее мы запускали ВМ с LiveCD. Для того чтобы установить операционную систему в виртуальную машину нам понадобится создать виртуальные диски для хранения данных.

++ Создание виртуальных дисков

   qemu-img create -f qcow2 vmpath/disk.qcow2 20G

Данная команда создаст "тонкий" диск в формате qcow2, объёмом 20 Гб.

Если потребуется создать кластерный диск, то необходимо для него всё место выделить заранее и использовать тип диска raw:

   qemu-img create -f raw -o preallocation=falloc shared/shared.raw 10G

++ Использование снимков состояния дисков

Формат дисков qcow2 позволяет создавать и удалять внутри диска снимки состояний (снапшоты):

*** создание снимка:

   qemu-img snapshot -c snapshotName vmpath/disk.qcow2

*** список снимков:

   qemu-img snapshot -l vmpath/disk.qcow2

*** применить снимок (вернуть диск в состояние на момент снимка):

   qemu-img snapshot -a snapshotName vmpath/disk.qcow2

*** удалить снимок:

   qemu-img snapshot -d snapshotName vmpath/disk.qcow2

Вся работа со снимками будет производится внутри одного образа, что может потребовать времени.

Другим способом создания снимков состояний является создание промежуточного файла (backing file) - при создании такого файла вся запись будет вестись в него вместо базового образа:

   qemu-img create -f qcow2 -F qcow2 -b vmpath/disk.qcow2 vmpath/backingDisk.qcow2

При запуске ВМ указываем в качестве диска промежуточный файл:

   qemu-kvm -m 1G -drive file=vmpath/backingDisk.qcow2,media=disk

Чтобы откатить снапшот, достаточно перенастроить запуск на изначальный образ диска и удалить снапшот.

   qemu-kvm -m 1G -drive file=vmpath/disk.qcow2 ,media=disk
   rm vmpath/backingDisk.qcow2

Изменение первоначального образа приведёт к повреждению снапшота, поэтому после запуска ВМ с оригинальным диском все снапшоты станут бесполезными.

++ Подключение разделов виртуального диска к хост-системе

Если возникнет необходимость обратиться к файлам на виртуальном диске напрямую с хост-системы, то необходимо сначала смонтировать образ. Для того, чтобы смонтировать разделы виртуального диска к хост-системе необходимо воспользоваться утилитой qemu-nbd.

1. Загружаем модуль ядра nbd

   root# modprobe nbd max_part=8

2. Подключаем образ виртуального диска как сетевое блочное устройство:

   root# qemu-nbd --connect=/dev/nbd0 vmpath/disk.qcow2

3. Выполняем нужные нам операции с устройством:

   root# fdisk /dev/nbd0 -l
   root# mount /dev/nbd0p1 /mnt/volume/
   root# umount /dev/nbd0p1

4. Отключаем устройство

   root# qemu-nbd --disconnect /dev/nbd0
   root# rmmod nbd

++ Запуск виртуальной машины с BIOS в Qemu KVM

По-умолчанию Qemu KVM запускает виртуальные машины с BIOS, поэтому особых настроек не требуется.

Готовим диск для гостевой системы:

   qemu-img create -f qcow2 /mnt/virtual/bios/bios.qcow2 20G

Запускаем ВМ:

   sudo qemu-kvm \
    -machine pc \
    -smbios type=1,manufacturer=oVirt,product=RHEL,version=1 \
    -cpu host \
    -accel kvm \
    -smp cpus=2,sockets=1,cores=2 \
    -m 1G \
    -k en-us \
    -vga qxl \
    -rtc base=localtime \
    -netdev tap,id=lan,ifname=tap0,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown \
    -device virtio-net-pci,mac=52:54:00:00:00:01,netdev=lan \
    -drive file=/mnt/virtual/bios/bios.qcow2,if=virtio,media=disk,index=0 \
    -drive file=/mnt/shared/linuxos.iso,media=cdrom,index=1

Параметры:

*** machine - свойства чипсета, основные это pc (совместимый со многими и ОС) и q35 (поддерживает новые устройства)
*** smbios - описание BIOS
*** cpu - тип эмулируемого ЦП, host указывает использовать как в физической системе
*** accel - тип ускорение виртуализации
*** smp - описываем кол-во виртуальных ядер ЦП и их распределение по сокетам
*** m - объём ОЗУ
*** k - раскладка клавиатуры консоли
*** vga - тип виртуального видеоадаптера
*** rtc base - настройки часов RTC
*** netdev/device и drive - описание сетевой карты и виртуальных дисков

Загружаемся с CD-ROM и устанавливаем ОС.

++ Запуск виртуальной машины с UEFI в Qemu KVM

Для запуска виртуальной машины с UEFI нам потребуются прошивки из пакета edk2-ovmf.

Готовим виртуальный диск для гостевой системы:

   qemu-img create -f qcow2 /mnt/virtual/uefi/uefi.qcow2 20G

Из пакета edk2-ovmf копируем образы UEFI и NVRAM:

   cp /usr/share/edk2/ovmf/OVMF_CODE.fd /mnt/virtual/uefi
   cp /usr/share/edk2/ovmf/OVMF_VARS.fd /mnt/virtual/uefi

Запускаем ВМ:

   sudo qemu-kvm \
    -machine q35 \
    -smbios type=1,manufacturer=oVirt,product=RHEL,version=1 \
    -cpu host \
    -accel kvm \
    -smp cpus=4,sockets=1,cores=4 \
    -m 4G \
    -k en-us \
    -vga qxl \
    -device virtio-net-pci,mac=52:54:00:00:00:02,netdev=lan \
    -netdev tap,id=lan,ifname=tap1,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown \
    -drive if=pflash,format=raw,readonly=on,file=/mnt/virtual/uefi/OVMF_CODE.fd \
    -drive if=pflash,format=raw,file=/mnt/virtual/uefi/OVMF_VARS.fd \
    -drive file=/mnt/virtual/uefi/uefi.qcow2,if=virtio,media=disk \
    -drive file=/mnt/shared/linuxos.iso,media=cdrom

Подключаем прошивку UEFI для чтения с помощью drive if=pflash с указанием readonly=on, а также файл для хранения NVRAM, но уже в режиме записи.

Загружаемся с CD-ROM и устанавливаем ОС.

++ Запуск виртуальных машин с UEFI с общим кластерным диском в Qemu KVM

Рассмотрим пример запуска двух машин, где у каждой будет свой индивидуальный диск для ОС и один общий диск для кластера.

Подключать диски будем с помощью устройства -device virtio-blk-pci, оно позволяет включить совместную запись на диск с нескольких виртуальных машин c помощью параметра share-rw=on.

Готовим диски для гостевых систем:

   qemu-img create -f qcow2 /mnt/virtual/cluster/vm1-system.qcow2 20G
   qemu-img create -f qcow2 /mnt/virtual/cluster/vm2-system.qcow2 20G

Для кластерного диска используем формат raw и заранее резервируем место.

   qemu-img create -f raw -o preallocation=falloc /mnt/virtual/cluster/shared.raw 10G

Копируем образы прошивки UEFI и NVRAM:

   cp /usr/share/edk2/ovmf/OVMF_CODE.fd /mnt/virtual/cluster
   cp /usr/share/edk2/ovmf/OVMF_VARS.fd /mnt/virtual/cluster/OVMF_VARS_VM1.fd
   cp /usr/share/edk2/ovmf/OVMF_VARS.fd /mnt/virtual/cluster/OVMF_VARS_VM2.fd

Запускаем ВМ 1:

  sudo qemu-kvm \
    -machine q35 \
    -smbios type=1,manufacturer=oVirt,product=RHEL,version=1 \
    -cpu host \
    -accel kvm \
    -smp cpus=2,sockets=1,cores=2 \
    -m 2G \
    -k en-us \
    -vga qxl \
    -device virtio-net-pci,netdev=lan,mac=52:54:00:00:00:11 \
    -netdev tap,id=lan,ifname=tap11 \
    -drive if=pflash,format=raw,readonly=on,file=/mnt/virtual/cluster/OVMF_CODE.fd \
    -drive if=pflash,format=raw,file=/mnt/virtual/cluster/OVMF_VARS_VM1.fd \
    -device virtio-blk-pci,drive=drive0,share-rw=off \
    -drive file=/mnt/virtual/cluster/vm1-system.qcow2,id=drive0,format=qcow2,if=none \
    -device virtio-blk-pci,drive=drive1,share-rw=on \
    -drive file=/mnt/virtual/cluster/shared.raw,id=drive1,format=raw,if=none \
    -drive file=/mnt/shared/linuxos.iso,media=cdrom

Запускаем ВМ 2:

  sudo qemu-kvm \
    -machine q35 \
    -smbios type=1,manufacturer=oVirt,product=RHEL,version=1 \
    -cpu host \
    -accel kvm \
    -smp cpus=2,sockets=1,cores=2 \
    -m 2G \
    -k en-us \
    -vga qxl \
    -device virtio-net-pci,netdev=lan,mac=52:54:00:00:00:12 \
    -netdev tap,id=lan,ifname=tap12 \
    -drive if=pflash,format=raw,readonly=on,file=/mnt/virtual/cluster/OVMF_CODE.fd \
    -drive if=pflash,format=raw,file=/mnt/virtual/cluster/OVMF_VARS_VM2.fd \
    -device virtio-blk-pci,drive=drive0,share-rw=off \
    -drive file=/mnt/virtual/cluster/vm2-system.qcow2,id=drive0,format=qcow2,if=none \
    -device virtio-blk-pci,drive=drive1,share-rw=on \
    -drive file=/mnt/virtual/cluster/shared.raw,id=drive1,format=raw,if=none \
    -drive file=/mnt/shared/linuxos.iso,media=cdrom

Далее нужно установить ОС внутри ВМ и настроить работу с кластерным диском.


URL: https://dzen.ru/media/id/5ddabd838294e33d61ccf3de/62d3e6c79f...
Обсуждается: http://www.opennet.me/tips/info/3209.shtml

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. Сообщение от Аноним (-), 10-Сен-22, 23:19   +1 +/
А если я не хочу едк, а например рефинд с темной темкой ?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #29

2. Сообщение от pavlinux (ok), 11-Сен-22, 14:40   –2 +/
> Запуск виртуальных машин с UEFI

Нахрен самому себе создавать гемор?

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #4, #11, #18

3. Сообщение от pavlik (?), 11-Сен-22, 16:21   +/
Посмотрите в сторону cloud-images, постоянно ставить оси на новые виртуалки это лениво.
Пришёл в своё время к vagrant c vitrualbox на ноуте когда надо вот прямо щас, или libvirt с cloud-images, если необходимо чтобы виртуалки крутились круглосуточно на сервере.
https://sumit-ghosh.com/articles/create-vm-using-libvirt-clo.../ тут примерный рецепт, можно завернуть в шелл скрипт и прекрасно работает. Конечно нужен готовый cloud-image, но у большинства популярных дистрибутивов такой должен быть.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #6, #19

4. Сообщение от casm (ok), 11-Сен-22, 17:33   +/
"В Fedora 37 намерены оставить только поддержку UEFI"
https://www.opennet.me/opennews/art.shtml?num=56974

Думаю, что в RHEL/Centos версий 15...20 только UEFI и останется.
Лучше заранее приготовиться ко встрече со звездой.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #2

5. Сообщение от vasiukoff (?), 13-Сен-22, 16:15   +6 +/
Очень годно написано. Обязательно продолжайте Вашу светлую миссию и не слушайте никого.
Ответить | Правка | Наверх | Cообщить модератору

6. Сообщение от ыпр (?), 15-Сен-22, 13:08   +1 +/
еще vagrant бы нормально работал с ru ip
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #8

7. Сообщение от commiethebeastie (ok), 15-Сен-22, 19:57   +5 +/
Надо virtio-scsi использовать, а не просто virtio. SCSI поддерживает trim к примеру.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #10

8. Сообщение от pavlik (ok), 15-Сен-22, 21:09   +/
Да, боксы приходится вручную таскать или использовать tsocks/vpn.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6

9. Сообщение от Аноним (9), 15-Сен-22, 23:18   +1 +/
У меня винт вот так подключён (запускаю из bash портянки):

# PCIE CONTROLLER
-device pcie-root-port,port=0x9,chassis=2,id=pci.2,bus=pcie.0,addr=0x1.0x1

# SCSI CONTROLLER
-object iothread,id=iothread0
-device virtio-scsi-pci,iothread=iothread0,id=scsi0,bus=pci.2,addr=0x0

# SSD1
-blockdev node-name=ssd1-storage,driver=file,cache.direct=on,cache.no-flush=off,auto-read-only=on,discard=unmap,filename=/dev/mapper/vhdd1
-blockdev node-name=ssd1-format,driver=raw,read-only=off,discard=unmap,detect-zeroes=unmap,cache.direct=on,cache.no-flush=off,file=ssd1-storage
-device scsi-hd,bus=scsi0.0,channel=0,scsi-id=0,lun=0,device_id=drive-scsi0-0-0-0,drive=ssd1-format,id=scsi0-0-0-0,write-cache=on,bootindex=1

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #12

10. Сообщение от casm (ok), 17-Сен-22, 06:46   +1 +/
У меня если указать virtio-scsi в -drive, то ВМ не запускается, пишет неизвестная шина.
Смотрел как это сделано в oVirt, там для virtio-scsi используют -device virtio-scsi-pci и -device scsi-hd. А trim прописывают в blockdev.
Как по-простому сделать не разобрался.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #7

11. Сообщение от Аноним (-), 18-Сен-22, 12:40   –1 +/
Это фидорист, ему по статусу положено делать ку любым бзикам редхатовских маркетологов.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #2 Ответы: #20

12. Сообщение от Аноним (-), 18-Сен-22, 12:41   –2 +/
А зачем виртуалке свой винч? Чтобы ее менеджить неудобнее потом было?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #9 Ответы: #13

13. Сообщение от Аноним (-), 19-Сен-22, 10:13   +1 +/
Для накопителя используется выделенный логический том LVM (/dev/mapper/vhdd1), физически расположенный на SSD накопителе.
Доступ гостевой ОС к нему осуществляется напрямую (driver=raw), без дополнительных слоёв абстракций (вроде LVM -> ext4 -> qcow2), что повышает производительность.

Не совсем понятно, в чём неудобство заключается?
Бекап делается автоматически через кастомный скрипт сразу как виртуалка выключается (на уровне файлов, там их немного), а что ещё надо?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #12

16. Сообщение от Аноним (16), 19-Сен-22, 20:24   +1 +/
Свой скрипт для моста нужен был когда-то давно, когда не было qemu-bridge-helper.
Для -netdev bridge используется этот helper и права root не нужны.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #17

17. Сообщение от Аноним (17), 19-Сен-22, 21:02   +1 +/
Ещё необходимо добавмит мост в /etc/qemu/bridge.conf
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16

18. Сообщение от Аноним (18), 20-Сен-22, 08:34   –1 +/
Т.к. проприетарные иначе не могут. Сабж у бренда из первой 10-тки работает по разному в обоих вариантах. А тестировать надо.

Тем самым - чтобы меньше использовать проприетарное.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #2

19. Сообщение от Аноним (18), 20-Сен-22, 08:37   +/
> постоянно ставить оси на новые виртуалки это лениво

Это делает скрипт. Настраивает ровно то, в чём есть нужда. Тема отдельной статьи.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3

20. Сообщение от Аноним (20), 23-Сен-22, 21:03   +/
Убунту тоже, что-то мутит и уже с прошлого года, а может с начала этого года в виртуальную машину с BIOS, а не с EFI установка проходит с ошибкой. Я так вижу, устанавливал.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #11 Ответы: #21, #22

21. Сообщение от Аноним (20), 23-Сен-22, 21:05   +/
Но работает. Только не понятно правильно или нет. Видимых проблем после такой установки не видел.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #20

22. Сообщение от Аноним (20), 23-Сен-22, 21:11   +/
Точнее так: Canonical Ltd в Ubuntu тоже что-то мутит и уже с прошлого года, а может с начала этого года в виртуальную машину с BIOS, а не с EFI установка проходит с ошибкой. Я так вижу, устанавливал.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #20

23. Сообщение от Аноним (23), 01-Окт-22, 14:11   –1 +/
Чего только не придумают лишь бы виртуалбоксом не пользоваться...
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #25

24. Сообщение от qemuimgemail (?), 06-Окт-22, 21:01   +/
в записи
qemu-img create -f qcow2 -F qcow2 -b vmpath/disk.qcow2 vmpath/backingDisk.qcow2
backing-файлом (диском) является vmpath/disk.qcow2
Ответить | Правка | Наверх | Cообщить модератору

25. Сообщение от Аноним (25), 18-Окт-22, 14:38   –1 +/
А его по лицензии запрещено. Ви-Бокс - с запрещёнными для опред. применения частями.

И сразу Libvirt/KVM/Qemu гораздо удобнее.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #23 Ответы: #28, #32

26. Сообщение от Аноним (26), 26-Окт-22, 09:41   +1 +/
А кто знает, что делать, если UEFI падает при -accel hax?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #39

28. Сообщение от OpenEcho (?), 01-Ноя-22, 11:00   +/
> А его по лицензии запрещено

Гон.

Если не использовать extension pack, то можно юзать и в комерции

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #25

29. Сообщение от Michael Shigorinemail (ok), 19-Ноя-22, 22:35   +1 +/
"Не хочу сервер, хочу клиент"?  OVMF -- прошивка, если что.  А refind должен быть уже на загружаемом образе.

Если кому-нибудь здесь пригодится, могу описать, как такие образы собирать при помощи http://altlinux.org/mkimage-profiles и по вкусу http://altlinux.org/starterkits/builder

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #1 Ответы: #34

31. Сообщение от alexk (??), 10-Янв-23, 15:01   +/
А что (какая ФС) используется для работы с кластерным диском?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #33

32. Сообщение от Андрей (??), 24-Янв-23, 12:11   +/
virt-man ?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #25

33. Сообщение от casm (ok), 10-Фев-23, 10:36   +/
ocfs2, gfs2
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #31

34. Сообщение от Аноним (-), 14-Мрт-23, 01:24   +1 +/
Объясняю. Проверяйте, я проверил с alt-p10-mate-20230309-x86_64, alt-p10-enlightenment-20230309-x86_64 всё, что есть на закачку проверять не стал. Host win 8.1, virtualbox 7.0.6 (Hyper-v) на данный момерт версия VB последняя. С любой включенной видеокартой, с включенным 3D и без. Начальная загрузка с текстом, а после вечно тёмный экран пока есть ток или не сламается компьтер - не установить, не видно, темно. Не проверяли как работает в виртуализисции с Хостами Win? Или между хостами Win 8.1 и 10, 11 большая разница? С убунто установчными iso такого нет.  
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #29 Ответы: #35

35. Сообщение от Аноним (-), 14-Мрт-23, 01:35   +/
Предположение, что опять не стыковки в виртуализации с эмуляцией видеокарт. Если нажать закрыть виртуальную машину виден рабочий стол в затемнённом фоне как на паузе если виртуальную машину приостоновить. Как только отвечаеш нет не закрывать виртуальную машину возвращается пусто чёрный вид.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #34 Ответы: #36

36. Сообщение от Аноним (-), 14-Мрт-23, 01:38   +/
x - закрыть.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #35

39. Сообщение от Sem (??), 11-Апр-23, 18:39   +/
Я вообще ничего не смог нормально запустить с hax.
Гугление обнаруживает массу проблем. Забил.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #26

40. Сообщение от BYGemail (?), 10-Сен-23, 10:36   +/
Привет.

А как отредактировать файл BIOS/EFI для эмуляции IRQ на VM?

Ответить | Правка | Наверх | Cообщить модератору


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру