URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID3
Нить номер: 36355
[ Назад ]

Исходное сообщение
"Тематический каталог: Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)"

Отправлено auto_topic , 01-Янв-07 07:27 
Обсуждение статьи тематического каталога: Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)

Ссылка на текст статьи: http://www.opennet.me/base/sys/linux_lvm2.txt.html


Содержание

Сообщения в этом обсуждении
"Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)"
Отправлено Zaharov Dmitry , 01-Янв-07 07:27 
У меня возник вопрос, а зачем использовать RAID1.
В LVM2 вроде включили встроенную подержку зеркалирования?

"Управление дисковым пространством в Linux с помощью LVM (lin..."
Отправлено Frank , 13-Июн-07 13:20 
Угу, "вроде". Не могу найти достаточно подробного описания зеркалирования силами LVM, чаще всего подразумевают зеркало силами сторонних средств, поскольку описывается использование LVM1 а не LVM2.
Единственное что пока нашёл - http://riseuplabs.org/grimoire//storage/lvm2/#how_do_i_build...

"Управление дисковым пространством в Linux с помощью LVM (lin..."
Отправлено AIX Linux HPUX LVM user , 15-Апр-08 18:43 
LVM умеет зеркалить более гибко. Это связанно с тем, что зеркалируются Logical Volume'ы, а не диски целиком. Результат:
Можно зеркалить только те ФС которые нужно, остальное место, к примеру, использовать как единое целое.
Можно повысить избыточность, сделать 3 копии Logical Volume'а, остальное, опять же использовать как хочется.
К слову на LVM'e можно строить RAID 0,1 и 10. Для Mirror+Stripe (RAID 10) нужно минимум 4 диска (разумеется). Создаём 2ве PhisicalVolumeGroup'ы (это 2 зеркала, правда мирорятся уже не Logical Volume'ами а целыми дисками). После этого просто страйпируем Logical Volume'ы на этих PVG и вуаля - RIAD 10.
А вот RAID-5, по крайней мере пока, LVM не умеет.
Вывод: если не "кровь из носу" нужен софтовый RAID-5 - LVM рокс!

"Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)"
Отправлено lexa , 16-Июл-07 11:18 
А можно как-нибудь сделать LVM диск обычным диском (без потерь даных)?

"Управление дисковым пространством в Linux с помощью LVM (lin..."
Отправлено AIX Linux HPUX LVM user , 15-Апр-08 18:13 
нет, не можно ^^ только так:
сохранить данные -> вынуть диск из LVM'a -> создать 'обычный' диск -> вернуть данные

"Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)"
Отправлено AIX Linux HPUX LVM user , 15-Апр-08 18:45 
http://en.wikipedia.org/wiki/Logical_volume_management

"Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)"
Отправлено nikolay , 09-Апр-12 07:57 
Помогите пожалуйста решить задачку.
Debian6squeeze+RAID1+LVM.
Надо добавить sda (320Gb) в vg_main и расширить home. Сделал pvcraete, vgextend, lvmresize.
В итоге результат:
# pvs
  PV         VG      Fmt  Attr PSize   PFree
  /dev/md1   vg_main lvm2 a-    73,82g    0
  /dev/sda   vg_main lvm2 a-   298,09g    0
  /dev/sdb6  vg_tmp  lvm2 a-   140,00m    0
  /dev/sdc6  vg_tmp  lvm2 a-   140,00m    0

# vgs
  VG      #PV #LV #SN Attr   VSize   VFree
  vg_main   2   4   0 wz--n- 371,91g    0
  vg_tmp    2   1   0 wz--n- 280,00m    0

# lvs
  LV   VG      Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  home vg_main -wi-ao 303,69g
  root vg_main -wi-ao 236,00m
  usr  vg_main -wi-ao   2,79g
  var  vg_main -wi-ao  65,19g
  tmp  vg_tmp  -wi-ao 280,00m

А это реальная картина.
# df -h
Файловая система      Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/vg_main-root
                      229M  127M   91M  59% /
tmpfs                 505M     0  505M   0% /lib/init/rw
udev                  500M  232K  500M   1% /dev
tmpfs                 505M     0  505M   0% /dev/shm
/dev/mapper/vg_main-home
                      5,6G  599M  5,0G  11% /home
/dev/mapper/vg_tmp-tmp
                      272M   11M  262M   4% /tmp
/dev/mapper/vg_main-usr
                      2,8G  865M  2,0G  31% /usr
/dev/mapper/vg_main-var
                       65G  828M   61G   2% /var

Так вот вопрос, в чём мой затуп? Пока склоняюсь к тому, что vg_main изначально собран на md1.