Установим поддержку ZFS на Ubuntu Server и создадим RAIDZ-хранилище на базе двух имеющихся жестких дисков.Создадим на дисках по разделу при помощи утилиты cfdisk, для просмотра таблицы разделов можно использовать команду "cat /proc/partitions".
Установим пакеты, необходимые для обеспечения работы ZFS:
sudo apt-get update && sudo apt-get upgrade
sudo apt-get install python-software-properties bison flex build-essential \
libelf-dev zlib1g-dev libc6-dev-i386 libdwarf-dev binutils-devПодключим дополнительный PPA-репозиторий zfs-native:
sudo add-apt-repository ppa:zfs-native/stable
и установим из него пакеты с компонентами для поддержки ZFS:
sudo apt-get update
sudo apt-get install ubuntu-zfsСоздадим zpool с именем zfs-test и типом заркалирования RAIDZ, поместив в создаваемый RAID разделы на двух имеющихся дисках:
sudo zpool create zfs-test raidz /dev/sdb1 /dev/sdc1
Посмотрим статус созданного раздела:
sudo zpool status
sudo zfs list
df -h
URL: http://liberumvir.com/2012/06/01/zfs-and-dtrace-running-on-u...
Обсуждается: http://www.opennet.me/tips/info/2696.shtml
лучше так:zpool create tank /dev/disk/by-id/scsi-SATA_WDC_WD1600BEVT-_WD-WXE408N54810-part2
Плюсую, но не думаю, что в томе не будут содержаться идентификаторы диска.
В родной среде не пугались написать /dev/c0t0d0s1, вместо уникального имени.
> Плюсую, но не думаю, что в томе не будут содержаться идентификаторы диска.
> В родной среде не пугались написать /dev/c0t0d0s1, вместо уникального имени.в солярке имя устройства однозначно идентифицирует его положение, т.к. в вашем примере c0 - это контроллер номер 0.
в linux & freebsd это не так. sda1 - это может быть первый раздел на hdd или на usb-flash, или на блочном устройстве, экспортированном по сети.
Во FreeBSD есть опция в ядре "ATA_STATIC_ID" которая нумеровала диски согласно подключению к контроллерам. Т.е. /dev/ad0 = Primary master, /dev/ad3 = Secondary slave (для sata нечетных не бывает) etc. И не так страшно если пропадет диск - нумерация не плывет.
А вот в Linux я такой опции не нашел сколько не искал. Вот и приходится извращаться с UUID.
> Во FreeBSD есть опция в ядре "ATA_STATIC_ID" которая нумеровала диски согласно подключениюAFAIK, это относится только к ata-подсистеме.
сейчас уже есть AHCI и всех этих master/slave уже нет.вообще:
http://people.freebsd.org/~mav/ata-cam.pdf
> А вот в Linux я такой опции не нашел сколько не искал.
> Вот и приходится извращаться с UUID.и это правильный путь. т.к. диски можно перепутать.
Не однозначно.
Стоит врубить мултипас и имена в соляре идут лесом.
Опять же это работает только на спарках с опенбут.
На интелях таже ситуёвина - это может быть первый раздел на...
>в солярке имя устройства однозначно идентифицирует его положение, т.к. в вашем примере c0 - это контроллер номер 0.
>в linux & freebsd это не так. sda1 - это может быть первый раздел на hdd или на usb-flash, или на блочном устройстве, экспортированном по сети.Во фре всяко игрался с zfs-ом, в том числе переставлял диски и выключал/включал AHCI (при этом массив был создан с использованием не меток, а физических устройств: ad1s1d, ad2s1d...), zfs не запутывалась.
> Во фре всяко игрался с zfs-ом, в том числе переставлял диски и
> выключал/включал AHCI (при этом массив был создан с использованием не меток,
> а физических устройств: ad1s1d, ad2s1d...), zfs не запутывалась.Потому что её на это насрать вообще. Хоть вообще все диски в пуле местами поменяй. Это что-то линуксоидное, делать из этого проблему :)
В GNU/Linux всяко игрался с lvm-ом, в том числе переставлял диски и
выключал/включал AHCI, lvm не запутывалась.
Потому что ему на это насрать вообще. Хоть вообще все диски в группе томов местами поменяй. Это что-то фряшное, пердеть в лужу не разбираясь в вопросе
Чего это линуксоиды полезли на zfs? брысь в свою btrfs и нефик использовать то что не нужно.
это чтобы всякие не пиндели, что zfs в линухе нет.зыж
а так да, живёт мой ноут на бтр с декабря 2011 на бтр, всё ок.
нафиг не нужна эта избыточность жрущая озу на лине.
бтр тот еще лагомер и ненужно отрицать что бтр не требует такой же обьем памяти под кеш как зфс :-)) да разрабы скромного умолчали, но если гига под кеш не будет то будут лаги ...
Как об стену горох.
Говорю ж русским языком, на ноуте, весь винт 500Гб.
Для меня время тестов прошло, полгода уже как.
Не, на сервера не ставлю, но судя по ноуту — в сравнении с ext4 некоторые вещи стали медленнее, некоторые быстрее (дерево каталогов например), памяти жрать больше не стал.
В отличии от zfs.
> Как об стену горох.
> Говорю ж русским языком, на ноуте, весь винт 500Гб.
> Для меня время тестов прошло, полгода уже как.
> Не, на сервера не ставлю, но судя по ноуту — в сравнении
> с ext4 некоторые вещи стали медленнее, некоторые быстрее (дерево каталогов например),
> памяти жрать больше не стал.
> В отличии от zfs.В том буке памяти не 8 случайно :-)) Вообщето использование памяти зфс и брт в топе не видно ...
Ну конечно, только вы дартанЯн, а мы все пейзаны.