Доступна статья "Архитектура ZFS (http://www.filesystems.nm.ru/my/zfs_arch.pdf)" (PDF, 694Кб), в которой подробно рассмотрена дисковая структура файловой системы, объяснены некоторые алгоритмы ее работы.
URL: http://www.filesystems.nm.ru/my/zfs_arch.pdf
Новость: http://www.opennet.me/opennews/art.shtml?num=13070
перевод топорный + куча грамматических ошибок
мда, этой ZFS ещё развиваться и развиваться.
преимущество в динамическом конфигурировании и в контроле целостности данных конечно вещь архиважная.
Но большое потребление памяти, отсутсвие законченых грамотных политик оптимизации доступа к диску, и главное - нет возможности заменить плохой диск если там не raid1 или raid-z (хотя я могу и ошибаться) - это как винда-виста: вроде все вкусное, но лучше подождать с миграцией.
Ну любые существующие решения она уже рвет. Так что ждите, ждите.
>>>Но большое потребление памяти, отсутсвие законченых грамотных политик оптимизации доступа к дискуБольшое потребление памяти - это и есть законченая грамотная полита оптимизации доступа к диску. Никто не будет уменшать это потребление памяти - FS расчитана на роботу в мошных системах. Может вы еще претензии выставите 3DMark-у 6-у за то, что ее не тянет S3Trio-3D (тоже кстати 3D :)). Каждая система расчитана на то, на что она расчитана.
>>> и главное - нет возможности заменить плохой диск если там не raid1Вы не поверите, меняется очень просто:
zpool replace test md0 md1
Причем копируется не весь диск целиком (типа dd), а только данные.вот давеча копался в компе и случайно вытащил сата кабель на работающем винте, который из raidz1.
Всего-то нужно засунуть кабель назад и дать команду:
zpool online test md0
И за 2 секунды диск уже в рейде опять. Представь сколько времени нужно на старых дедовских рейдах (даже на апаратных), что бы его заребилдить обратно в масив.>>> но лучше подождать с миграцией
На домашнем компе мигрировал и доволен как слон
Проблем ни одной не встретил на этом пути. :):):)
Хотя как кому попадет.
Кстати, zfs при переходе с 6.2 на 7.0-Бета1 здорово спасла мои данные. Просто в Бета1 и Бета2 ну и ниже была какая-то лажа с контролерами Promise. Создал я на этом контролере пул с рейдз1 из 4 винтов. Потом забекапил еще из 2 винтов на этот пул все даные. Смутило, что по всем 4 винтам шло слишком много CKSUM error-в. Думал какая-то лажа с самой zfs. Потом переткнул 4 винта с контролера Promise на мать, а загрузочные 2 винты с зеркалом (ufs2) на Promise и долго не мог понять, почему система не грузиться и ее страшно плющит. Короче после того, как 2 загрузочных винта побывали на этом контролере, fsck показал много inconsistency check ошибок. И только бекапы, которые хранились на рейдз1 остались целыми и невредимыми. В Бета3 проблемы с Promise исправили и сейчас все нормально.
После этого я конкретно зауважал zfs.
>На домашнем компе мигрировал и доволен как слон
>Проблем ни одной не встретил на этом пути. :):):)
>Хотя как кому попадет.На семерке сидите или на OpenSolaris?
Сижу на Solaris/OpenSolaris проблем с ZFS нет не каких, в том числе ZFS Root на OpenSolaris использую, очень удобно ИМХО!!!:)
использую zfs в продакшне, www, mysql щаслиф как слон.
Использую на домашнем файловом сервере raidz1 на 5Тб. Очень доволен.
Ого! Это ж какие там залежи порн... программ! :-)А если серьёзно - сколько там и каких винтов? Сам собираюсь нечто подобное делать.
собрал бекап сервер с полгода назад на gmirror + gstripe но сейчас перевел это все на zfs, оно реально сделано для людей, надежность и стабильность уже сейчас на betta 3зы:странна, а где же pavlinux и _Nick_ ? упускают такой момент опустить zfs
>зы:странна, а где же pavlinux и _Nick_ ? упускают такой момент опустить
>zfsМнения этих граждан архиважны для Sun и ZFS!