1.1, ilyafedin (ok), 20:57, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]
| –5 +/– |
Удивительно, но из-за лицензионных злодеяний оракла мы не можем нормально использовать элегантную ZFS. Вместо этого редхат как всегда накостылял монстра из D-Bus и прочих костылей с клеем, который теперь единственный будет работать без боданий с DKMS (btrfs же так и не стала стабильной).
Более того, дистрибутивы фрагментируются в очередной раз на три технологии (ладно, обычно на две, но все же):
Редхатовые - Stratis
SUSE - BtrFS
Ubuntu - ZFS
Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту.
| |
|
2.3, Аноним (3), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить]
| –3 +/– |
ZFS жрет память как не в себя, а VDO работает только в редхате, значит для использования не целесообразно.
| |
|
3.6, rinat85 (?), 21:28, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
без deduplication и небольшим тюнингом настроек в /etc/default/zfs (оно вроде по умолчанию хочет 2/3 ram) живёт смирно
| |
3.14, пох. (?), 22:29, 07/11/2019 [^] [^^] [^^^] [ответить]
| –3 +/– |
ваш линух жрет память как не в себя:
Mem: 8160616 8030568 130048 0 152280 7144344
-/+ buffers/cache: 733944 7426672
видали - восемь гиг сожрал! Без всякой zfs.
Возмутительнейшее безобразие.
| |
|
4.22, Аноним (22), 22:53, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Только в отличие от зфс, он эту память отдаст при необходимости (и ничего не потеряет особо при этом). В этом и проблема, не скалируется так просто. Кстати хинт: у free есть ключик -h, чтобы сделать читабельно.
| |
|
5.27, пох. (?), 23:20, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– | в отличие от ваших прохладных былин - zfs спроектирована так, чтобы память, при ... большой текст свёрнут, показать | |
|
6.44, имя (ok), 06:31, 08/11/2019 [^] [^^] [^^^] [ответить]
| +3 +/– |
> zfs спроектирована так, чтобы память, при необходимости - отдавать. Что ей вполне удается делать - в oracle solaris, ага
Колись: устроился недавно сторожем в Газпром? Кто ж ещё нынче будет покупать оракловый солярис, в котором вот-теперь-точно-отдаётся-клянусь-слющай: https://blogs.oracle.com/solaris/changes-to-zfs-arc-memory-allocation-in-113-v
А если мы говорим про былые, дооракловые времена, то высвобождение это было порой не без приколов: http://web.archive.org/web/20101126163729/http://bugs.opensolaris.org/bugdata Отдельно интересны расписанные там детали про kernel cage: получается, реализовано всё равно через гланды, прям как в этих ZoL/ZoF, разве что пользователю чаще кажется, что ему память возвращают.
| |
|
7.65, пох. (?), 12:22, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | July 7, 2015 - это такое вот теперь Причем оно стало актуально, когда понадоб... большой текст свёрнут, показать | |
|
|
|
|
11.138, пох. (?), 18:18, 14/11/2019 [^] [^^] [^^^] [ответить] | +/– | ну так они-то, видимо, не собирались никуда мигрировать - у них все работало, пр... текст свёрнут, показать | |
|
|
13.141, пох. (?), 11:57, 15/11/2019 [^] [^^] [^^^] [ответить] | +/– | в смысле, это коммерческое решение какого-то 3d-party, ныне накрывшегося Тогда ... текст свёрнут, показать | |
|
|
|
|
|
|
|
6.56, mumu (ok), 11:23, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> Там пару phd защитили на деталях этой самой реализации, а не за вечерок кое-как наляпали.
Обидно, наверное, было вложить столько сил и времени в то, что в итоге нигде не используется и никому не нужно. Это примерно как в ReactOS контрибьютить: оно вроде и есть, но зачем не понятно.
| |
|
7.59, пох. (?), 11:53, 08/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– | херассебе неиспользуется Даже оставляя в стороне оракла с его загадочными клиен... большой текст свёрнут, показать | |
|
8.71, имя (ok), 13:03, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | Постгрес однажды чуть не перешёл так в 8 0 на ARC, но чуваки потом нашли US20040... текст свёрнут, показать | |
|
9.74, Онаним (?), 14:36, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | Вместо перехода на ARC лучше бы вакуум-фри озаботились, а то очередной танцор с ... текст свёрнут, показать | |
|
10.120, имя (ok), 15:12, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | Фанаты MySQL опять забыли о существовании OPTIMIZE TABLE в их любимой СУБД ... текст свёрнут, показать | |
|
|
12.131, имя (ok), 18:27, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | 8230 путём запуска подчищалок в отдельном треде https dev mysql com doc ref... текст свёрнут, показать | |
|
|
14.134, имя (ok), 19:04, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | Вы опять смешали в одну кучу VACUUM и VACUUM FULL Последний, да, упаковывает, а... текст свёрнут, показать | |
|
|
16.136, имя (ok), 11:40, 12/11/2019 [^] [^^] [^^^] [ответить] | +/– | Так надо было сразу уточнять, что вы работаете с наркоманами, ежесекундно испуск... текст свёрнут, показать | |
|
|
|
|
|
|
|
9.80, пох. (?), 14:59, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | у NetApp есть свой патент И она вполне успешно им воспользовалась - против sun ... текст свёрнут, показать | |
|
|
7.73, Онаним (?), 14:35, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Ничего обидного. PhD есть, а то, что оно в реальности летает только с прицепленным к жопе пропеллером и на пинковом приводе - уже дело десятое.
| |
|
|
|
|
|
4.66, пох. (?), 12:28, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
>> ZFS жрет память как не в себя
> Враньё.
да нет, все правильно - не будет жрать - у нас будет пустая память, которая могла бы служить дисковым кэшэм. Вон, видал как линух-то жрьооот? Из 8 гиг сожрал восемь! То что там не все гладко и если хочется выжать последние килобайты нужно запастись кучей ненужных знаний - на фоне ужаса с lvm поверх dm поверх luks поверх непойми что без системды не работает - как-то особо уже и не пугает.
(кстати, прикинь, какая у тех чудес эффективность кэширования, если там правая рука не знает, кому др..ит левая)
| |
|
|
2.4, Аноним (22), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить]
| +2 +/– |
Я тут недавно шарился по зфсным реддитам (это там где ребятки увлекаются пулами на зфс) и сделал вывод, что не всё с ней так гладко. Чуть ли не лучший вариант это купить солярис под неё (но тогда придётся отказаться от форка зол и его фишечек).
>IBM CANONICAL
Лучше бы бтрфс допиливали, право, эта фрагментация бич опенсорса. Всё зло от жадных корпораций, как мы в очередной раз наблюдаем.
| |
|
3.8, rinat85 (?), 21:39, 07/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
что именно не гладко? если по уму, когда память ecc, когда стоит ИБП, когда /boot на отдельном пуле zfs (достаточно большом для вмещения снапшотов, ≈1Гб хотя бы), когда на объеме RAM не сэкономили $150, когда scrubbing проводят хотя бы пару раз в месяц, когда не юзают raidz1 вообще, и не юзают raidz2 для всего 4 дисков, когда не пытаются в одном пуле держать больше 12 дисков (не для того zfs, чтобы СХД заменить), когда send/receive бэкапы делают, какие проблемы? жалуются только, вот мол что делать, если всё таки рассыпался массив, где инструменты для восстановления, так ребята, нету их, для чего бэкапы то? :)
| |
|
4.12, Аноним (22), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Слишком много "если", не? Типичный юзкейс - это "схд" на антресолях или в чулане, я думаю сегодня каждый не против его иметь. Люди берут готовые сборочки под эти задачи, и очень удивляются, когда всё сыпется.
| |
|
5.24, zzz (??), 22:57, 07/11/2019 [^] [^^] [^^^] [ответить]
| –2 +/– |
Можно и проще: если не заниматься дичью. И часто сыпется FreeNAS, есть репрезентативная выборка или очередное мнение эксперта?
| |
|
6.28, пох. (?), 23:22, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
когда (не если, а когда) он лично у тебя посыплется - тебе от "репрезентативной выборки" жарко станет, или холодно?
| |
|
7.50, zzz (??), 09:22, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Всё это разговоры в пользу бедных. Если человек взялся говорить про то, что btrfs после допила будет лучше и надежнее zfs, то хотелось бы увидеть основания.
| |
|
8.67, пох. (?), 12:38, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | откройте рот Так, закройте Не вижу оснований, мешающих вам говорить ровно обра... текст свёрнут, показать | |
|
|
|
5.55, rinat85 (?), 11:07, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
сказал ведь, "если по уму", 80% перечисленного относится ко всем видам массивов, даже железных
| |
|
4.38, xm (ok), 01:52, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Какой-то набор из мифов и пограничных случаев кривой реализации, по большей части, на Linux.
Ну да, некоторые баги и проблемы там наблюдаются. Однако, судя по FreeBSD в последний год, источник всех этих проблем это кривой код идущий из ZoL. Если не явно кривой, так уж наверняка ломающий обратную совместимость. И что делать с этим "херак-херак и в продакнш" подходом, столь традиционным для линуксоидов, в нормальных системах не вполне понятно.
| |
4.48, SOska (?), 08:50, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Mdadm + lvm на 48 винтов, полет нормальный, памяти жрет мало, не разу не рассыпалось, чяНдр
| |
4.75, Онаним (?), 14:40, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
Не очень понятно, чем вообще ZFS спасёт от повреждения данных _вне_ дисков - они будут повреждены ещё до расчёта сумм и записи. А на самих дисках и прочих носителях - внезапно - имеются свои ECC. Т.е. весь этот сомнительной надобности вторичный чексумминг и прочие бла-бла-радости спасут разве что от повреждения данных в цепочке шина-контроллер связи с накопителями-шина-контроллер накопителя.
| |
|
5.98, rinat85 (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
"на самих дисках и прочих носителях - внезапно - имеются свои ECC" - а с этого момента можно поподробнее? особенно при повреждении уже записанных данных. zfs спасет тем, что воспользуется избыточностью, как бы все raid массивы с ней для этого существуют :) отличие же от mdraid в том, что целостность за счет хэшей обеспечивается сквозная и сканирование с последующим исправлением происходит во много раз быстрее. Ну и пресловутой writehole проблемы нет
| |
|
6.105, Онаним (?), 23:53, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> особенно при повреждении уже записанных данных
Объясни мне, как они случатся, если на каждый блок данных на диске пишется ещё ECC?
> zfs спасет тем, что воспользуется избыточностью, как бы все
Это уже raidz, а не просто zfs.
> целостность за счет хэшей обеспечивается сквозная
Вот этот вот баззворд уже набил оскомину. Какая целостность? Чего целостность? Сквозная, навылет?
Данные когда с диска или флеша читаются - сверяются с ECC самим носителем. Если проверка не прошла - возвращается ошибка чтения, и никакие хеши тут уже не спасут, блок потерян.
| |
|
7.121, имя (ok), 16:01, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | ECC не покрывает всех возможных ошибок сколько их там на сектор максимум , о... большой текст свёрнут, показать | |
|
8.122, Онаним (?), 17:37, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | Merkle tree - сначала бы хоть разобрались, для чего он там, потом писали ECC на... большой текст свёрнут, показать | |
|
9.129, имя (ok), 18:13, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | А так ли велика цена вопроса на фоне стоимости тех же дисков и контроллеров с по... текст свёрнут, показать | |
|
|
|
|
5.119, Аноним (119), 15:11, 11/11/2019 [^] [^^] [^^^] [ответить] | +/– | ZFS должна еще конролировать что там и как для записи в файл подготавливают стор... большой текст свёрнут, показать | |
|
6.123, Онаним (?), 17:47, 11/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> ZFS должна еще конролировать что там и как для записи в файл
> подготавливают сторонние левые программы, не испортили ли они свои данные, неумёхи?
Ты слышал звон, но не понял где он. Объясняю: лежит кусок данных на запись в памяти. Приложение может быть ещё пошлёт их на запись, может быть уже сформировало запрос, и он начал обрабатываться по дисковому стеку. И тут происходит битфлип. В этом самом куске. ZFS благополучно посчитает суммы от этого битфлипа, разнесёт их "максимально далеко друг от друга", и запишет на диск. Уже повреждёнными :D И ещё отреплицирует.
Передача данных "до винта" защищена минимум CRC32 - в случае SATA. Это старый алгоритм, увы, но от единичных битфлипов он защищает, т.е. твоё "один битик изменится" - случай невозможный.
| |
|
|
|
3.17, пох. (?), 22:38, 07/11/2019 [^] [^^] [^^^] [ответить] | +1 +/– | только его тебе никто не продаст вот в чем беда Даже если бы и продали - где т... большой текст свёрнут, показать | |
|
4.25, Аноним (22), 23:00, 07/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
С оракловой проблемы у людей возникали только при миграции на опенсорсную версию -- в ней совместимость только с очень древней зфс.
>будет та, которую тебе осилит собрать орацл
Так вроде с этим там проблем нет? В принципе, линуксовая самба вообще никуда не годится, если уж на то пошло.
>зфс
>комьюнити | |
|
5.29, пох. (?), 23:42, 07/11/2019 [^] [^^] [^^^] [ответить] | –1 +/– | во времена, когда оракловая еще была сановской - проблемы возникали Лечились, б... большой текст свёрнут, показать | |
5.47, hhhg (?), 08:18, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Кто тебе расскажет о проблемах если этим никто не пользовался и теперь уже точно не будет? В лохматые года полтора компа и сисадмина были, интернета напротив не было, а теперь каждый себе сисадмин и зфс дома держит и воняет на форумах.
Если тихо - это не значит что все хорошо.
| |
|
|
3.35, zzz (??), 00:26, 08/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
btrfs в принципе не допиливаема, поскольку изначально криво спроектирована. Балансировка сверху-вниз неповоротлива на больших деревьях, хоть сколько там процессов балансировки пускай. Она хранит блоки переменного размера прямо в деревьях, из-за чего на куче мелких файлов пожирает огромное количество места под метаданные - на разделе с исходниками может свободно пожирать половину объема. Сбой по питанию во время балансировки может окончиться смертью ФС.
По сути, её пропихнули в обход всех правил, лишь из-за того, что настоял Oracle. Никаких других причин пихать это поделие в основную ветку нет и не было.
| |
|
2.9, ff (??), 21:45, 07/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
У всех перечисленных есть свои + и -, хотя про стратис этот я ничего не понял, но подобные велосипеды поверх обычных фс и без него есть. Это линуксвей кстати =)
| |
|
3.19, пох. (?), 22:43, 07/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
> хотя про стратис этот я ничего не понял
чего тебе непонятного - хрустоподелка, собирается исключительно хрустокомпилятором позавчерашней сборки. Ничего не умеет, включая то, что давно умеют нижележащие слои (уж что-что, а хотя бы 2x redundancy lvm умел еще полтора десятка лет назад - а эти даже и того ниасилили), просто очередное средство для мышевозюкалок, прячущее редхатовское нагромождение адских уродов - до первой поломки, разумеется.
Кто уже пытался загрузить в single user редхатосистему с thin lvm - тот меня поймет. А чинить там уже и нечего будет, в случае чего. Получишь хорошо перемешанную кашу байтиков, размазанную ровным слоем по всем дискам. При желании - еще и зашифрованную.
write only storage system. (c) redhatbm
| |
|
4.103, Roman (??), 17:44, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Вангую что это такой storage spaces из мира линукса от RH ( сам эти storage spaces руками не трогал впрочем)
| |
|
5.104, пох. (?), 18:43, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | storage spaces у нас называются lvm, и существовали за много-много лет до их пер... большой текст свёрнут, показать | |
|
|
|
2.13, пох. (?), 22:26, 07/11/2019 [^] [^^] [^^^] [ответить] | +/– | конечно, это ж орацл вам сломал использование модулями aes-инструкций процессора... большой текст свёрнут, показать | |
|
3.16, ilyafedin (ok), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить]
| –2 +/– |
>[оверквотинг удален]
> Орацл, проклятый, во всем виноват, конечно же ж.
> А совсем не отсутствие сановского менеджера с палкой над горбом разработчиков, из-за
> которого вся разработка выродилась в последовательное ухудшение и доламывание хорошей
> системы, оставленной без присмотра.
> Он, кстати, вам еще и в шта..в btrfs нас...л, потому что это
> разработка, долгое время чуть ли не в одно жало делавшаяся сотрудником
> оракла в рабочее время.
> При этом те кто хотели - вполне себе zfs пользуются. Той, увы,
> которую мы все заслуживаем, а не той, которую по прежнему пилит
> себе оракл, но при закрытых дверях.
Так и знал, что не пройдешь мимо и рассыпешься в большой поток сознания ❤️
| |
3.43, имя (ok), 05:29, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> это ж орацл вам сломал использование модулями aes-инструкций процессора
Ого, а Грег КХ в курсе, что он работает теперь на Эллисона?
| |
|
2.15, Olololo (?), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Btrfs не стала стабильной только в одной конфигурации. И то даже в этой конфигурации она или уже стабильна или в самое ближайшее время её пометят стабильной в следующем релизе.
| |
|
|
4.33, хомяк (?), 00:13, 08/11/2019 [^] [^^] [^^^] [ответить]
| +4 +/– |
«не стабльно» недостаточно точно описывает ситуацию «гарантировано разрушает пул при отключении или аварийном завершении процесса на протяжении некоего фрагмента цикла записи».
И не только raid6, но и raid5.
| |
|
|
2.36, анонимно (?), 00:39, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый API ну разве это не шикарно!
| |
|
3.40, ilyafedin (ok), 02:51, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на
> управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый
> API ну разве это не шикарно!
Одна и прекраснейших технологий, которая... тормозит как не в себя. Нет, не шикарно, API не должно требовать демона. Они сделали го*но и только додумались, что никакой демон не нужен, а достаточно лишь либы, которая реализует API (Varlink).
| |
|
2.46, iCat (ok), 07:28, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
>Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту.
А смысл?
Разные задачи - разные инструменты.
Поиски единственной FS на все случаи жизни - занятие столь же безсмысленное, как поиски "универсальной операционной системы".
| |
|
3.81, пох. (?), 15:13, 08/11/2019 [^] [^^] [^^^] [ответить] | +2 +/– | ну вообще-то весь смысл этого cpaтиса, прости Г-ди - это как раз заменить возмож... большой текст свёрнут, показать | |
|
2.72, Онаним (?), 14:33, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
ZFS элегантна примерно настолько же, насколько эленгантен ожиревший танцор балета весом 200кг с протезом вместо одной ноги, который к тому же вдвое длиннее оставшейся целой.
| |
|
1.2, Аноним (3), 21:01, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Есть истории успеха в восстановление рейда на уровне LVM?
mdraid при флапе нескольких линков восстанавливается с полпинка.
Аппаратный чуть сложнее.
lvcreate --type raid5 при тестах восстановить не удалось.
| |
|
|
3.54, Аноним (54), 11:00, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | например вот такое Aug 18 06 32 19 server kernel ata6 00 exception Emask 0x50... большой текст свёрнут, показать | |
|
4.76, Онаним (?), 14:42, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Простите, но рейд и должен разваливаться при таком поведении. Флап линка - повод выбросить носитель из рейда до ручного вмешательства.
| |
|
5.77, Онаним (?), 14:44, 08/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
Интересно то, что md похоже по умолчанию этого не делает... и тем более - не запоминает состояния на момент отвала. Битмап-то включен, надеюсь? Если нет, ССЗБ.
| |
|
|
7.87, Онаним (?), 16:13, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Ну вот у писателя выше, судя по написанному, этого не произошло. Что он там выкрутил и где - мне неведомо.
| |
|
8.96, пох. (?), 17:06, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | видимо, не успело - традиционная беда линукса с несвязанными как следует между с... большой текст свёрнут, показать | |
|
|
10.142, пох. (?), 12:09, 15/11/2019 [^] [^^] [^^^] [ответить] | +/– | у меня нет multipathd и прочих дискмаперных наворотов - поэтому и работает То ... текст свёрнут, показать | |
|
|
|
|
6.109, Аноним (109), 08:11, 09/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
bitmap включен, возможно поэтому диск и не вылетел из массива (но проверять с отключеным не хочу).
| |
|
|
|
|
2.11, ананим.orig (?), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
на данный момент (а это уже лет 10) lvm - это всего-лишь комбинация тех или иных преднастроенных вызовов к dm.
фактически как сабж, но без дбаса и с рэйдом.
| |
|
3.34, хомяк (?), 00:15, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
однако инструментов для аварийного ковыряния в пуле не имеет. А инструменты от dm-* не подходят, потому что это хоть и dm* глубоко в душе — но снаружи всё же не dm*.
| |
|
4.61, Аноним (54), 12:10, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
эм... а какие инструменты вам нужны? и какие есть у zfs?
lvm/mdadm/cryptsetup - это обертки над dmsetup, но вам никто не мешает в существующий lvm лезть руками при помощи dm-утилит (на свой страх и риск разумеется).
из моей практики, у меня были проблемы с lvm, но мне его родных утилит хватило для восстановления.
поделитесь своим опытом, когда lvm-утилиты не справились?
| |
|
|
2.31, Аноним (31), 00:05, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> нескольких линков
если вы несколько дисков отключили от raid 5 то восстановить его будет нельзя.
| |
|
|
4.88, Онаним (?), 16:14, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> флап != отключение.
При нормальной работе нормальной системы флап должен == отключению, за исключением единственного случая - когда от отключения до подключения не было записи, да и то нежелательно назад подключать. В противном случае последствия непредсказуемы.
| |
|
5.110, Аноним (109), 08:18, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– | это в идеале а еще raid1 на чтение должен читать с обоих дисков и в случае несо... большой текст свёрнут, показать | |
|
6.112, Онаним (?), 10:40, 09/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
По факту аппаратные рейд делают так же, а для сверки данных и обнаружения дохлых блоков есть скраббинг. В mdadm он тоже настраивается, кстати.
| |
|
|
|
3.111, Аноним (109), 08:57, 09/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
нет, почему же? могу говорить только за mdadm, но отключение двух и более дисков из raid5 (на горячую) не убивают массив безвозвратно: доступ к данным массива теряется (io error на read/write), по /proc/mdstat видно что несколько дисков отсутствуют, перезапуск массива (mdadm --stop/mdadm --assemble --scan) результата не дает - массив все так же игнорирует отключеные диски (даже если они уже в системе), но mdadm --assemble --force - проблему решает, mdadm забивает на разные timestamp'ы у дисков одного массива и собирает их - массив можно дальше использовать. естественно данные, которые записывались в момент сбоя могут быть неполные, но все данные при этом не теряются.
| |
|
2.79, Онаним (?), 14:47, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
> mdraid при флапе нескольких линков восстанавливается с полпинка
RAID5? При флапе нескольких линков? Я очень сомневаюсь, что на том, что там восстановилось, данные будут корректны - при условии, что в момент отвала шла какая-то запись, естественно. Вылет двух дисков в RAID5 - это фатал.
| |
|
3.85, пох. (?), 15:26, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
ну так ты продожай тут постить fud про zfs, не владея темой от слова нихрена.
У которой флап (а не тотальный отказ) любого количества дисков в raidz1 - ведет всего лишь к потере последней не синхронной операции записи и необходимости ручного переподключения.
Вот такие вот чудеса, с 2004го года.
А у тебя сразу п-ц и фатал, и непонятно, какие данные испортились, и как их отличить, но ты продолжай рассказывать какая плохая zfs, как не нужны чексуммы, и как все хорошо и замечательно у л@п4@тых в их поделках.
P.S. поздравляю Максима с новой победой г0вноробота над людьми. А на новость про lizard времени так и не нашлось.
P.P.S. mdadm таки переживет флап и с raid5, но гарантии что потом хваленый xfs восстановится родными утилитами нет никакой, разумеется.
| |
|
4.86, Онаним (?), 16:11, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
raidz1
raid5
FUD
... слов нет ... речь не про дублирующий рейд, да и там флап двух дисков (если дублей 1 штуко) - фатал
А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод выкинуть диск до ручного вмешательства.
| |
|
5.92, пох. (?), 16:50, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
> raidz1
> raid5
> FUD
> ... слов нет ... речь не про дублирующий рейд, да и там
Наш всезнайка еще и не в курсе что такое raidz. Это не "дублирующий рейд", так, на минуточку. mirror у zfs называется, внезапно, mirror.
Но мнение при этом про zfs - он имеет, ага.
> флап двух дисков (если дублей 1 штуко) - фатал
нет. Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных от этого не должны мгновенно аннигилироваться.
> А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод
> выкинуть диск до ручного вмешательства.
именно так и происходит. Но одно дело, когда ручное вмешательство - просто вручную выдать команду attach или перезагрузиться в надежде на автоматику, а потом проверить консистентность дисков, совсем другое - когда ты сидишь перед рухнувшим dm, и не знаешь, как его теперь собрать обратно, а stackoverflow недоступен из-за аварии у оператора.
| |
|
6.94, Онаним (?), 17:00, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных
Ну давай, расскажи мне про нормально спроектированные системы, где так происходит. Желательно с названиями.
Терабайты данных от этого никуда не деваются, диск вылетает, остальные работают. Если есть резерв - начинается копирование на резерв.
> рухнувшим dm
Так не надо его заставлять работать с выпавшим диском после флапа, и он никуда не денется. Да и md назад собрать - не бог весть какая затея, достаточно man с машины не удалять. Стэковерфловы - удел девляпсов.
| |
|
7.99, пох. (?), 17:08, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
> он никуда не денется. Да и md назад собрать - не бог весть какая затея
md - да. А как насчет dm-raid?
(по понятным причинам, первый использовать, к сожалению, не стоит)
| |
|
6.97, Онаним (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно.
| |
|
7.102, пох. (?), 17:21, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно.
чтобы это мнение имело ценность - надо иметь либо обоняние, либо хотя бы зрение.
А ты, увы, судя по невладению даже базовой терминологией - слышал в перепеве Рабиновича непонятно что и о чем.
| |
|
|
|
|
|
|
|
2.20, Аноним (20), 22:47, 07/11/2019 [^] [^^] [^^^] [ответить]
| +2 +/– |
Так написано же:
Проект изначально преподносится как не требующий для администрирования квалификации эксперта по системам хранения.
Пора редхету начать выпускать домашние аэс, не требующие квалификации эксперта.
| |
|
|
4.63, Аноним (54), 12:11, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.
| |
|
5.68, пох. (?), 12:44, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.
ты правда думаешь что dbus-поделка что-то умеет - исправлять?
Ну и про создание - пожалуйста, список команд для ручного создания xfs over thin-lvm (потому что мы, наверное, все же хотим lightweight-снапшоты) в студию, не подглядывая в стековерфлоу.
шит-криптографию и redundancy, чорт с ними, пока пропустим.
| |
5.114, Онаним (?), 10:45, 09/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.
При нештатных ситуациях подобные управлялоподелки разваливаются первыми.
| |
|
|
|
2.26, Аноним (26), 23:14, 07/11/2019 [^] [^^] [^^^] [ответить]
| +2 +/– |
Я читал их документацию. Они собирают из кучи подсистем ядра (dmcrypt llvm xfs and friends) 5 слоев абстракции и управляют этим всем через ОДНУ утилиту в юзерспейсе. На выходе должна получится та же ZFS, только построенная на старом надежном функционале встроенном в ядро линукс.
Вот только ZFS-фичи начнутся с версии 3.0.
А еще, мне очень интересно, что случится с пулом если этот демон "внезапно" умрет (скажем от ommkiller-a), а система продолжит работать... а потом, как произойдет перемещение пары тройки терабайт пропадет питание.
Хорошо что у меня есть бекапы.
| |
|
3.32, Аноним (31), 00:11, 08/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
> 5 слоев абстракции
Ещё интересно как это всё будет работать при обновлении ядра или утилит, с учётом "stable api nonsense". Если конечно у них вообще есть планы развивать это, а не делать эксклюзивно для redhatibm.
| |
|
4.93, пох. (?), 16:54, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
>> 5 слоев абстракции
> Ещё интересно как это всё будет работать при обновлении ядра или утилит,
> с учётом "stable api nonsense". Если конечно у них вообще есть
ну типа, чем дальше ты от "nonsense", тем безопаснее. То есть обновления ядра не затронут это чудо совсем, а при обновлении dbus скорее всего отвалится управление, но не развалится fs.
А если ты так обновился, что в /sbin/lvm код несовместим с dm-*.ko - это, вероятно, либо очень кривой дистрибутив, либо нефиг лезть руками в сложные системы без понимания что и от чего тут зависит.
Это тебе не "мы тут в новой версии запретили aes", и модуль не грузится и не компилируется.
| |
|
|
|
|
2.30, пох. (?), 23:44, 07/11/2019 [^] [^^] [^^^] [ответить]
| –2 +/– |
лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще более сомнительными чем перспективы йежа.
| |
|
3.117, IdeaFix (ok), 12:46, 10/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще
> более сомнительными чем перспективы йежа.
Вы не поверите, но и МСовских гипервизоров и МСовской гиперконвергенции несколько больше, чем всяких проксмоксов и пр. вместе взятых...
| |
|
4.118, пох. (?), 07:28, 11/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
не поверю. Где они, блжат? У MS в ажурном облачке?
Проксмоксу видел, от наколенных поделок в конторе на пятнадцать страдальцев (с затолканым туда же фринасом, ховнклаудом и фрипое6иксой, как тут кто-то гордился) до довольно больших (где реально ссыкотно как оно все еще вообще не навернулось)
Впопенштифт, с ceph и вот этой всей херней, настроенный методом next-next-next без малейшего понимания чем чревато - каждый день вижу, с..ные аутсорсеры.
Про кластеры из г-на и палок (в смысле гластеров/прочих хреньфс) - ну живьем не видел, кроме собственных экспериментов, но слышал и читал - дохрена. У кого-то даже и работает, пока еще.
Даже вмварьскую vsan видел (да, п-ц, непонятно ни зачем, ни как они вообще еще живут - но есть).
Винду - не, не видел. При том что винда - везде, а вот эти линуксоподелки из дерьма и палок - очень местами и временами, и я еще и сознательно держусь от них как можно дальше, чтоб чинить не припахали.
У всех в этом "везде" почему-то обычные san-стораджи, иногда в обертке какой-нибудь виртуализации, иногда просто так.
То есть вот если для линукса еще десять лет назад было _общим_ решением - "ставимся на машину с двумя дисками - включаем lvm с --mirrors 2, если железным рейдом обделили", то увидеть винду с включенным storage space (что можно было до недавнего времени в любой десяточке любому васяну) - ни разу. Васяны не в курсе, а остальным, видимо, не надо.
| |
|
5.137, IdeaFix (ok), 22:51, 13/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Практически все крупные ВУЗы, некоторые "типы" крупных госконтор и пр. оченно аквтивно используют гиперв. Просто гиперконвергенция от МС получается куда дешевле и понятнее гиперконвергенции от DELL-EMC даже на том же самом железе. И если дедупликацию от EMC мало кто на поде юзал, то тут есть шанс...
Сам удивился как много в мире этого добра. Как много аутлук веб аппа и соответственно известного почтовика, как много ИИСа на проде наружу. Работает как-то. А азура нет... там другое.
| |
|
|
|
|
|
2.69, пох. (?), 12:46, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> Как там насчёт интеграции с systemd?
без него ты даже не подключишь thin-раздел. Такие вот пирожки с крысятами :-(
P.S. буду рад увидеть инструкцию, опровергающую это утверждение. Чур - лично проверенную.
| |
|
1.45, Аноим (?), 06:59, 08/11/2019 [ответить] [﹢﹢﹢] [ · · · ]
| +1 +/– |
> Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus
Вот это кстати, очень показательно: разрабы D-Bus занимаются "перестановкой кроватей" а все, чей софт от этого дибаса зависит, вынуждены эту имитацию деятельности отслеживать и переделывать свои проги.
PS: Поигрался с этим стратисом: простой, удобный, ненужный. Как-то так)
| |
|
2.52, Аноним (53), 09:54, 08/11/2019 [^] [^^] [^^^] [ответить]
| +3 +/– |
>разрабы D-Bus занимаются "перестановкой кроватей"
Или удовлетворением требований не использовать оскорбляющие чьи-то чувства имена.
| |
|
1.57, mumu (ok), 11:27, 08/11/2019 [ответить] [﹢﹢﹢] [ · · · ]
| +3 +/– |
> Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus
Обновил дебас - развалился кластерный рейд. Энтерпрайзненько так.
| |
|
|
3.70, пох. (?), 12:47, 08/11/2019 [^] [^^] [^^^] [ответить]
| +1 +/– |
> ну, пользователям mdadm/lvm этого не понять.
ну да, невостановимый отвал стораджа при смене hostname (внезапно, фича начиная с rhel7) - это ж мелочи жизни.
| |
|
4.78, Онаним (?), 14:46, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
> невостановимый отвал стораджа при смене hostname
Щито, простите?
Или вы смогли так кластерный сторейдж завалить? Если да - я вас поздравляю, к кластерам вас лучше не подпускать.
| |
|
5.84, пох. (?), 15:21, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
>> невостановимый отвал стораджа при смене hostname
> Щито, простите
научись пользоваться гуглем, неумешка.
А то можешь оказаться в один непрекрасный день в очень неприятной позе, вместо любимой позы всезнайки.
| |
|
6.89, Онаним (?), 16:15, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет, и прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось.
| |
|
7.90, Онаним (?), 16:17, 08/11/2019 [^] [^^] [^^^] [ответить]
| –1 +/– |
Если ребята на кластерах додумались хостнеймы менять бездумно и всё завалить - это вообще непонимание базы, неумение читать доки, ССЗБ и ЛПП, а не проблема RHEL.
| |
|
8.108, J3 (?), 08:04, 09/11/2019 [^] [^^] [^^^] [ответить] | +/– | Hostname не должен влиять на что-то отличное от сетевых настроек служб и т п Е... текст свёрнут, показать | |
|
7.91, пох. (?), 16:44, 08/11/2019 [^] [^^] [^^^] [ответить]
| +/– |
> Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет,
next-next-next нажимаешь?
Ну, ок.
> прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось.
непохоже.
Больше похоже что пока - проносило.
P.S. что характерно - пользоваться поисковиком пациент не умеет.
| |
|
8.95, Онаним (?), 17:01, 08/11/2019 [^] [^^] [^^^] [ответить] | +/– | Да, в голой консоли пишу next, и после пальцем на несенсорный экран там, где нап... текст свёрнут, показать | |
|
|
|
|
|
|
|
|