1.1, Fracta1L (ok), 10:23, 10/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| +5 +/– |
А может, и не стоит тащить в главную ветку ядра всё подряд? Под что-то специфическое всегда можно создать отдельные ветки ядра.
| |
|
2.8, Аноним (-), 10:46, 10/06/2018 [^] [^^] [^^^] [ответить]
| –2 +/– |
> А может, и не стоит тащить в главную ветку ядра всё подряд?
такая политика. Емнип давеча были мысли на тему отделения дров от, собсна, ядра, например. Но пока все как есть
| |
|
3.61, Anonim (??), 10:14, 11/06/2018 [^] [^^] [^^^] [ответить]
| –2 +/– |
давно пора. помню линус говорил что мега-ядро позволяет сделать его быстрее, а потом выкатили динамически подгружыемые модули без потери эффективности.
все эти компоненты не дают мне функционала если я ими не пользуюсь, зато открывают дыры в кернел спейс.
| |
|
|
|
4.20, Аноним (-), 12:52, 10/06/2018 [^] [^^] [^^^] [ответить]
| +2 +/– |
> Для больших HPC?
Больших - это которые под диваном не помещаются?
| |
|
|
2.16, Crazy Alex (ok), 12:02, 10/06/2018 [^] [^^] [^^^] [ответить]
| +3 +/– |
Здорово усложняется поддержка - при изменениях в ядре, естественно, не получится оглядываться на кучу сторонних модулей, о которых никто и не знает. Либо тогда надо таки вводить stable kernel API, что создаст кучу других проблем - от необходимости тащить массу костылей до расцвета блобов.
| |
|
3.62, Anonim (??), 10:17, 11/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
не нужно костылей. если коллектив не способен адаптировать модуль под "stable kernel api", я сомневаюсь что они способны этот полезный модуль вообще создать.
| |
|
4.65, Crazy Alex (ok), 11:25, 11/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
Костыли понадобятся потом - чтобы сохранять этот "stable kernel API" (на который окажется завязано 100500 сторонних модулей) несмотря на необходимость изменений. Я бы сказал, что пара "stable kernal API nonsense / don't break userland" - одна из важнейших причин успешного развития линукс
| |
|
5.81, Аноним (-), 07:55, 13/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
пример из compat-rdma, compat-wireless, даже в люстре libcfs (и куча configure checks) говорят что это очень даже нужное.
| |
|
|
|
|
1.11, iPony (?), 11:03, 10/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Когда что-то исключают из линуксового ядра - это почти всегда хорошо. А то слишком жирно.
| |
|
2.12, Полее (?), 11:18, 10/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
Раньше говорили прямо противоположное: *смотрите, в нашем крутом линуксе поддерживается всё и вся из коробки, не то что в этой дохлой винде!11*
Времена изменились...
| |
|
3.29, demimurych (ok), 14:57, 10/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
Покажи мне винду где хотя бы на словах поддреживался Lustre или что то подобное
| |
|
4.40, Аноним (-), 18:21, 10/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
Ну теперь и линукс не поддерживает, наконец-то догнал вендус по фичам.
| |
4.86, Аноним (-), 12:28, 13/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
> Покажи мне винду где хотя бы на словах поддреживался Lustre или что
> то подобное
проект WINC - windows native client. Существовал в Sun до покупки его Oracle.
Тормозилось отсутствием вменяемого OFED, а сейчас всех устраивает Samba export с люстры.
Опять же - мисье наверно не в курсе pNFS ?
https://www.cohortfs.com/project/windows-nfs-clients
на делах пойдет? один метадата сервер - но так и люстра не так уж давно обзавелась DNE.
| |
|
|
2.14, Аноним (-), 11:26, 10/06/2018 [^] [^^] [^^^] [ответить]
| +3 +/– |
Чего жирно? ФС, работающая с обычными файлами, всегда модулем оформлена. Не нужна - не загружай.
| |
|
|
2.33, Аноним (-), 15:51, 10/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
Это еще неизвестно. Линус обычно ругает или, в крайнем случае, показывает фак с трибуны, а Грег просто идет и выносит твой код из ядра.
| |
|
3.35, arisu (ok), 17:01, 10/06/2018 [^] [^^] [^^^] [ответить]
| +6 +/– |
вообще-то он кучу раз тыкал их носом, и даже патчи за них делал. а они решили, что теперь грег так и будет за них до конца времён всё чистить. ну, пусть попробуют с линусом такую штуку провернуть теперь, будет весело.
| |
|
4.80, Аноним (-), 21:09, 12/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
> вообще-то он кучу раз тыкал их носом, и даже патчи за них
> делал. а они решили, что теперь грег так и будет за
> них до конца времён всё чистить. ну, пусть попробуют с линусом
> такую штуку провернуть теперь, будет весело.
и кучу раз делали патчи в ядре - не задумываясь что есть что-то в stageing.
Отдельно вспоминается вырезанный global MR в OFED, который разрешен для ULP, но категорически запретили для люстры (коя по сути тот же ULP в этой части).
| |
|
|
|
1.41, Адекват (ok), 18:31, 10/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| –2 +/– |
я все правильно понял ?
> кода кластерной файловой системы Lustre, которая применяется на 70% из 100 крупнейших кластеров
И эту файловую систему, которая применяется на 70% крупнейших кластеров выкинут ?
| |
|
2.43, JL2001 (ok), 18:36, 10/06/2018 [^] [^^] [^^^] [ответить]
| +4 +/– |
> я все правильно понял ?
>> кода кластерной файловой системы Lustre, которая применяется на 70% из 100 крупнейших кластеров
> И эту файловую систему, которая применяется на 70% крупнейших кластеров выкинут ?
неправильно вы поняли, не применяется ЭТА версия, которую выкинут
> По сути имеется два варианта Lustre: отдельная от основного ядра ветка, в которой ведётся разработка и которая применяется в рабочих кластерах, и вариант в составе основного ядра, в который по возможности переносятся случайные исправления и изменения. | |
|
3.63, kvaps (ok), 10:23, 11/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
ЕМНИП, в составе ядра был только клиент, он работает во всех дистрибутивах, и позволяет без труда смонтировать lustre где угодно.
Есть ещё серверная часть и два бэкенда для нее:
ldiskfs - для нее требуется специальное патченное ядро
И zfs - код lustre принят в состав проекта zfs on linux и патченное ядро уже не требуется, но требется наличие модулей zfs.
Плюс есть пачка отдельных модулей которые необходимы для работы серверной части, они предоставлены и работают почему-то только в Centos.
| |
|
4.78, Аноним (-), 19:52, 12/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
собираются модули под ubuntu, suse, redhat.
А исходники есть в дебиан и arch.
| |
4.82, Аноним (-), 08:02, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | btw не путайте божий дар с яшницей - плиз правильнее сказать иначе ldiskfs э... большой текст свёрнут, показать | |
|
5.84, kvaps (ok), 11:09, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Имел ввиду что в проекте zfs on linux уже есть все необходимые патчи для запуска... большой текст свёрнут, показать | |
|
6.85, Аноним (-), 12:23, 13/06/2018 [^] [^^] [^^^] [ответить] | +1 +/– | Блин Ну ZVOL это контейнер с транзакциями, большего люстре и не надо при некот... большой текст свёрнут, показать | |
|
7.87, kvaps (ok), 13:07, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Ну в анонсах zfs on linux на опеннете об этом часто упоминается как и changelog ... большой текст свёрнут, показать | |
|
8.88, Аноним (-), 16:00, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Нужно найти того кто писал и попросить адрес драг-диллера Трава у него видать к... большой текст свёрнут, показать | |
|
9.89, kvaps (ok), 17:18, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Да, была идея поднять две lustre и синхронизировать изменения между ними Так ка... большой текст свёрнут, показать | |
|
10.90, Аноним (-), 17:35, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Зависит - хватит ли вам одного сервера для хранения данных Люстра это в первую ... большой текст свёрнут, показать | |
|
11.91, kvaps (ok), 18:54, 13/06/2018 [^] [^^] [^^^] [ответить] | +/– | Кажется мы друг друга немного недопоняли Серверов по прежнему планируется мно... большой текст свёрнут, показать | |
|
12.92, Аноним (-), 06:03, 14/06/2018 [^] [^^] [^^^] [ответить] | +1 +/– | Возможно, я привык оперировать слегка другими задачами Дело не в количестве нод... большой текст свёрнут, показать | |
|
|
|
|
|
|
|
|
|
|
2.45, arisu (ok), 18:59, 10/06/2018 [^] [^^] [^^^] [ответить]
| +5 +/– |
> я все правильно понял ?
нет. ты даже не смог прочитать новость — какое там «понимание»…
| |
|
1.42, JL2001 (ok), 18:35, 10/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
//offtop
подскажите что сейчас стоит использовать linux в качестве "распределённого raid1/5/6" на два компа (в соседних комнатах)?
и как такое принято делать?
| |
|
2.44, Аноним (-), 18:50, 10/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
а куда ты собрался распределять 5 и 6 по двум узлам? зеркало - два таргета iscsi объединить через mdadm
| |
|
3.46, JL2001 (ok), 19:08, 10/06/2018 [^] [^^] [^^^] [ответить]
| –1 +/– |
> а куда ты собрался распределять 5 и 6 по двум узлам? зеркало
> - два таргета iscsi объединить через mdadm
ещё есть ноут (даже два)
цель - домашняя защита от вылета диска (ну и ноут могут и увезти на выходные, гг)
спасибо
| |
|
4.48, kvaps (ok), 19:44, 10/06/2018 [^] [^^] [^^^] [ответить]
| +3 +/– |
В вашем кейсе смысла в сетевом raid нет. Нужна репликация на уровне файлов.
Я бы предложил syncthing или resilio.
| |
|
5.51, JL2001 (ok), 21:17, 10/06/2018 [^] [^^] [^^^] [ответить]
| –1 +/– |
> В вашем кейсе смысла в сетевом raid нет. Нужна репликация на уровне
> файлов.
> Я бы предложил syncthing или resilio.
мне бы прозрачно для юзерских программ и, желательно, с блокировкой до получения изменённых блоков в реалтайме при попытке чтения/записи (при попытке развернуть/удалить/переименовать одну и ту же фоточку с двух ноутов одновременно)
как я понял syncthing и resilio - аналог rsync_в_кластер ?
| |
|
6.52, kvaps (ok), 22:44, 10/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
> мне бы прозрачно для юзерских программ и, желательно, с блокировкой до получения
> изменённых блоков в реалтайме при попытке чтения/записи (при попытке развернуть/удалить/переименовать
> одну и ту же фоточку с двух ноутов одновременно)
> как я понял syncthing и resilio - аналог rsync_в_кластер ?
Не совсем, скорее как торрент только для синхронизации файлов.
Блокировку не предоставляет, но конфликты разрешать умеет. Частично синхронизировать изменеия вроде тоже умеет, прозрачно для приложений - так что для фоточек - самое оно.
| |
|
|
4.49, Аноним (-), 19:46, 10/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
>> а куда ты собрался распределять 5 и 6 по двум узлам? зеркало
>> - два таргета iscsi объединить через mdadm
> ещё есть ноут (даже два)
> цель - домашняя защита от вылета диска (ну и ноут могут и
> увезти на выходные, гг)
> спасибо
glusterfs, только надо призадуматься планированием размещения её кусков и кворумом
| |
4.54, Аноним (-), 22:55, 10/06/2018 [^] [^^] [^^^] [ответить]
| +1 +/– |
Я в похожем случае собирался поиграться с Тахо (Tahoe, как озеро), но решил что классической бэкап на основе Бакулы мне подойдёт больше, чем репликация.
| |
|
|
|
3.69, Ed (??), 13:26, 11/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
> Gluster. Он глючный и тормозной, но под файлшару нормально.
Это вы о чем ? Может просто научиться читать документацию ? ;-)
Он работает в составе RHEV, не стоит говорить такие глупости.
| |
|
4.70, Аноним (-), 13:43, 11/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
Дополню его мысль: он глючный, тормозной, но пользоваться вполне можно. Особенно когда rhev сам чототам в тихаря оркестрирует и прячет косяки.
| |
|
|
|
1.47, Аноним (-), 19:13, 10/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
А чем нынче можно пошарить файлы между несколькими серверами в разных ДЦ, в т.ч. одним виндовым хостом? По возможности чтобы секурность была средствами ФС, без наворачивания поверх VPN
| |
|
2.55, kvaps (ok), 23:02, 10/06/2018 [^] [^^] [^^^] [ответить]
| –1 +/– |
> А чем нынче можно пошарить файлы между несколькими серверами в разных ДЦ,
> в т.ч. одним виндовым хостом? По возможности чтобы секурность была средствами
> ФС, без наворачивания поверх VPN
Ну WebDAV например, хотя зависит от конкретных задач. А в чем сложность наворачивания поверх VPN или IPsec?
| |
|
|
2.73, Старый одмин (?), 14:44, 11/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
Зря ты так. У меня на VPS серверах она используется. Как бы я выполнял горячее резервное копирование без неё, даже не знаю. Не платить же операторам за снапшоты, которые в том же датацентре хранятся.
| |
|
1.67, Ed (??), 13:09, 11/06/2018 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
При существующих стабильных проектах Gluster и Ceph, думаю никто
не будет печалится о Lustre, которая пишется разработчиками из под
палки.
| |
|
2.79, Аноним (-), 21:07, 12/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
хм.. а можно развернуть "из под палки" ?
Особенно если посмотреть что основные люди как зашли в проект в районе 2003года, так до сих пор и комитят..
Не сходится как-то с определением "из под палки".
| |
|
3.94, Аноним (-), 15:30, 14/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
> хм.. а можно развернуть "из под палки" ?
> Особенно если посмотреть что основные люди как зашли в проект в районе
> 2003года, так до сих пор и комитят..
> Не сходится как-то с определением "из под палки".
Ну новость о том, что они не хотят ничего коммитить, будто их не кормят и насилуют, поэтому их код надо либо отдельно сопровождать кому-то, либо выкинуть из ядра.
| |
|
4.98, Аноним (-), 07:42, 16/06/2018 [^] [^^] [^^^] [ответить] | +/– | Ох вот уж эти красно новость совсем не о том Новость о том что 1 Когда ... большой текст свёрнут, показать | |
|
5.99, arisu (ok), 17:51, 16/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
короче, как обычно: никто не хочет забесплатно поддерживать ненужную им коммерческую фиготень. хнык-хнык.
| |
|
6.100, Аноним (-), 15:55, 17/06/2018 [^] [^^] [^^^] [ответить] | +/– | Хнык-Хнык это вы уж придумали По себе судите думаю если не нужную коммерческу... большой текст свёрнут, показать | |
|
|
|
|
2.83, Аноним (-), 08:07, 13/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
> При существующих стабильных проектах Gluster и Ceph, думаю никто
> не будет печалится о Lustre, которая пишется разработчиками из под
> палки.
btw. вы видели Ceph, Cluster на 2000 нодах с данными (общий объем 20P и выше) и где нить 10000 клиентов.
Сколько там времени кворум будет собираться когда часть дата нод уйдет в offline из-за сетевых косяков?
Что-то там с клиентами у них? FUSE? ой.. а он сможет выдать 10 Gbyte/s на 16 клиентов? Или сдохнет после 10м/с ?
Что там у нас с random IO - который требует кучу переключений контекстов - что очень весело с современными "фиксами" на мельдаун?
| |
|
3.95, Аноним (-), 15:32, 14/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
>> не будет печалится о Lustre, которая пишется разработчиками из под
>> палки.
> btw. вы видели Ceph, Cluster на 2000 нодах с данными (общий объем
> 20P и выше) и где нить 10000 клиентов.
> Сколько там времени кворум будет собираться когда часть дата нод уйдет в
> offline из-за сетевых косяков?
> Что-то там с клиентами у них? FUSE? ой.. а он сможет выдать
> 10 Gbyte/s на 16 клиентов? Или сдохнет после 10м/с ?
> Что там у нас с random IO - который требует кучу переключений
> контекстов - что очень весело с современными "фиксами" на мельдаун?
пользуюсь glusterfs напрямую, без fuse, чего и всем желаю
| |
|
4.97, Аноним (-), 19:19, 14/06/2018 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
>>> палки.
>> btw. вы видели Ceph, Cluster на 2000 нодах с данными (общий объем
>> 20P и выше) и где нить 10000 клиентов.
>> Сколько там времени кворум будет собираться когда часть дата нод уйдет в
>> offline из-за сетевых косяков?
>> Что-то там с клиентами у них? FUSE? ой.. а он сможет выдать
>> 10 Gbyte/s на 16 клиентов? Или сдохнет после 10м/с ?
>> Что там у нас с random IO - который требует кучу переключений
>> контекстов - что очень весело с современными "фиксами" на мельдаун?
> пользуюсь glusterfs напрямую, без fuse, чего и всем желаю
на 10-20 тыс клиентов? вот обещают что в OKR их будет 100 тыс..
| |
|
|
|
|