подскажите как можно создать падежное (с дублирование как raid1 и оповещением при сбое в диске) хранилище на 100 тера байт
> _падежное_.
надежное ... описался
Для начала купить дисковый массив.
А дальше - в зависимости от возможности этой железки.
> подскажите как можно создать падежное (с дублирование как raid1 и оповещением
> при сбое в диске) хранилище на 100 тера байтну если использовать 2ТБ диски, то на рейд 1 понадобится 100 дискв. эт довольно большая горка дисков.
в сети был рассказан случай, когда умелец собрал хранилище в деревенном ящике на 96 терабайт под виндой, для хранения фильмов, там был рейд 5 кажется, и ящик был довольно внуштельный.
существуют промышленные системы подобного архитекрутного приема. это дешево, умеренно надежно.
RAID1 и 100 Т при макс размере носителя 2Т ?
автор хотя бы изучил понятие RAID прежде чем писать такую ахинею ...
Raid1 из большого количества маленьких дисков будет очень не эффективно. RAID10 ситуацию не исправит.
Т.к. FreeBSD я бы попробовал ZFS+RAIDZ. Это надежнее чем raid5. Ну а далее только от ресурсов и фантазии, HAST например пришаманить. Я бы с удовольствием поучаствовал в этом проекте, завидую Вам.
> Raid1 из большого количества маленьких дисков будет очень не эффективно. RAID10 ситуацию
> не исправит.
> Т.к. FreeBSD я бы попробовал ZFS+RAIDZ. Это надежнее чем raid5.... только не забывать рекомендованные ограничения на количество винтов в одном zfs-пуле...
>> Raid1 из большого количества маленьких дисков будет очень не эффективно. RAID10 ситуацию
>> не исправит.
>> Т.к. FreeBSD я бы попробовал ZFS+RAIDZ. Это надежнее чем raid5.
> ... только не забывать рекомендованные ограничения на количество винтов в одном zfs-пуле...2 в 64 степени?
> 2 в 64 степени?"Sun рекомендует использовать от трех до девяти жестких дисков в конфигурации RAID-Z."
.. Да, можно и больше - но на чем-то же рекомендации Sun основаны...
хорошо... задам вопрос по другому
как yandex или google хранит свои данные?
и как обеспечивается надежность хранения, доступ, и нагрузка.
> хорошо... задам вопрос по другому
> как yandex или google хранит свои данные?
> и как обеспечивается надежность хранения, доступ, и нагрузка.Не вдаваясь в детали, представьте себе 100 хранилищ по терабайту, с системой распределения файлов по нодам, контроля нагрузки, состояния нод, целостности и т п...
Т.е. есть некоторый диспетчер, знающий где что хранится и делающий соответствующие действия/перенаправления/итд..
>> хорошо... задам вопрос по другому
>> как yandex или google хранит свои данные?Правильный ответ: на линуксе! :>
> Не вдаваясь в детали, представьте себе 100 хранилищ
>> 2 в 64 степени?
> "Sun рекомендует использовать от трех до девяти жестких дисков в конфигурации RAID-Z."
> .. Да, можно и больше - но на чем-то же рекомендации Sun
> основаны...Можно ссылку на рекомендацию?
>> 2 в 64 степени?
> "Sun рекомендует использовать от трех до девяти жестких дисков в конфигурации RAID-Z."
> .. Да, можно и больше - но на чем-то же рекомендации Sun
> основаны...дык это на рекомендация на raidz, т.е. на один vdev, а не на пул - в пуле может быть много vdev'ов
>> 2 в 64 степени?
> "Sun рекомендует использовать от трех до девяти жестких дисков в конфигурации RAID-Z."
> .. Да, можно и больше - но на чем-то же рекомендации Sun
> основаны...Дык, прочтите внимательно рекомендации.
Что мешает сделать n*RAIDZ в одном пуле?
> подскажите как можно создать падежное (с дублирование как raid1 и оповещением
> при сбое в диске) хранилище на 100 тера байтКупить готовое решение. Посмотрите характеристики midrange массивов HP, Hitachi, NetApp, EMC.
именно так как я и думал, вот интересно как это повторить?
я имею ввиду, хочу так же сделать, считая что их опыт бесценен!
> именно так как я и думал, вот интересно как это повторить?
> я имею ввиду, хочу так же сделать, считая что их опыт бесценен!спаять чтоле?
>> именно так как я и думал, вот интересно как это повторить?
>> я имею ввиду, хочу так же сделать, считая что их опыт бесценен!
> спаять чтоле?Ну может быть дело еще и в бабле? Массив от HP стоит от 3 000 000 + диски. А вот взять несколько серверов подешевле, например, intel, воткнуть в каждый дисков штук 8 по 2ТБ. Серверов потребуется 13 лучше больше, а дисков 8*13=104. Ко всему этому делу свич гигабитный + CARP для балансировки отказоустойчивости. Всю тему организовать на iSCSI+ZFS.
Считаем:
сервер intel - 60т.р.
1 винт на 2ГБ который предназначен для серверов - 8 т.р.
13*60 = 780 т.р. - сервера
8 * 104 = 832 т.р. - диски
Итого 1 612 т.р. + пара гигабитных свичей на 24 порта. Можно даже D-Link, т.к. благодаря CARP все будет отказустойчиво.
В конечном счете будет около 2 000 000 р, что примерно в два раза меньше чем решение от hp.
> подскажите как можно создать падежное (с дублирование как raid1 и оповещением
> при сбое в диске) хранилище на 100 тера байтFreeBSD AMD64
4*2TB в режиме ZFS RAID10 = чистыми 4TB
Массив высотой 2U может вместить 6-12 винтов SATAIIна 100TB надо 8 таких массивов
> подскажите как можно создать падежное (с дублирование как raid1 и оповещением
> при сбое в диске) хранилище на 100 тера байтА варианты навроде Ceph (http://ceph.newdream.net/about/) не рассматривали?