1.1, Pasha (??), 18:26, 15/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Для тех, у кого стоит выбор реализации RAID. Одна из основных функций RAID(за исключением L0) - обеспечение сохранности данных за счет избыточности дисков. В серьезных отказоустойчивых RAID в порядке нормы горячее резервирование и самого RAID-контроллера(блоков питания, кэш и т.д.), т.к. в случае выхода из строя контроллера оперативно восстановить доступ к данным не получится. Прийдется срочно покупать RAID аналогичной модели(Если модель снята с производства, тогда может наметится серьезный гемморой). Так что планируя RAID учитывайте этот момент. В случае с софтовым RAID можно существенно съэкономить и время и средства, оперативно смонтировав диски с RAID на другом сервере. Так что имеет смысл в тестах подобного рода рассматривать еще и время простоя системы в случае одиночного сбоя(диска, контроллера, БП) и время ПОЛНОГО восстановления RAID после сбоя(отказа диска, контроллера, БП).
| |
|
2.16, Щекн Итрч (?), 22:08, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Поразительный дебилизм на грани скотства :)
"Зачем нужен аппаратный RAID"? :) - да глупы же попросту покупатели сих приблуд, да? :)
А вот тестеры софт-RAID - умны! :) :) :)
| |
|
3.17, SiR (?), 23:16, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> Поразительный дебилизм на грани скотства :)
> "Зачем нужен аппаратный RAID"? :) - да глупы же попросту покупатели сих приблуд, да? :)
> А вот тестеры софт-RAID - умны! :) :) :)
Т.е. то что HWRAID точно такой же SWRAID, но вшитый в пзу и то, что покупатели сих приблуд точно такие же тестеры очередного поделия индуских програмеров тебя не смущает? Ну кушай дальше, на здоровье.
| |
|
4.40, Gr2k (ok), 09:07, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Либо я круто ошибаюсь, либо что то тут не так, dmraid это же не софт райд, LVM софт, а это под факе райды,причем не все (на сайте редхата можно глянуть). Плюс, на дмрайде тесты что то показали, отлично. А вот как например через дмрайд восстановить разрушенный массив тестеры не задумывались? Так что сравнение любопытное, но мало применимое на практике.Либо полностью софт, либо полностью железный (что предпочтительнее с точки зрения админа). А этот дмрайд с факе райдами в пень.
ЗЫ Вообще железный райд имеет одно приимущество которое перекрывает все его недостатки, он не зависит от нагрузки на проц.
| |
4.46, Хелагар (ok), 11:52, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Т.е. по-твоему Adaptec SAS-31205 это пара SATA контроллеров и ПЗУ?
Ну-ну.....
Не путай чтоли псевдо-аппаратные райды, встроенные в матери и аппаратные рейд-контроллеры, а?
| |
|
5.80, SiR (?), 15:45, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | О, первый раз вижу человека, который свято верит, что firmware bios вливается в ... большой текст свёрнут, показать | |
|
4.76, Щекн Итрч (?), 15:03, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Спасибо, дорогой! Кушаю! Только SAS и только в хайенд контроллерах :) Ничего другого не применяю :)
| |
|
|
4.25, vitek (??), 03:21, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> PS: железные применяю SCSI и SAS, SATA как-то предпочитаю софтовые
вот это точно.
| |
|
3.50, Pasha (??), 12:06, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Спишем твою несдержанность в эмоциях не недостаток профессионального опыта, юношеский максимализм и недостаток воспитания. Мой пост предназначен не для домашних самоделкиных, для которых простой(от слова стоять) персонального компьютера лишь лишний способ попрактиковаться в танцах с бубном и пивом, и не для бюджетников "осваивающих" щедрые финансы на очередную дорогую игрушку. Пост для тех, для кого RAID - инструмент обеспечения надежной и качественной работы ИС в условиях конкурентного рынка. Для каждой задачи найдется свое решение, где-то необходим HWRAID, где-то вполне достаточно SWRAID.
Мой пост - всего лишь дополнения к тем критериям, по которым будут выбрано решение.
| |
|
2.42, Аноним (42), 10:18, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Так что имеет смысл в тестах подобного рода рассматривать еще и время простоя системы в случае одиночного сбоя
в тестах производительности рассматривать время простоя? Гениально! Почему бы тогда не рассматривать еще вес компьютера с рейдом на борту и кол-во пива\водки\самогона, употребленного местным дворником?
| |
|
3.52, Pasha (??), 12:14, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
А почему бы и нет? У вас никогда не вылетал диск в RAID-e? Вот вылетит в L5 диск и посмотрим как у вас массив ворочаться будет. Кто-нибудь сравнивал производительность Soft и Hard RAID в этом режиме? Для домашнего компа это не критично. В бизнесе это может нарушить производственный процесс.
| |
|
4.78, Щекн Итрч (?), 15:08, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>А почему бы и нет? У вас никогда не вылетал диск в
>RAID-e? Вот вылетит в L5 диск и посмотрим как у вас
>массив ворочаться будет. Кто-нибудь сравнивал производительность Soft и Hard RAID в
>этом режиме? Для домашнего компа это не критично. В бизнесе это
>может нарушить производственный процесс.
вылетали и висели в стойке "под замену" ГОДАМИ :)
НИКАКИХ ПРОБЛЕМ :)
Из восьми шпинделей 50-го от жесткого перегрева кончились пять :)
И НИКАКИХ ПРОБЛЕМ :)
| |
|
5.81, Pasha (??), 15:57, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>вылетали и висели в стойке "под замену" ГОДАМИ :)
>НИКАКИХ ПРОБЛЕМ :)
>Из восьми шпинделей 50-го от жесткого перегрева кончились пять :)
>И НИКАКИХ ПРОБЛЕМ :)
Ну для коллекции порно в хоумнет и такой вариант сгодится. НИКАКИХ ПРОБЛЕМ!
| |
|
6.105, ЩекнИтрч (?), 18:34, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
для коллекции порно 5+0 - дороговато за мегабайт получится :) где-то $12000 за 1 Тб :)
для коллекции порно я бы поставил банч АТА :) где-то $200 за 1 Тб :)
| |
|
5.82, Pasha (??), 16:08, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Из восьми шпинделей 50-го от жесткого перегрева кончились пять :)
>И НИКАКИХ ПРОБЛЕМ :)
Для тех кто не в курсе, RAID 50-ка обеспечивает целостность данных в лучшем случае при "вылете" одного из дисков в каждой из 5-ок. А тут сразу четыре кончились... Видать "гранаты" у чела "другой системы"...
| |
|
6.88, GliNT (??), 16:37, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Из восьми шпинделей 50-го от жесткого перегрева кончились пять :)
>>И НИКАКИХ ПРОБЛЕМ :)
>
>Для тех кто не в курсе, RAID 50-ка обеспечивает целостность данных в
>лучшем случае при "вылете" одного из дисков в каждой из 5-ок.
>А тут сразу четыре кончились... Видать "гранаты" у чела "другой системы"...
>
ну почему же, возможно диски просто крутились в hotspare
| |
|
7.90, Pasha (??), 16:45, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Все-равно не получается. Для 50-ки нужно минимум 6 дисков. Пускай у него 2 в hotspare. Итого имеем избыточность в 4-е диска. Но по словам автора у него "от жесткого перегрева кончились пять". Накрылись данные, НИКАКИХ ПРОБЛЕМ!
| |
|
|
9.109, Pasha (??), 18:50, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | 50 - зеркало не подразумевает А если ты 50 еще зазеркалил на 5-ку, то это уже и... текст свёрнут, показать | |
|
|
|
|
5.101, SiR (?), 18:09, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>А почему бы и нет? У вас никогда не вылетал диск в
>>RAID-e? Вот вылетит в L5 диск и посмотрим как у вас
>>массив ворочаться будет. Кто-нибудь сравнивал производительность Soft и Hard RAID в
>>этом режиме? Для домашнего компа это не критично. В бизнесе это
>>может нарушить производственный процесс.
>
>вылетали и висели в стойке "под замену" ГОДАМИ :)
>НИКАКИХ ПРОБЛЕМ :)
Вообще-то за такое полагается пинокподзад без выходного пособия,
если же там еще и критические данные были, то вывоз в лес в багажнике.
>Из восьми шпинделей 50-го от жесткого перегрева кончились пять :)
>И НИКАКИХ ПРОБЛЕМ :) | |
|
6.107, ЩекнИтрч (?), 18:45, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Это мои :) критические данные.
Тщательно забакулированные на удаленный сервер :)
Я ЖДАЛ, когда он навернется, это сервак...
НЕ дождался...
| |
|
7.108, ЩекнИтрч (?), 18:47, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Хоть это и флуд и офф-топ, а все равно, зажарю-ка критические части последнего снэпшотика на дивидишки... Ленты ну их в задницу дорогие очень...
| |
|
|
|
|
|
|
1.2, waiby (?), 18:35, 15/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Абсолютно верно. Из небольшого опыта знаю что софтовый raid (и 0 и 5) дают почти линейный прирост скорости; +гибкость использования/замены.
Но хотелось бы услышать - а для чего на деле используются аппаратные рэйды, и в каком случае это предпочтительней?
| |
|
2.3, ezhik (?), 18:42, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
предпочтительней (в теории), когда ты упираешься в производительность шины PCI, PCI_E, на которой висит адаптер. В случае аппаратного рейда по шине бегают данные которые ты читаешь или пишешь, а для программного еще и то, что нужно для подсчета контрольных сумм.
P.S. Сам всегда использую программный рейд из-за простоты и одинаковости мониторинга целостности рейда и простоты восстановления данных при отказе самого адаптера.
| |
2.6, nanodaemon (?), 19:52, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
ну raid5 вообще не вариант, учитывая что частенько винты вылитают именно парами..
программные рейды, да, не только экономнее во времени и проще, но ещё и гораздо гибче и предсказуемее. без опыта покупать любую приличную железку (про дешевые железки даже можно не думать, учитывая что последнее слово в фс - zfs, вполне успешно конкурирует с весьма не дешевыми аппаратными) всё равно что кота в мешке: понятия не имеешь в каком месте огребешься геморрою.
| |
|
3.36, Michael Shigorin (ok), 04:17, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>(про дешевые железки даже можно не думать, учитывая что последнее слово
>в фс - zfs, вполне успешно конкурирует с весьма не дешевыми
>аппаратными) всё равно что кота в мешке: понятия не имеешь в
>каком месте огребешься геморрою.
Можно поподробнее? Кажется, первый встречный, не думающий про дешёвые железки и учитывающий zfs. Видимо, на SPARC используете, судя по осторожному отношению к геморрою? :}
| |
|
4.37, Michael Shigorin (ok), 04:19, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>(про дешевые железки даже можно не думать, учитывая что последнее слово
>>в фс - zfs, вполне успешно конкурирует с весьма не дешевыми
>>аппаратными) всё равно что кота в мешке: понятия не имеешь в
>>каком месте огребешься геморрою.
>
>Можно поподробнее? Кажется, первый встречный, не думающий про дешёвые железки и
>учитывающий zfs. Видимо, на SPARC используете, судя по осторожному отношению
>к геморрою? :}
PS: от double fault придумывали RAID6. :)
| |
|
3.44, Zerot (?), 10:36, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | ну raid5 вообще не вариант вполне себе вариант, если raid5 живет на какой нибудь... большой текст свёрнут, показать | |
|
2.14, Arti (??), 20:45, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Я конечно понимаю что небольшой организации формула "один сервер - все сервисы" встречается часто. Но не надо её распространять на всё и вся.
Кроме того где в этом тесте внятно говорится об использовании CPU. Если у Вас множество серверов, причем вы используете не NAS, а локальное хранилище, с интенсивным обменом даными между узлом и хранилищем, нужна гибкость и надёжность, то необходима аппаратная реализация RAID. Если же на первом месте цена, то тогда можно смотреть в сторону программной реализации.
| |
|
3.19, chesnok (ok), 00:19, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | наверное в этом и есть 90 правды и типа мышления если аппаратный контролле... большой текст свёрнут, показать | |
|
4.35, Michael Shigorin (ok), 04:14, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Я не говорю, о нормальном ИТ сервисе, где слово сервер до
>15к$ вызывает только смех...
Это у дурачков, которые над гуглем смеялись? Или "купим стойку за $100k, чтоб тоже компак"?
Езжайте в родное село, подумайте, мож лучшее применение мусорным деньгам увидится. Да и пальцАм.
| |
4.48, Прохожий (??), 12:03, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Знаете, купить сервер за 5-6к$ для решения бизнес задач может позволить практически
>любая компания (кроме те, где применяется в качестве серверных платформ обычный
>ПК) и я не вижу смысла экономить на том, что критически
>важно.Я не говорю, о нормальном ИТ сервисе, где слово сервер до
>15к$ вызывает только смех...
А не проще купить два компа за 1.5-2k$ с кучей винтов вместо одного такого сервера. А то не дай бог такой сервер за 5-6k$ "поломаеццо", а такое бывает, ремонт займет неизвестно сколько, и простои будут мама не горюй. А с простыми проще... их и выкинуть можно, если сломался. Лишь бы бэкапы были... ну и опять же... компа же 2, можно клон держать под рукой всегда.
| |
|
5.55, Sergey (??), 12:48, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
продайте мне пожалуйста сервер за 1.5-2к$ с кучей винтов, а? Цена, вами указанная идет обычно за платформу без какого-либо обвеса, причем за самую начальную платфоруму. Обычно это корпус 1U, с матплатой, 1 процом и максимум 1Гб оперативки. 2й проц, винты, дополнительный БП (это если он платформой предусмотрен) памяти гиг 8 вам придется покупать опционально (возможно если сразу укомплектовать сервак, получите скидку в 5%). И о чудо, конечная цена продукта будет от 5-6к$ будет отличаться максимум на 15-20%, если вообще будет. Потом, это мое IMHO - сервер дороже 5-6к$ стоит выбирать только по одному критерию - какой уровень сервиса будет оказан вам в месте установки железа (вспоминаем, что и за МКАДом есть жизнь..)
| |
|
6.56, Аноним (-), 12:58, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>продайте мне пожалуйста сервер за 1.5-2к$ с кучей винтов, а?
6-8 SATA винтов в фултауэре, с Core2Duo/Quad и даже 8Гб оперативки так и укладываются в 2килобакса, ну может чуть больше если 8 винтов и 8 Гб. 2ой проц конечно отпадает.. но в эпоху многоядерных процов, да и всяких кластеров... можно и обойтись.
>Потом, это мое IMHO - сервер дороже 5-6к$ стоит выбирать только по одному критерию - >какой уровень сервиса будет оказан вам в месте установки железа (вспоминаем, что и за >МКАДом есть жизнь..)
А вот это действительно правда, когда ремонт сервера занимает месяцы... это ахтунг. Ибо из регионов такие серваки обычно в Москву на диагностику отправляют и тянется это все очень долго.
| |
|
7.85, ABorland (?), 16:28, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>продайте мне пожалуйста сервер за 1.5-2к$ с кучей винтов, а?
>
>6-8 SATA винтов в фултауэре, с Core2Duo/Quad и даже 8Гб оперативки так
>и укладываются в 2килобакса, ну может чуть больше если 8 винтов
>и 8 Гб. 2ой проц конечно отпадает.. но в эпоху многоядерных
>процов, да и всяких кластеров... можно и обойтись.
Забудьте про фултауэры
Забудьте про однопроцессорные (пусть и многоядерные)
дешевле 100 000 р надежный сервер стоить не может
| |
|
|
9.91, Pasha (??), 17:06, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | Надежный сервер - тот, который имеет прогнозируемое время наработки на отказ На... текст свёрнут, показать | |
|
10.92, GliNT (??), 17:29, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | MTBF рассчитывается ДЛЯ ВСЕХ типов жестких дисков, независимо от их специализаци... большой текст свёрнут, показать | |
|
11.98, Pasha (??), 17:51, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | Вы ошибаетесь Не путайте гарантию произвордителя с MTBF Теории заговора в дан... текст свёрнут, показать | |
|
10.96, SiR (?), 17:40, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | Ага, т е Вы даже не слышали про серьезные системы, где сменой вышедших со стр... большой текст свёрнут, показать | |
|
11.100, Pasha (??), 18:04, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | Нет, первый раз слышу Помнится стоял у меня DEC Alpha4100 c RA4100 Умер один и... большой текст свёрнут, показать | |
|
|
|
8.97, SiR (?), 17:49, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | - Мне пожалуйста надежный сервер с гарантией оплаты потерянных данных И не ... текст свёрнут, показать | |
|
|
6.127, Michael Shigorin (ok), 23:26, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>продайте мне пожалуйста сервер за 1.5-2к$ с кучей винтов, а? Цена, вами
>указанная идет обычно за платформу без какого-либо обвеса, причем за самую
>начальную платфоруму. Обычно это корпус 1U
1U для стораджа чуточку не само то... и по удельной стоимости тоже задирается.
Лучше 2--3U, если не прижимает. 3U дешевле напаковать 3.5", опять же.
>с матплатой, 1 процом и максимум 1Гб оперативки.
Такие шалезяки tier 1 с парой sata сейчас можно купить вообще по $700--1000, btw. Дырок штук шесть в корзине там тоже может оказаться. Но 5U.
| |
|
|
|
|
2.142, HFSC (??), 19:00, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Абсолютно верно. Из небольшого опыта знаю что софтовый raid (и 0 и
>5) дают почти линейный прирост скорости; +гибкость использования/замены.
>Но хотелось бы услышать - а для чего на деле используются аппаратные
>рэйды, и в каком случае это предпочтительней?
Линуксовый софтрайд не умеет 50 и 60, а 10 до сих пор на уровне experimental
| |
|
1.4, chesnok (ok), 19:23, 15/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
а как же средний БД сервер ?
не ужели тот факт, что аппаратный контроллер повышает готовность и надежность ни о чем не говорит?!
| |
|
2.5, vitek (??), 19:38, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> повышает готовность и надежность ни о чем не говорит?!
и каким боком он повышает готовность и надежность?
у программного надежность лучше - например, сгорел raid-контроллер (последний из продаваемых)
| |
|
3.128, Michael Shigorin (ok), 23:34, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>и каким боком он повышает готовность и надежность?
>у программного надежность лучше - например, сгорел raid-контроллер
>(последний из продаваемых)
У них надёжность разная.
В железный проще воткнуть такой же диск и перестроить. Бишь в более типичной ситуации -- надёжнее.
В программный, особенно если на дисках используются разделы -- воткнуть не проще, но зато можно не совсем такой же. В общем в _типичной_ ситуации мороки больше. Зато в атипичной (вылет контроллера) -- потенциал _очень_ конкретной мороки заметно меньше.
Вроде там чё-то вендоры думали про стандартизацию размещения данных на дисках, но как когда-то краем уха слышал, так с тех пор и ничего больше.
| |
|
4.134, csdoc (ok), 01:26, 18/07/2008 [^] [^^] [^^^] [ответить] | +/– | может быть в случае выгорания RAID-контроллера LSI Logic MegaRAID или Adaptec H... большой текст свёрнут, показать | |
|
5.138, Michael Shigorin (ok), 12:36, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>может быть в случае выгорания RAID-контроллера
>LSI Logic MegaRAID или Adaptec HostRAID ASR
>и при наличии любого SCSI-контроллера поможет dmraid ?
Спасибо, надо посмотреть. Что-то припоминается, что через него бинарные драйверы цеплялись (btw к fakeraid вроде HPT в них нередко сильно недостаточная проверка ошибок)...
>по крайней мере их RAID metadata форматы он понимает.
...а вот этого раньше не слышал.
| |
|
6.141, csdoc (ok), 15:33, 18/07/2008 [^] [^^] [^^^] [ответить] | +/– | насколько я понимаю логику работы dmraid - он просто считывает с винтов raid arr... большой текст свёрнут, показать | |
|
5.139, Pasha (??), 13:32, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>может быть в случае выгорания RAID-контроллера
>LSI Logic MegaRAID или Adaptec HostRAID ASR
>и при наличии любого SCSI-контроллера поможет dmraid ?
>по крайней мере их RAID metadata форматы он понимает.
Интересно было бы ознакомиться с практикой применения этого решения. Кто-нибудь это уже пробовал реализовывать?
Есть еще правда случай с Eхternal RAID-массивами, а вот как быть с ними?
| |
|
|
|
|
1.7, Аноним (42), 19:55, 15/07/2008 [ответить] [﹢﹢﹢] [ · · · ] | +/– | Хмм Вот никогда не поверю что RAID 5 6 дисков hotspate диск на нормальном к... большой текст свёрнут, показать | |
|
|
3.10, rdbkzn (?), 20:34, 15/07/2008 [^] [^^] [^^^] [ответить] | +/– | тесты скорости аппаратного райда в студию в свое время, сравнивал RAID-5 апп... большой текст свёрнут, показать | |
|
2.9, Все тот же аноним (?), 20:28, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> станет сравнивать с программной реализацией.
Почему нет? Сравнивать - сколько угодно. Цифры - они и есть цифры. А вот реально использовать нагруженную дисковую подсистему с софтовым райдом - это для особо изощренных мазохистов. Нет, конечно, они сначала будут громко кричать, что типа настоящие пацаны легких путей не ищут. Так и есть, пока не понадобится надежно хранить что-то отличное от порнухи на домашнем типа сервере.
Скупой платит дважды. А дебил - постоянно.
| |
|
3.11, rdbkzn (?), 20:35, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
хотя для нагруженной бизнес-системы выбрал аппаратный raid-10 windows
| |
|
4.113, Все тот же аноним (?), 23:18, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Михаил, вы неправильно ставите задачу. Она должна так формулироваться: нужно хранилище на n терабайт с доступностью 0,999(продолжить по вкусу), x iops, y Мб/с линейного потока и временем восстановления z часов. Каким образом и за какие деньги может быть решена эта задача? А то, что вы описываете - это пионерский бубен, который работает на честном слове.
А если совсем уж по-взрослому, то доступность необходимо оценивать для сервиса, а не железки. Т. е. с учетом каналов, зеркал, синхронизации и прочей хрени.
Платить за диски - это нормально, диски - расходный материал. Только нормальное хранилище позволяет не останавливать сервис на время замены.
| |
|
5.114, SiR (?), 00:26, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Платить за диски - это нормально, диски - расходный материал. Только нормальное
>хранилище позволяет не останавливать сервис на время замены.
Понятно,
mdadm -f -r
echo "scsi remove-single-device 0 1 2 3" > /proc/scsi/scsi
меняем диск
echo "scsi add-single-device 0 1 2 3" > /proc/scsi/scsi
mdadm -a
Такие знания козырным пацанам не доступны.
| |
|
6.119, Все тот же аноним (?), 17:00, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Нормальные люди херней не занимаются. Просто потому, что данные сильно дороже железки. Если Вы, уважаемый, не понимаете, почему средненькая СХД стоит килобаксов сто, не о чем говорить. Растите быстрее.
| |
|
7.120, GliNT (??), 17:25, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Нормальные люди херней не занимаются. Просто потому, что данные сильно дороже железки.
>Если Вы, уважаемый, не понимаете, почему средненькая СХД стоит килобаксов сто,
>не о чем говорить. Растите быстрее.
Угу, нормальные люди ездят не меньше, чем на Мерседесах S-класса, летают не частных самолетах, живут в особняках и не тратят время на чтение этого форума :)
| |
7.122, SiR (?), 19:11, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Нормальные люди херней не занимаются. Просто потому, что данные сильно дороже железки.
>Если Вы, уважаемый, не понимаете, почему средненькая СХД стоит килобаксов сто,
>не о чем говорить. Растите быстрее.
Да вырос, и,вообще-то, уже давно. Заявленная вами стоимость относится к начальному уровню тех СХД, которые я продаю.
| |
|
|
|
|
|
2.12, Аноним (-), 20:38, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Вот сломается на твоем Порше сцепление, а ты в городе Мухосранске. И чего ты будешь делать? А?
Несколько подзадрали рассуждения о правильности аппаратного RAID и ширине шины. Производительность аппаратных контроллеров давно уже зависит только от правильности написанного ПО (фирмваре+драйверы). Правильность - в смысле более оптимального использования аппаратных ресурсов. Все остальные фичи, как то батарейки, кэши, "ширины шин" и прочие погремушки и всех уже давно одинаковые.
Речь идет не о том, что софтварный рейд панацея. Аппаратный рейд хорош там, где число дисков много и очень много более 5. Если их менее 5 и комп довольно шустрый, то надо ставить софтварный рейд и не парить мозг.
Занавес!
| |
|
3.13, Felix (??), 20:41, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
>- в смысле более оптимального использования аппаратных ресурсов. Все остальные фичи,
>как то батарейки, кэши, "ширины шин" и прочие погремушки и всех
>уже давно одинаковые.
>
>Речь идет не о том, что софтварный рейд панацея. Аппаратный рейд хорош
>там, где число дисков много и очень много более 5. Если
>их менее 5 и комп довольно шустрый, то надо ставить софтварный
>рейд и не парить мозг.
>
>Занавес!
+100
| |
|
4.15, Yuriy (??), 21:43, 15/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Просьба...
Подскажите ссылки в инете на нормальные (рабочие) статьи по настройке аппаратного и программного рейда (Raid-5) для Linux.
Особенно интересу настройки для Ubuntu Server.
Заранее спасибо.
| |
|
|
|
7.143, HFSC (??), 20:47, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Значит ли это, что ежели у меня небольшой /boot партишен на райд5 массиве /dev/sda, то выравнивание мне не нужно? )
| |
7.148, HFSC (??), 14:23, 25/07/2008 [^] [^^] [^^^] [ответить] | +/– | gt оверквотинг удален Note Note that internal write-intent bitmaps can and p... большой текст свёрнут, показать | |
|
|
|
4.27, vitek (??), 03:28, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> я думаю с тем же успехом можно начинать экономить например на зарплате пилота самолета
особенно когда таких самолетов не делают, а пилотов - не обучают.
p.s.:
к сведению - некоторые "аппаратные" raid-контроллеры представляют из себя "маленький" комп с программным raid (иногда даже с виндой)
| |
|
|
2.20, GliNT (??), 00:23, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Угу, зачот, полностью аппаратные средства по дисковой подсистеме рулят, с батарейкой особо. Выход контроллера из строя - на 2 порядка меньше вероятность, если это критично - юзается кластер, мозг никто софтварными поделками не ...ет. Если сервер стоит > 5K, то вопросов по поводу хардовый/софтовый RAID не встает. Так же как и то, что SCSI до сих пор быстрее любого из SATA, на нагруженных дисковых операциях.
Товарищи, что высказывались ниже - видно пока юзают немного другие сервера или их назначение позволяют значительные простои сервера.
Нравятся мне эти тесты: ребяты, а с х.ра ли вы платите бабки за то, что можно получить бесплатно? Пару синтетических тестов, графиков - и вот она, правда жизни, "А мужики-то н знали!".
| |
|
3.23, LOL (??), 01:50, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Угу, зачот, полностью аппаратные средства по дисковой подсистеме рулят, с батарейкой особо.
Об чем спор то? Все просто - если коммерч. реализация - то аппаратный. Если на домашнем компе - то лучше програмный. Вот и всего делов-то.
Зачем мне на домашнем покупать апп.контр. за 600$, если я за эти деньги 4 винта взять могу?
| |
|
4.28, vitek (??), 03:31, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
вопрос только в том - а что такое аппаратный raid?
железка, про ОС которой никто не знает? :-)
| |
|
|
|
1.29, uvi (??), 03:39, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Софт-рейд на большом числе дисков загрузит все ядра и на задачи то не останется. Тест проведен не корректно, при небольшом числе дисков (4-6) на современном железе софт рейд сделает любой (абсолютно любой) аппаратный рейд. Но беда в том, что надо не только читать и писать данные, но и их обрабатывать, так что софт рейд почти годится для серъезных применений.
На самом деле сейчас ситуация плачевная в среднем классе (до 2к$ за контроллер). На сайтах производителей висит реклама, типа наша карточка самая быстрая, типа 600-800Mb/s RAID6 - все это фигня скажу я вам. Перебрал несколько вариантов (от 300$ до 1,5к$ SATA,SCSI,SAS), все они загибаются при нагрузке и система переходит в синхронный режим.
Все работает хорошо при небольшом (до 1000-2000) параллельном количестве читающих/пишущих процессов с недопредельной производительностью (скажем 90% от потенциала проца рейда).
Вся проблема в дизайне рейда. Там проц то один и со всеми винтами он общается ПООЧЕРЕДИ. Также серъезный недостаток - мылй объем кэш и неэффективное его использование.
Вот пример, HP DL360G5 с HP Smart Array 400i 256Mb с 6 винтами SAS 15k проигрывает старому SCSI SRCU41L с 64мб на реальной задаче с БД. В 2 раза при одинаковой конфигурации распределения дисков по рейдам и в 4-6 раз при RAID5 на новеньком доругещем HP против нескольких RAID1.
Самые топовые контроллеры не держат нагрузку.
А про глюки прошивок лучше промолчать - всплывают тогда, когда итак все плохо. Вообщем надежность аппартаного решения тоже под большим вопросом и вопрос тут в том, предусмотрел ли индусских программист все возможные ситуации...
Вывод один - надо дробить задачи на подзадачи и выносить их на выделенные серверы, так чтобы не доводить до предела нагрузку на аппаратный рейд.
| |
|
2.31, uvi (??), 03:41, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>...так что софт рейд почти годится
>для серъезных применений.
хотел написать тут почти НЕ годится...поправьте плиз.
| |
|
3.38, uvi (??), 04:37, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Кстати, диски какие? С большим количеством читателей лучше 73..146@15k в большем
>количестве, чем несколько трёхсоток. А если много временных данных --
>посмотрите на tmpfs?
Диски именно такие, тормозят на HP400i.
В моей задаче идет чтение/запись в oracle, отдельно на raid1 redo, остальное на 4 x raid10. на raid5 из 6 все вместе еще более плачевно.
| |
|
4.131, Michael Shigorin (ok), 00:00, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Диски именно такие, тормозят на HP400i.
P400i? Вроде особо плачевного впечатления в DL385 на восьми 2.5" не произвёл...
>В моей задаче идет чтение/запись в oracle
А. Почти удалось избежать, сорри. Разве что может иметь смысл попробовать отнести постоянную синхронизируемую запись куда-то отдельным зеркалом (журнал, например).
Вообще бывает полезно глянуть Multi-Disk HOWTO, оно старенькое, но толковое.
>на raid5 из 6 все вместе еще более плачевно.
Эт как раз понятно -- и трансфера, и обсчёта, и seek'ов больше. И ещё и потоки данных на одних шпинделях смешиваются -- их хорошо помогает разводить. Трейдофф между унификацией и оптимизацией стораджа :-/
| |
|
|
2.135, csdoc (ok), 01:45, 18/07/2008 [^] [^^] [^^^] [ответить] | +/– | RAID 5 очень плохо подходит для серверов баз данных, кроме того имеет ошибку в ... большой текст свёрнут, показать | |
|
1.39, Аноним (42), 05:42, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Intel MB SR-XXXX (ЛЮБОЙ) с типа железячными райдами. Время синхронизации например вылетевшего винта 500Gb от 6 до 10 часов.
Учитывая, что систему в это время загрузить нельзя (вообще можно, но только с теми винтами, что не сбитые, и синхронизация будет остановлена, до следующего входа в raid-bios), получается печаль. Простой сервера целый рабочий день из-за винта.. а в основном, в конторках сервер всего один.
| |
1.41, drass (?), 09:39, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Если вкратце, то аппаратные рейды нужны для менеджеров, чтобы продать подороже. Потому что никакой особой функциональности и надежности по сравнению с softraid нет. mdadm. gnbd. gfs2.
| |
|
2.43, tesseract (?), 10:32, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Неверно, может на "сферическом чтении в вакууме" софт кое-где и побыстрее. Но если у тебя процессор зараяжен на грузкой на 90%, а на RAID стоит WriteCache, то прибавка в скорости ОЧЕНЬ ощутима. SATA-RAID всей мощности RAID не ракрывает, ибо сами контроллеры с дисками туповатые.
| |
|
1.45, Аноним (42), 11:05, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
А вот представьте себе ситуацию.
Вы админ и владелец компании, и вы выбираете вариант софтовый или аппаратный RAID собирать.
На выходе вашей компании вы собираетесь давать 99,9999% гарантию доступности и сохранности данных.
Что вы выберете?
Просто не стоит забывать что для наемного админа если сбой в столь критической ситуации произойдет по вине железа куда более благоприятный нежели по вине "настроенного им самим" програмного раида. Разный вазелин будет нужен :)
| |
|
2.47, Прохожий (??), 11:55, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Просто не стоит забывать что для наемного админа если сбой в столь
>критической ситуации произойдет по вине железа куда более благоприятный нежели по
>вине "настроенного им самим" програмного раида. Разный вазелин будет нужен :)
>
Тем не менее, в случае аппаратного сбоя, найти замену хардварному рэйду сложнее и займет больше времени. Тока если на полочке запасного такого же не лежит.
Та же фигня бывает и с брендовыми серваками, когда ремонт занимает пару месяцев (отвезут на диагностику в Москву, там посмотрят потесять, то се 5-е, 10-е) это неприемлемо. Проще самосбор взять с софтовым рейдом, сломалось - выкинул, новое купил. А с дорогими железяками так не получится.
| |
2.51, northbear (??), 12:07, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
>Вы админ и владелец компании, и вы выбираете вариант софтовый или аппаратный
>RAID собирать.
>На выходе вашей компании вы собираетесь давать 99,9999% гарантию доступности и сохранности
>данных.
>Что вы выберете?
>
>Просто не стоит забывать что для наемного админа если сбой в столь
>критической ситуации произойдет по вине железа куда более благоприятный нежели по
>вине "настроенного им самим" програмного раида. Разный вазелин будет нужен :)
>
Ерунда, все один и тот же вазелин, если админ не идиот конечно. Директоров компаний, на вскидку способных понять разницу между софтрейдом и нардрейдом, надо еще поискать.
А учитывая любовь некоторых производителей мат.плат к бортовым недорейдам, которые по сути являются обычными софтрейдами, просто софт вынесен в драйвер контроллера, то можно вообще расслабиться.
А вот когда ты директору небольшой компании предъявишь счет на резервный RAID-контроллер на сервер по цене чуть меньше, чем сам сервер, что скажет на это директор, даже гадать не надо.
| |
2.54, Аноним (42), 12:36, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>А вот представьте себе ситуацию.
>Вы админ и владелец компании, и вы выбираете вариант софтовый или аппаратный
>RAID собирать.
>На выходе вашей компании вы собираетесь давать 99,9999% гарантию доступности и сохранности
>данных.
>Что вы выберете?
распределённый кластер и абсолютно по барабану программные рейды будут на нодах или аппаратные.
| |
2.132, Michael Shigorin (ok), 00:04, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>На выходе вашей компании вы собираетесь давать 99,9999% гарантию доступности
>и сохранности данных. Что вы выберете?
Гуглей спросите. Компании-то разные бывают -- те, где "админ и владелец", по физическим причинам не могут честно давать гарантию не более полуминуты недоступности в год. И тем более сохранности.
А вообще чем-то напомнило спор "что лучше -- рейд или бэкап" :)
| |
2.140, Henry (??), 15:32, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>А вот представьте себе ситуацию.
>Вы админ и владелец компании, и вы выбираете вариант софтовый или аппаратный
>RAID собирать.
>На выходе вашей компании вы собираетесь давать 99,9999% гарантию доступности и сохранности
>данных.
>Что вы выберете?
Выгоню админа, который обещает такой уровень доступности на самосборном железе.
Профан он.
Не понимает проблематики доступности...
| |
|
1.53, DukeLion (?), 12:24, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить данные.
RAID с избыточностью должен не дать серверу упасть при сбое, а сохранность данных обеспечивает и будет обеспечивать резервное копирование. Если у меня в компании потеряются данные - то вазелин нужен одинаковый - хоть на софтовом рейде они были, хоть на аппаратном.
| |
|
2.57, Pasha (??), 13:18, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить
>данные.
Разные задачи, разные RAID... Будет интересно посмотреть на клиентов банка, которых в разгар операционного дня "обрадуют" следующим заявлением: "Вы не волнуйтесь, наша система временно не работает, т.к. накрылась система хранения данных. Но наш мудрый сисадмин сейчас купит на рынке новые диски, соберет новый RAID, скопирует несколько терабайт из архивных копий... Приходите завтра, все снова заработает.."... А как же сегодняшние проводки с утра? Упс...
| |
|
3.59, Pasha (??), 13:28, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить
>>данные.
И еще, для справки RAID - Redundant Array of Inexpensive Disks.
Одна из практических реализаций теории надежности. Раньше преподавали в технических ВУЗ-ах. Полезный предмет, особенно для тех кто занимается техническим обеспечением серьезного бизнеса или производства. Рекомендую ознакомиться.
| |
|
4.62, даль (?), 13:37, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>>Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить
>>>данные.
>
>И еще, для справки RAID - Redundant Array of Inexpensive Disks.
>Одна из практических реализаций теории надежности. Раньше преподавали в технических ВУЗ-ах. Полезный
>предмет, особенно для тех кто занимается техническим обеспечением серьезного бизнеса или
>производства. Рекомендую ознакомиться.
Плохо вас учили видимо, существует и еще один вариант Redundant Array of Independent Disks - однако!
| |
|
5.65, Pasha (??), 13:42, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Плохо вас учили видимо, существует и еще один вариант Redundant Array of
>Independent Disks - однако!
Секретный?
| |
5.133, Michael Shigorin (ok), 00:05, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>И еще, для справки RAID - Redundant Array of Inexpensive Disks.
>Плохо вас учили видимо, существует и еще один вариант Redundant Array of
>Independent Disks - однако!
Таки Inexpensive.
| |
|
|
3.60, Аноним (-), 13:30, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить
>>данные.
>
>Разные задачи, разные RAID... Будет интересно посмотреть на клиентов банка, которых в
>разгар операционного дня "обрадуют" следующим заявлением: "Вы не волнуйтесь, наша система
>временно не работает, т.к. накрылась система хранения данных. Но наш мудрый
>сисадмин сейчас купит на рынке новые диски, соберет новый RAID, скопирует
>несколько терабайт из архивных копий... Приходите завтра, все снова заработает.."... А
>как же сегодняшние проводки с утра? Упс...
В современных СУБД уровня Oracle, MS SQL Server от этого есть лекарства, умирает одна машина - работает другая. Уж в банке-то можно и нужно под такие дела не одну машинку использовать.
| |
|
4.68, Pasha (??), 13:51, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>В современных СУБД уровня Oracle, MS SQL Server от этого есть лекарства,
>умирает одна машина - работает другая. Уж в банке-то можно и
>нужно под такие дела не одну машинку использовать.
В современных банках есть и соответствующие специалисты, которые отлично понимают разницу между резервным копированием данных и обеспечением бесперебойной работы технологических процессов на разных уровнях, начиная от грамотного проектирования ИС и заканчивая горячим резервированием технических компонент в узлах, критичных к сбоям. А еще в банках умеют считать деньги, и поэтому выбирают ОПТИМАЛЬНЫЕ решения по соотношению цена/качество.
| |
|
5.69, Аноним (-), 13:59, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>В современных банках есть и соответствующие специалисты, которые отлично понимают разницу между
>резервным копированием данных и обеспечением бесперебойной работы технологических процессов на разных
>уровнях
Это намек на то, что я эту разницу не понимаю?) Я как раз и писал, что в современных СУБД есть решения для обеспечения бесперебойной работы. Бэкапы при этом никто не отменял. Война войной, а бэкап по расписанию.
| |
|
6.72, Pasha (??), 14:14, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Это намек на то, что я эту разницу не понимаю?)
Нет, что вы! Это моя попытка более полно раскрыть тему. Чтобы не попасть в подобную ситуацию в банке в качестве клиента. :)
| |
|
5.99, SiR (?), 18:02, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>В современных СУБД уровня Oracle, MS SQL Server от этого есть лекарства,
>>умирает одна машина - работает другая. Уж в банке-то можно и
>>нужно под такие дела не одну машинку использовать.
>
>В современных банках есть и соответствующие специалисты, которые отлично понимают разницу между
>резервным копированием данных и обеспечением бесперебойной работы технологических процессов на разных
>уровнях, начиная от грамотного проектирования ИС и заканчивая горячим резервированием технических
>компонент в узлах, критичных к сбоям. А еще в банках умеют
>считать деньги, и поэтому выбирают ОПТИМАЛЬНЫЕ решения по соотношению цена/качество.
Вы очень высокого мнения о совковых банках. О грамотном проектировании ИС и всетакое, болото еще то, а грамотное проектирование сводится к созданию стройной системы костылей и подпорок, что бы эта грамотно спроектированная система хоть как-то жила.
| |
5.111, hate (?), 21:28, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>В современных СУБД уровня Oracle, MS SQL Server от этого есть лекарства,
>>умирает одна машина - работает другая. Уж в банке-то можно и
>>нужно под такие дела не одну машинку использовать.
>
>В современных банках есть и соответствующие специалисты, которые отлично понимают разницу между
>резервным копированием данных и обеспечением бесперебойной работы технологических процессов на разных
>уровнях, начиная от грамотного проектирования ИС и заканчивая горячим резервированием технических
>компонент в узлах, критичных к сбоям. А еще в банках умеют
>считать деньги, и поэтому выбирают ОПТИМАЛЬНЫЕ решения по соотношению цена/качество.
Не смеши. Ты никогда не видел банкоматов в "синем"?
| |
|
|
3.61, Winer (??), 13:34, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Задача RAID-а не в том, чтоб во чтобы то ни стало сохранить
>>данные.
>
>Разные задачи, разные RAID... Будет интересно посмотреть на клиентов банка, которых в
>разгар операционного дня "обрадуют" следующим заявлением: "Вы не волнуйтесь, наша система
>временно не работает, т.к. накрылась система хранения данных. Но наш мудрый
>сисадмин сейчас купит на рынке новые диски, соберет новый RAID, скопирует
>несколько терабайт из архивных копий... Приходите завтра, все снова заработает.."... А
>как же сегодняшние проводки с утра? Упс...
Как-то странно мыслите, товарищ. Я ещё не видел ни одного рэйда, софтварного или хардварного, который бы работал без дисков. Если вылетает система хранения данных, причём полностью(странная ситуация, все винты вылетели, а контроллер живой, ну да ладно), то выход один - восстановление из бэкапа.
| |
|
4.63, Pasha (??), 13:40, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Как-то странно мыслите, товарищ. Я ещё не видел ни одного рэйда, софтварного
>или хардварного, который бы работал без дисков. Если вылетает система хранения
>данных, причём полностью(странная ситуация, все винты вылетели, а контроллер живой, ну
>да ладно), то выход один - восстановление из бэкапа.
Из вашего поста понятно, что с теорией надежности вы незнакомы. :) О необходимости бэкапа я разве спорил? У бэкапа ДРУГИЕ функции чем у RAID. Бэкап НИКОГДА не обеспечит НЕПРЕРЫВНЫЙ процесс работы ИС при выходе из строя основного хранилища данных. Кстати, а где вы храните бэкап? Вы учитываете вероятность стихийных бедствий, техногенных катастроф, саботажа? ;)
| |
|
5.66, Winer (??), 13:47, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Из вашего поста понятно, что с теорией надежности вы незнакомы. :) О
>необходимости бэкапа я разве спорил? У бэкапа ДРУГИЕ функции чем у
>RAID. Бэкап НИКОГДА не обеспечит НЕПРЕРЫВНЫЙ процесс работы ИС при выходе
>из строя основного хранилища данных. Кстати, а где вы храните бэкап?
>Вы учитываете вероятность стихийных бедствий, техногенных катастроф, саботажа? ;)
Видимо из Вашего поста настолько ничего непонятно, что я сделал вывод, что Вы - ярый противник рэйдов, или же противник рэйдов софтварных. А с различиями в назначении рэйда и бэкап-хранилища(надеюсь я правильно выразил свою мысль) я прекрасно знаком. И бэкапы мы храним в самых разных местах.
| |
|
6.70, Pasha (??), 14:11, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Ладно. Я терпеливый. Объясняю. Бэкап(snapshot) обеспечивает целостность данных на ОПРЕДЕЛЕННЫЙ момент времени(месяц, неделя, день, час). Имеется некоторый временной интервал, между обновлениями резервной копии, когда новые данные МОГУТ быть безвозратно потеряны. Вот здесь играет свою роль RAID, который на АППАРАТНОМ уровне(даже в soft-raide!) защищает целостность данных по мере их поступления в хранилище REALTIME. А чтобы обеспечить целостность на уровне блоков данных ставят еще энергонезависимый кэш. Конечно, вы можете бэкапить данные по мере поступления. Но стоит ли изобретать велосипед? С этим успешно справляется RAID L1.
| |
|
7.71, Winer (??), 14:14, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Ладно. Я терпеливый. Объясняю. Бэкап(snapshot) обеспечивает целостность данных на ОПРЕДЕЛЕННЫЙ момент времени(месяц,
>неделя, день, час). Имеется некоторый временной интервал, между обновлениями резервной копии,
>когда новые данные МОГУТ быть безвозратно потеряны. Вот здесь играет свою
>роль RAID, который на АППАРАТНОМ уровне(даже в soft-raide!) защищает целостность данных
>по мере их поступления в хранилище REALTIME. А чтобы обеспечить целостность
>на уровне блоков данных ставят еще энергонезависимый кэш. Конечно, вы можете
>бэкапить данные по мере поступления. Но стоит ли изобретать велосипед? С
>этим успешно справляется RAID L1.
Это я прекрасно и без Вас знаю. Вы бы лучше пояснили тот пост, на который я ответил, видимо он был неправильно мною понят.
| |
|
8.73, Pasha (??), 14:25, 16/07/2008 [^] [^^] [^^^] [ответить] | +/– | Вы невнимательны Я уже ПОДРОБНО изложил свою точку зрения Обеспечение целостно... текст свёрнут, показать | |
|
|
|
|
|
|
|
1.58, belkin (ok), 13:28, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Контроллеры RAID уже лет 10 никто не развивает по-настоящему. Консервативная модернизация для снятия денег с несведующих покупателей. Однопроцессорные системы на ЦПУ общего применения допотопных годов разработки (в лучшем случае слабенький RISC), убогие встраиваемые ОС, подобные VxWork. Почему же к ним сохраняется интерес? Потому что на писюке и ОС, которые для него, нет возможности спланировать ресурсы между IO и основными задачами без переятгивания одеяла или деградации общего КПД. Т.е. на писюке существует объективная необходимость что-нибудь вставить этому калькулятору в задницу.
Тем заказчикам, которым нужна высокая отказоустойчивость и высокая доступность, предлагают отдельные системы хранения, а остальные просто не в курсе.
Для бюджетных решений схема одна - выделять Storage на отдельную машину с программной реализацией IO. Вариантов множество: от программных RAID'ов на Linux до ZFS на SPARC'ах.
| |
|
|
Часть нити удалена модератором |
3.74, Аноним (42), 14:25, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
вот тут все говорят что software raid кушает ЦПУ много. Неужели у народа такие допотопные машины? Юзаю software raid очень часто, проблем с ЦПУ никаких.
| |
|
4.77, Pasha (??), 15:04, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>вот тут все говорят что software raid кушает ЦПУ много. Неужели у
>народа такие допотопные машины? Юзаю software raid очень часто, проблем с
>ЦПУ никаких.
Можешь проверить влияние на производительность следующим тестом. Запусти кодирование большого фрагмента видео с/на RAID массив и с/на одиночный диск. Сравни время выполнения задачи в том и другом случае. Актуально для тех, кто занимается монтажом видео.
Для чистоты эксперимента операционка не должна быть установлена на RAID.
| |
|
|
6.95, Pasha (??), 17:38, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
В свое время сделал soft-raid L0 на WinXP для знакомого. AdobePremier существенно быстрее кодить стал, чем с/на одиночный диск. Возможно эта реализация и "грузит" проц, но по факту производительность стала выше. Ничего дополнительного не приобреталось не ставилось. Хорошее решение для данного случая. Все зависит от постановки задачи и "узких" мест конкретного ПО. Кому-то проца не хватит, кому-то шины данных, кому-то производительности дисков.
| |
6.112, SiR (?), 21:33, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Неужели сейчас XOR такая дорогостоящая операция?
Ну как сказать:
raid6: int64x1 2380 MB/s
raid6: int64x2 3469 MB/s
raid6: int64x4 3168 MB/s
raid6: int64x8 2363 MB/s
raid6: sse2x1 2429 MB/s
raid6: sse2x2 7772 MB/s
raid6: sse2x4 8389 MB/s
raid6: using algorithm sse2x4 (8389 MB/s)
Но фишка в том, что нужен не только XOR, точнее только XOR в одном случае - потоковая запись, при кусочечной записи нужно считать данные со всех дисков, XOR или два XOR и записать на все диски. Задница та еще.
| |
|
|
|
|
2.125, csdoc (ok), 21:32, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
> Контроллеры RAID уже лет 10 никто не развивает по-настоящему.
> Консервативная модернизация для снятия денег с несведующих покупателей.
ситуация сейчас очень похожа на ту, что была на рынке аналоговых модемов,
потом там была стагнация и массовый выход на рынок новых решений уровня xDSL.
> Тем заказчикам, которым нужна высокая отказоустойчивость и высокая доступность,
> предлагают отдельные системы хранения, а остальные просто не в курсе.
вот эти системы хранения ( SAN ) - это и есть аналог xDSL модемов -
быстрее, надежнее, не нужно на каждом сервере возиться с RAID и т.п.
> Для бюджетных решений схема одна - выделять Storage на отдельную машину с программной
> реализацией IO. Вариантов множество: от программных RAID'ов на Linux до ZFS на SPARC'ах.
Тем заказчикам, которым нужна высокая отказоустойчивость и высокая доступность
при невысокой стоимости - используют DRBD + GFS, а остальные просто не в курсе.
| |
|
1.93, User294 (ok), 17:30, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Бенч софтварного райда - это конечно круто.Если забыть о том что чем быстрее он молотит тем сильнее жрется системный проц под данную задачу :).В случае софтварного райда по этому поводу упираентся отдельный проц, с встроенными акселераторами и прочая, а тут - основной системный.Больше обмолотит данных как софтрайд - меньше времени CPU другим задачам останется.
| |
|
2.94, User294 (ok), 17:31, 16/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Бенч софтварного райда - это конечно круто.Если забыть о том что чем
>быстрее он молотит тем сильнее жрется системный проц под данную задачу
>:).В случае софтварного райда
Хардварного конечно же.I'm an idiot...
| |
|
3.147, anesth (ok), 22:57, 20/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>>Бенч софтварного райда - это конечно круто.Если забыть о том что чем
>>быстрее он молотит тем сильнее жрется системный проц под данную задачу
>>:).В случае софтварного райда
>
>Хардварного конечно же.I'm an idiot...
you're not alone
| |
|
2.124, KpeHDeJIb (ok), 20:37, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
Можно немного улучшить ситуацию с загрузкой проца - вынести хранилище данных в отдельное место и связать его с основными системами какой нибудь скоростной шиной. Тогда сервер БД делает свое, сервер приложений свое, а хранилище данных делает свое (хранит данные, сливает их куда нить бекапом неспешным) :)
| |
|
1.110, Аноним (42), 19:44, 16/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Чёрт, всегда считал, что аппаратный рейд лучше. Теперь, даже не знаю что думать.
| |
|
2.115, rend (??), 15:19, 17/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Чёрт, всегда считал, что аппаратный рейд лучше. Теперь, даже не знаю что
>думать.
правильно считал, не верь бредням.
| |
2.137, Guest (??), 02:48, 18/07/2008 [^] [^^] [^^^] [ответить]
| +/– |
>Чёрт, всегда считал, что аппаратный рейд лучше. Теперь, даже не знаю что
>думать.
Был лучше, когда софтовых рейдов толком и не было, и слово SAN знали единицы. Железо всегда было способом снять денег с доверчивых, верящих в надежность и производительность hardware реализации (не только RAID, много чего). Пожалуй, лет 7 назад в железном RAID был и реальный смысл. Но сейчас это _только_ способ снять денег. И очень жаль, что люди, которые считают себя профессионалами и к мнению которых прислушиваются, все еще этого не понимают. Так что ты, все-таки, думай.
| |
|
1.136, Guest (??), 02:43, 18/07/2008 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Умиляют 'профессионалы', понтующиеся что их конторка осилила купить дорогой хардварный рейд. Тут обмолвились о теории надежности - так вот вы просто обязаны хотя бы примерно представлять 'надежность' одного сервера, запихни вы туда хоть на лям железа. Приведенный тут пример с остановившимся кулером порадовал, у самого такая же ситуация была. Дохли и целые серверные из-за стихийных бедствий.
Так вот - надежность _только_ в дублировании целых серверов. При этом никакие железные рейды не дадут уже _ничего_ и становятся просто не нужны. Взрослеть уже пора, не меряться SAS'ами, а посчитать и головой подумать.
| |
|