Peter Anvin рассказал (http://kerneltrap.org/node/5070) о тенденции увеличения мощности аппаратного обеспечения, используемого для поддержания архива kernel.org в рабочем состоянии.
В настоящее время используется два сервера HP DL585, с 4 CPU AMD Opteron, 24 Гб ОЗУ и 10 Тб дискового пространства в каждом. К Сети машины подключены через два независимых гигабитных канала (сервера территориально находятся в разных местах). Администрированием серверов занимаются H. Peter Anvin, Nathan Laredo и Kees Cook.
А начиналось все с 33 Mz i386PC с 4 Мб ОЗУ....
Из используемых программ можно отметить Linux ядро 2.6.x, Apache 2.0.x (перешли с 1.3.X в декабре 2004), vsftpd (перешли с proftpd в мае 2004).URL: http://kerneltrap.org/node/5070
Новость: http://www.opennet.me/opennews/art.shtml?num=5420
А вот интерестно под каким дистом они сидят ?
Под gentoo ?
Цитата:
>> At this time, the servers run Fedora Core and use the
>> 2.6 kernel provided by RedHat.:-)
netcraft.com знаете сайтик?
204.152.191.5 Linux Apache/2.0.52 Fedora 11-Apr-2005
Prosto apache ot Fedory. nikakoj normal'nyj chelovek ne postavit Fedoru na server, tem bolee TAKOJ
дак у Федоры вроде есть поддержка 64бит систем, а там оптерончики стоят.
Умных дофика, блин.. попробуйте на слаку прикрутить софт для администрирования HP оборудования (особенно SCSI), помучайтесь с бодбором glibc (пакеты скомпилены с поддержкой только определенных версий)и посмотрите как перекашивает систему при этом....
я не имею ничего против слаки и дженту, но пока драйвера и вспомогательный софт компилится под вполне конкретные дистры (а исходников то нет) будет смысл использовать именно их.
http://netstat.ru
>http://netstat.ruЭто не отражает реальной картины. Просто демонстрирует, кто чаще является фронтэндом.
Вот если бы кто-то собрал и привел статистику о том, какая платформа чаще используется для работы, скажем, с СУБД, с объемом базы, скажем, от 3 ГБ, вот это было бы интересно.
>>http://netstat.ru
>
>Это не отражает реальной картины. Просто демонстрирует, кто чаще является фронтэндом.
>Вот если бы кто-то собрал и привел статистику о том, какая платформа
>чаще используется для работы, скажем, с СУБД, с объемом базы, скажем,
>от 3 ГБ, вот это было бы интересно.Имел ввиду "от 3ТБ"
.))
Не понимаю чем вам Red Hat не угодил?
Огромное количество крупных компаний у которых большое количество серверов (а не ваших пентиум 4 с 512 мб памяти, а действительно брэндовые сервера от IBM, HP.) используют Red Hat! Да не спорю rpm жуткая штука, но в остальном отличный дистрибутив. Хоть раз бы кто привел убедительные доводы а не истерические вопли почему Red Hat хреновый дистр.
Поддерживаю.
Только RPM - не "жуткая штука", а _нормальный_ инструмент для установки/удаления пакетов.
Давайте не будем такими умными. Не нужно путать RHEL с любительским ориентированым для тупого юзера Fedore Core, и дело тут далеко не в rpmА крупные компании выбирают Solaris и спарки.
> А крупные компании выбирают Solaris и спарки.Крпные компании выбирают HP NonStop/9000 и IBM P5
А то, что в России берут sparc, так это от бедности/жадности.
> А крупные компании выбирают Solaris и спарки.Крпные компании выбирают HP NonStop/9000 и IBM P5
А то, что в России берут sparc, так это от бедности/жадности.А динамическая реконфигурация там есть, то есть на ходу вытащил плату процесорную или I/O борду?
> > А крупные компании выбирают Solaris и спарки.
>
> Крпные компании выбирают HP NonStop/9000 и IBM P5
>
> А то, что в России берут sparc, так
>это от бедности/жадности.
>
>А динамическая реконфигурация там есть, то есть на ходу вытащил плату процесорную
>или I/O борду?1) С каких моделях серверов сан это (замена процессорных плат) начинает поддерживаться?
2) Через 5 лет после покупки подобного сервера купить к нему процессор нереально, а значит, фича "добавлять процессоры на ходу" остается просто фичей.
3) Если побавить процессор надо раньше, то это значит, что была допущена ошибка на этапе проектирования.
4) Сама по себе возможность добавлять в машину память/процессор мало что дает: надо переконфигурить приложение под новые ресурсы (оракле, к примеру, научился это делать динамически только с 10-й версии, по-моему), а значит - перезапуск приложения.
5) Менять/добавлять IO карты на 9000 можно.
6) iCOD
7) iCOD + WLM + MC/ServiceGuard - в случае падения ноды ее ресурсы (процессоры и память, точнее, лицензии на их использование) могут переходить на оставшиеся ноды автоматически. Пример, кластер из 2 нод, в каждой по 16 цпу и по 32 ГБ, из которых активно по 8 цпу и по 16 ГБ в каждой. После падения какой-либо ноды на оставшейся будет 16 цпу и 32 ГБ.
>> > А крупные компании выбирают Solaris и спарки.
>>
>> Крпные компании выбирают HP NonStop/9000 и IBM P5
>>
>> А то, что в России берут sparc, так
>>это от бедности/жадности.
>>
>>А динамическая реконфигурация там есть, то есть на ходу вытащил плату процесорную
>>или I/O борду?>1) С каких моделях серверов сан это (замена процессорных плат) начинает поддерживаться?
средние модели
>2) Через 5 лет после покупки подобного сервера купить к нему процессор
>нереально, а значит, фича "добавлять процессоры на ходу" остается просто фичей.
Во-первых , таки реально
>3) Если побавить процессор надо раньше, то это значит, что была допущена
>ошибка на этапе проектирования.
Не все умеют проектировать на 5 лет вперед . Мы за год перескочили с 8 на 24 процессора
>4) Сама по себе возможность добавлять в машину память/процессор мало что дает:
Да неужели ?
>надо переконфигурить приложение под новые ресурсы (оракле, к примеру, научился это
>делать динамически только с 10-й версии, по-моему), а значит - перезапуск
>приложения.
Не совсем так - 10 Оракл может динамически добавить появившуюся память , а новые процессора и 8 с удовольствием скушает .
>5) Менять/добавлять IO карты на 9000 можно.
>6) iCOD
>7) iCOD + WLM + MC/ServiceGuard - в случае падения ноды ее
>ресурсы (процессоры и память, точнее, лицензии на их использование) могут переходить
>на оставшиеся ноды автоматически. Пример, кластер из 2 нод, в каждой
>по 16 цпу и по 32 ГБ, из которых активно по
>8 цпу и по 16 ГБ в каждой. После падения какой-либо
>ноды на оставшейся будет 16 цпу и 32 ГБ.
>1) С каких моделях серверов сан это (замена процессорных плат) начинает поддерживаться?midrange - пожалуйста. Даже в Enterprise есть (хотя и по жуэе чем в средних), но они закончили свое время жизни
>
>2) Через 5 лет после покупки подобного сервера купить к нему процессор
>нереально, а значит, фича "добавлять процессоры на ходу" остается просто фичей.Стоит вопрос не о добавлении, а о апгрейде, о сбойной компанентах (не надо только говорить, что раз есть сбойные, то ерунда)
>
>3) Если побавить процессор надо раньше, то это значит, что была допущена
>ошибка на этапе проектирования.
>4) Сама по себе возможность добавлять в машину память/процессор мало что дает:
>надо переконфигурить приложение под новые ресурсы (оракле, к примеру, научился это
>делать динамически только с 10-й версии, по-моему), а значит - перезапуск
>приложения.Что лучше - часа два простоя (время теста всей системы), или время перезапуска приложения (15-20 минут)
>5) Менять/добавлять IO карты на 9000 можно.
>6) iCOD
>7) iCOD + WLM + MC/ServiceGuard - в случае падения ноды ее
>ресурсы (процессоры и память, точнее, лицензии на их использование) могут переходить
>на оставшиеся ноды автоматически. Пример, кластер из 2 нод, в каждой
>по 16 цпу и по 32 ГБ, из которых активно по
>8 цпу и по 16 ГБ в каждой. После падения какой-либо
>ноды на оставшейся будет 16 цпу и 32 ГБ.И уж если пишите, то не надо писать скрытно.
>>2) Через 5 лет после покупки подобного сервера купить к нему процессор
>>нереально, а значит, фича "добавлять процессоры на ходу" остается просто фичей.
>
>Стоит вопрос не о добавлении, а о апгрейде, о сбойной компанентах (не
>надо только говорить, что раз есть сбойные, то ерунда)Сколько поколений процессоров поддерживает одна и таже железка?
>Что лучше - часа два простоя (время теста всей системы), или время
>перезапуска приложения (15-20 минут)2 часа??? Ужас!
Это кто так перезапускается?
На самом деле - почти все равно, поскольку речь шла о работе_без_остановки.>И уж если пишите, то не надо писать скрытно.
Это как?
Cовременные серверы Sun поддерживают два поколения CPU - Спарки III и IV
У меня сейчас два таких сервера стоит - с III и IV .
Сервер с 36 CPU после холодного рестарта поднимается 34 мин, приложение перезапускается минут за 5-8 .
На прошлой неделе добавили SCSI-card + 4 CPU без остановки Оракла .
ImnepaTop расскажи пожалуйста как проапгрейтить Red Hat 9 в EL4 или FC3? Условие обычное, к серверу не подходить(в штатах он), работу не останавливать(люди же такова не поймут), любая неудача означает, что ты попал на бабки и тебе просто клонирую опять RH9, только поподробней...
>Fatal error: Can't open file: 'cache.MYI'. (errno: >145) query: SELECT data, created, headers, expire >FROM cache WHERE cid = 'variables' in >/home/http/kerneltrap45/includes/database.mysql.inc >on line 125это при заходе на сайт =)
2 Аноним, 10:32:36, 05/04/2005
а как проапгрейдить freeBSD 4.1 до 5.3, сервер тоже в штатах, а и ядро еще пересобрать .....
2xz: хендбук прочитать и проапгрейдить.У меня именно поэтому в иногородних филиалах фря, что с этим делом там идеально.
ага хендбук поможет и в сингл загрузитца ))) а грабли с 4.1 до 5.3 удаленно решает хенд бук )))
шутку понил - смешно.
> ага хендбук поможет и в сингл загрузитца ))) а грабли с 4.1 до 5.3 удаленно решает хенд бук )))
> шутку понил - смешно.Вы, конечно не поверите, но факт в том, что поможет :-). Просто его читать иногда не мешает:
1. Загрузиться в сингл: http://www.freebsd.org/doc/en_US.ISO8859-1/books/handbook/se.... Если еще и мать такую фишку поддерживает, то вообще писюк на "взрослую" машину становится очень похожим, можно и ось удаленно с нуля поставить, вот только сигнал break не поддерживает - ребутнуть зависшую машину проблематично.
2. Проапгрейдить: http://www.freebsd.org/releases/5.3R/migration-guide.html. Мелкие грабли, вроде необходимости добавления юзера sshd, решаются через п.1
Не понял проблемы.
1. Собрать на системе хранения новый образ
2. Отключить систему которую апгрейдим от load balancer
3. Перегрузить систему с нового образа
4. Оттестировать
5. Подцепить к load balancerВремя вывода из load balancer-а системы не превышает 20-30 минут.
Под "load balancer" понимается http://www.linuxvirtualserver.org/ ???
Кое-где и LVS работает вполне успешно.
А вообще-то я имел ввиду Cisco CSS :) Впрочем балансеров очень много разных и на любой вкус.
Основная идея в том чтобы проектировать изначально систему так, что бы не было проблемы в остановке какой-то железяки для обслуживания.
Несомненно, что есть задачи где готовность пять девяток необходима - но там и решения другие и железо особое. На платформе i386 нет смысла рассчитывать на многолетний uptime - проще (и дешевле) правильно выбрать архитектуру своей ИС.
ну под выше предложенной схемой безпроблем будет работать любая ось, ну в разумных пределах я имею ввиду.