>Существуют ли формулы, позволяющие правильно и с запасом рассчитать
>конфигурацию серверов на Unix?
>Вроде бы простая задача - бери по-больше, но не хочется приобретать, то,
>что потом не пригодится, а с другой стороны выслушивать недовольства
>пользователей и начальства в часы пиковой нагрузки.
>
>Имеем: около 300 пользователей с выходом в инет и почтой.
>Сервисы: роутер на 2 канала, firewall, DNS, почта, статистика, SQL,
>DialUp, антивирус + WWW хостинг и анонимный FTP.
>Планирую раскидать сервисы по отдельным машинам, а как точно расчитать
>конфигурацию машин, в зависимости от выполняемых задач, не знаю.
>
Задача совсем не простая.
Точнее, в Вашем случае она еще ничего, вполне терпимая.
Если сервисы достаточно стандартные, то действовать можно по схеме:
Берём по каждому сервису среднюю оценку затрат по процессору/памяти;
умножаем на некий коэффициент (В своей практике я использовал 1.5, но
всё зависит от конкретных обстоятельств и жадности владельца денег,
на кои закупается железо. В общем, бубен шаманский потребен.).
Суммируем и прибавляем маленько "на ОС" - зависит, собственно, от типа ОС.
Плюс невредно попытаться посчитать степень параллелизма работающих задач
и учесть при выборе процессорной линейки.
Самое сложное - учесть создаваемую СУБД *пиковую* нагрузку и терпимое
время отклика. Здесь ничего, кроме прямых наблюдений, не поможет,
так как базы у всех разные и приложения над ними - тоже.
Вообще вся эта химия официально именуется "capacity planning" и
представляет собой нехилый раздел IT-управления. На 300 юзеров
сервак может быть не особенно дорогой. А вы преставьте себе ситуацию,
когда цена вопроса - порядка лимона баксов, а то и поболе. Причём в
системах такого уровня ссылки на "стандартность" сервисов и
чужой опыт эксплуатации уже не покатят - нужен свой собственный,
желательно на сходном по архитектуре железе.
|