Доступен перевод (http://www.ibm.com/developerworks/ru/library/l-scalability/) статьи с рассказом об оптимизации многоузловой высокопроизводительной системы под Linux, насчитывающей от 1 до 4 узлов, в которой используются встроенные в системные платы адаптеры Gigabit Ethernet.
Представлены интересные графики изменения пропускной способности, в зависимости от методов соединения машин и используемых параметров тюнинга: numactl, SMP IRQ affinitization (запрещение миграции обработки прерываний между CPU), объединение нескольких ethernet интерфейсов.
URL: http://www.ibm.com/developerworks/ru/library/l-scalability/
Новость: http://www.opennet.me/opennews/art.shtml?num=14310
круто, сейчас попробую!
>круто, сейчас попробую!попробовал??? получилось???
Спасибо - и за внятную новость и за статью: как раз искал нечто подобное.
Кстати вполне можно было даже не переводить саму статью :)
SRVE0232E: Internal Server Error.
Exception Message: [org.eclipse.hyades.logging.events.cbe.impl.CommonBaseEventImpl (initialization failure)]
>SRVE0232E: Internal Server Error.opennet-эффект? ;)
>>SRVE0232E: Internal Server Error.
>
>opennet-эффект? ;)IBM/dWorks over-self-PR effect...
Я не понял как у них получилось 32Гб ОЗУ из 8 модулей DIMM по 1 ГБ, распределенных по четырём платам памяти :( У кого-то плохо с арифметикой?
Незнаю как у кого, но меня улучшения были в пределах 3-часов, потом когда нагрузка возросла,
с серверами начало твориться что-то ужасное включая "полный ступор на несколько секунд".
В итоге вернул как было и проблемы исчезли - лучшее враг хорошего!!! Не надо чинить то, что не ломалось (вывод). Использовал 16 штук FSC PRIMERGY TX200S3 (2 четырехядерных Xeon, 8 Гб озу)