В рамках проекта OpenCompute (http://opencompute.org/), нацеленного на развитие открытых спецификаций оборудования для оснащения датацентров, компания Facebook разработала (https://code.facebook.com/posts/1687861518126048/facebook-to.../) концепцию специаилизированных серверов Big Sur, оптимизирвоанных для решения задач искусственного интеллекта и машинного обучения. От традиционных серверов Big Sur отличается наличием 8 слотов PCI-e для установки мощных GPU (например, NVIDIA Tesla M40), которые применяются для ускорения и параллелизации вычислений при работе нейронных сетей.
Сервер совместим со спецификацией Open Rack. В ближайшее время набор проектной документации и CAD-файлы с дизайном оборудования будут доступны под лицензией Creative Commons Attribution 3.0, что позволит любой компании наладить производство подобных систем без оплаты отчислений. Это второй открытый проект Facebook, связанный искусственным интеллектом. В начале года Facebook перевёл (https://www.opennet.me/opennews/art.shtml?num=41479) в разряд открытых проектов модули машинного обучения, позволяющие задействовать GPU для ускорения работы платформы машинного обучения
Torch (http://torch.ch/).<center><a href="https://scontent.xx.fbcdn.net/hphotos-xap1/t39.2365-6/120571... src="https://www.opennet.me/opennews/pics_base/0_1449859744.jpg&q... style="border-style: solid; border-color: #606060; border-width: 1px;max-width:100%;" title="" border=0></a></center>
URL: https://code.facebook.com/posts/1687861518126048/facebook-to.../
Новость: http://www.opennet.me/opennews/art.shtml?num=43506
А питание? А охлаждение корзины с дисками?
Эти видюхи должны жрать столько, что питание проще сделать внешним.
> Эти видюхи должны жрать столько, что питание проще сделать внешним.Что-то вида пары киловаттов. Как мощный калорифер.
12 В. 2,4 кВт ( по 300 ) выходит 200А.
ro = 0.018
при длине подвода в 5 метров и сечении в 10 мм^2, выходит падение в 1,8 вольта
и кПд автоматически < (1-1.8/13.8)*100 < 87% только благодаря вынесенному БП
> при длине подвода в 5 метровинтересная идея - тянуть питание к видеокарте через 2 этажа.
Судя по фотке, охлаждение - под зеленым кожухом и присутствует, а вот ноги конструкции растут непонятно откуда. И не от стоечных девайсов и не от блейдов.Т.е, судя по последнему пункту - сея поделка являетя экзотикой
> Судя по фотке, охлаждение - под зеленым кожухом и присутствует, а вот
> ноги конструкции растут непонятно откуда. И не от стоечных девайсов и
> не от блейдов.Корзинка стоит в стороне от воздушных потоков, она по всей видимости экспандерная, а как горят чипы экспндеров при перегреве я знаю к сожалению :( Да и полдюжины винтов в таком корпусе нуждаются в активной продувке.
>> Судя по фотке, охлаждение - под зеленым кожухом и присутствует, а вот
>> ноги конструкции растут непонятно откуда. И не от стоечных девайсов и
>> не от блейдов.
> Корзинка стоит в стороне от воздушных потоков, она по всей видимости экспандерная,
> а как горят чипы экспндеров при перегреве я знаю к сожалению
> :( Да и полдюжины винтов в таком корпусе нуждаются в активной
> продувке.Судя по картинкам из статьи, там не винты а видеокарты и с задней стороны к корпусу прикурочены дополнительные вентиляторы
А с "передней" стороны если смотреть, то справа обычная корзина в дизайне супермикро. И видно что никак она не охлаждается.
Там же SSD. Разве они так сильно греются?
На счет плюса - я, реально промахнулся. Прошу меня извинить.
> а как горят чипы экспндеров при перегреве я знаю к сожалению :(Это числодробилка а не файлсерв.
> И не от стоечных девайсов и не от блейдов.Не, был не прав. Просмотрел саму статью. Стоечный девайс, причем изначально задуманный как экзотичный.
Питание внешнее. А диски SSD
> Питание внешнее. А диски SSDНо экспандеру корзины в общем-то пофиг с какими дивайсами сгореть от перегрева :) Он в этом плане достаточно демократичен...
> :) Он в этом плане достаточно демократичен...8 видеокарт - потребляют больше утюга, а ты про какой-то чип.
"питание", "охлаждение"...
Ты лучше спроси, а какой алгоритм?!?! Почему эту железку называют ИИ?
Потому что AI - это давно уже технический термин, обозначающий определённый подход к решению задач. С фантастикой или вашими фантазиями имеющий мало общего.
Маркетологи постарались или просто народ тупеет?
> Маркетологи постарались или просто народ тупеет?А ты попробуй задавать гуглу вопросы и посмотри как он реагирует. Когда ты просишь фотографию котят - он понимает что надо именно фотографию, а не рисунок или комиксы. И проверит что там именно котята, а не что-нибудь еще.
Далеко не все диски греются
Пройдись по второй ссылке, там больше фоток и все видно.
Ага, видно отсутствие корзины с дисками и отсутствие полного блока питания от высокого.
В общем-то обычный 4U короб с никакой плотностью компоновки (ой только не надо про гигафлопс на литр) и ни с чем не совместимым питанием.Учитывая целевую аудиторию и ценник, тот же нвидия грид выглядит гармоничнее.
> В общем-то обычный 4U короб с никакой плотностью компоновкиПопробуй в обычный 4U упаковать 8 мощных видеокарт. Узнаешь много нового.
"Сервер совместим со спецификацией Open Rack."
Это для дятлов выше в топике. Да - там питалово - внешниее. Там вообще много чо не так :)
А что тут волшебного, кроме неизвестного производителя материнки на 8 PCI-E слотов?
Вот готовый вариант, на 10 слотов http://www.storagereview.com/supermicro_x9drxf_reviewКороча, не взлетит. Кому нужны решения для вычислений - купят готовые.
Кто надумает само производить - у тех цена будет аццкая в сравнении с готовыми.Догнать и перегнать SuperMicro/Tyan только богатый фанат сможет.
Предлагать готовые нейронные сети это тоже звучит весело, ибо 99% работы
это именно сама сеть.
Если этот сервер втыкать в обычную стойку в обычный ДЦ, то придется много чего доделать и цена на сервер аццкая.Если же сервер использовать в стойках Open Rack, то суммарная стоимость оборудования+стойки меньше, чем обычные серверы + обычные стойки. Потому цена на сервер будет очень даже дешевле текущих серверов.
> то суммарная стоимость оборудования+стойки меньше,Нвидия внезапно начнёт продавать дешевые Теслы?
Весь такой ящик + мать + проц + оперативка, стоят как 1/3 одной Теслы,
а их там 10 шутк.Поэтому устраивать себе геморрой ради экономии на спичках сомнительная затея.
И будет ли она, эта экономия, учитывая зарплату сотрудников занятых в разработке
именно ящиков.> Если же сервер использовать в стойках Open Rack,
В теме предлагают схемы, даже не полуфабрикаты...
Да чего я рассказываю, кастомизация всегда была дороже, причём на порядок.Короча посаны, если кто решится внедрять нейросеть, можете вляпаться посамое неболуйся.
ПЕРВОЕ ДЕЛО - СЕТЬ, хоть на i80386, но рабочая. Подобрать сейчас железо вааааще не проблема.
читая названия статьи и переходя внутрь в подробности, надеялся увидеть подпевку для гугловского квантового компьютера.
А что там нынче с дровами NVIDIA Tesla под Linux ?Пару лет назад встречал упоминания о недостаточной производительности отноститель Windows машин.
Но учитывая, что решения с теслами все больше, ситуация исправилась ?
> А что там нынче с дровами NVIDIA Tesla под Linux ?http://www.nvidia.com/download/driverResults.aspx/95476/en-us
> Пару лет назад встречал упоминания о недостаточной производительности отноститель Windows
> машин.
> Но учитывая, что решения с теслами все больше, ситуация исправилась ?
Ага OpenCompute, открытые спецификации оборудования, а Невидия такая вся открытая.
ИИ, ФБ, сервера, железо ... базворд какой-то ...Лучше бы воздержались от спама ...