Компания NVIDIA объявила (http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D...) об открытии компилятора из состава CUDA Toolkit, используемого для генерации GPU-инструкций из кода, написанного на языке Си. Как сообщается в пресс-релизе, компилятор войдет в состав версии 4.1 CUDA Toolkit.
По мнению компании, открытие исходного кода CUDA-компилятора позволит заинтересованным лицам создать его модификации для других аппаратных платформ, обеспечить поддержку новых процессоров и языков программирования, сделав таким образом CUDA-приложения по настоящему кроссплатформенными. В подтверждение этому NVIDIA также выложила в свободный доступ спецификации промежуточного языка, используемого компилятором и другими инструментами.
К сожалению, получить код не так просто, для этого необходимо заполнить специальную форму (http://developer.nvidia.com/content/cuda-platform-source-rel...) на сайте компании и дожда...URL: http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D...
Новость: http://www.opennet.me/opennews/art.shtml?num=32562
Будет здорово, если это поспособствует исправлению ошибок, а то кривость nvcc мешает производить вычисления.
Нвидия как обычно, сделала все что можно было сделать через задницу. Одна надежда на амд, где народ явно более вменяем.
> Нвидия как обычно, сделала все что можно было сделать через задницу. Одна
> надежда на амд, где народ явно более вменяем.Но не сделал ничего.
В итоге имеем: дрова nvidia хоть и закрытые, но несравненно лучшего качество, небо и земля просто по сравнению с amd; nvidia хоть что то открывает, хоть как то; у amd нету никаких дров по freebsd и многие другие платформы, у nvidia - все есть, даже под фрю 64 бит сделали. Никаких AMD никогда не будет и близко на моем железе. Процессоры amd - мерзота полная, видел собственными глазами как ведут на amd-only платформе себя скажем KDE - это просто ужасно, просто кошмар.
Только INTEL, только NVIDIA.
> Процессоры amd - мерзота полная, видел собственными
> глазами как ведут на amd-onlyбаян уже 5-год:
2 x Opteron 285 (в сумме 4 ядра) 2.6 ГГц, имеют во все дыры галимый Core i7,
на тех же частотах. 285-й - это модель 2005 года, i7 вчерашний "свежак".
Я уже с моими оптерончиками отымел 3 поколения Инталов - P4, Core/Core2Duo/CoreQuad, i3/i5/i7И у меня ещё есть запас - поставить 290-ые на 2.8ГГц и оперативку с CAS Latency 2.5
а в чем имеют? и почему не расказал как тебе хорошо живется без 3d ?:)
> а в чем имеют?Щас, распишу по наносекундам... делать мне больше по вечерам не х...я.
А в общем - время компиляции, RT-latency в районе 40-50 мкс.
Естессено проги имеющие оптимизацию под SSE3/4/4.2 быстрее на современных процах.
Но такие проги работают 5% от всего рабочего времени.> и почему не расказал как тебе хорошо живется без 3d ?:)
570 Джыфорс стоит и чё?
---
Но,... вот мне тут на работе разорились, и подогнали HP Workstation Z200
Вот 4-х горшковый Xeon E3-1240, вот песнь, это снимаю шляпу... :)Кстати, кто надумает о хорошем десктопе - рекомендую!!!
Очень аргументированное сравнение процессоров. Вам бы в форониксе работать.
Странный ты чудик.
Можно подумать кроме лохунгов и криков «только эта хрень» у предыдущего оратора было больше аргументов.
Я ничего не говорил про предыдущего оратора. Просто бросился в глаза диалог:
-X сосёт у Y.
-А поконкретнее?
-Делать мне нечего. Иди на хрен.
> Я ничего не говорил про предыдущего оратора.Вот то-то и оно.
Зыж
Вот у меня ноут — и5, нвидиа, все дела.
Греется сцуко. Уже хрен с ним с энэргопотреблением.
Но как запустишь что-то типа игры или виртуалки — писец. Отключается по температурному режиму.
Вот я и думаю, может лучше бы амд+ати взял в 1.5 раз дешевле.
Ззыж
В плане вычислений на гпу опять же амд лучше.
Это должно быть известно даже тролям, что плачутся «только интел, только нвидиа» и только потому, что он крЮтой бздишнег, а там драйверов нема.
У меня i5 и нвидиа. Не греется совсем. Скорее это зависит от конструкции ноутбука. У нескольких знакомых hp греется. А чем амд лучше для вычислений на GPU?
> А чем амд лучше для вычислений на GPU?Почитайте https://en.bitcoin.it/wiki/Mining_Hardware_Comparison и сами зацените. Это вполне типовая парралельная задачка - брут хэша по сути. Отражаемые там соотношения вылезут и в утилитах типа hashkill.
> Вам бы в форониксе работать.А что, и ник ведь подходящий. Wait, oh shi-!
ну, вы там начали овном бросаться amd vs intel, а новость-то про nvidia;)> 570 Джыфорс стоит и чё?
а чо не ati(amd)?;-)
>Вот 4-х горшковый Xeon X3470, вот песнь, это снимаю шляпу... :)
>Кстати, кто надумает о хорошем десктопе - рекомендую!!!да, тетрис наверное не будет тормозить:-)
>>Кстати, кто надумает о хорошем десктопе - рекомендую!!!
> да, тетрис наверное не будет тормозить:-)Пля перепутал на HP стоит E3-1240, X3470 это в серверной...
Хороший десктоп-))) За 30-32 тыс. берется четырех сокетная мать и втыкается 12-16 ядерные Опетероны и лет на 5 можно забыть обо всем. Бюджетный вариант, за 15-17 берется 2 сокетная мать и втыкаются те же оптероны. И если нужны мультипоточные приложения этого хватит. А если приложения не мультипоточные, тогда i7 и ничего тут больше не сделаешь-)))
> Хороший десктоп-))) За 30-32 тыс. берется четырех сокетная мать и втыкается 12-16Не, 4-процессорная мать, относительно 1 процессорной,
по соотношению цена/производительность, в 4.5 раза!!! меньше,
чем 2-процессорная.
> ядерные Опетероны и лет на 5 можно забыть обо всем. Бюджетный
> вариант, за 15-17 берется 2 сокетная мать и втыкаются те же
> оптероны. И если нужны мультипоточные приложения этого хватит. А если приложения
> не мультипоточные, тогда i7 и ничего тут больше не сделаешь-)))В такую мать говно не втыкают, к ним ещё нужно: ECC RAM 128 Gb + SAS контроллер,
пару дисков на 15000 оборотов, SSD на корневую, Fusion-IO для /tmp, /var/tmp, /run,
и Geforce Quadro.
> и Geforce Quadro.Лучше большую пачку амдшных 5970 или 6990. Тогда всем (ну почти) хешам и шифрованию в радиусе досягаемости наступит рослый полярный лис ;). Кстати взлом некоторых хешей имеет некую рыночную ценность, например тот же SL3 unlock.
proof ot gtfo
> proof ot gtfoboofg df rmrf
прувы давай, "эксперт"
> прувы давай, "эксперт"Для начала у этого типа стоит ECCшная оперативка, если я правильно помню. Да, это тебе не твоя ширпотребная быдлогеймерская система. Один этот факт уже заслуживает уважения. К десктопному железу в последнее время относятся как к расходнику и удешевляют вообще все, а параметры компонентов близки к предельным ради экономии. Исключением являются разве что топовые мамки от асуса и гигабайта, но набор плюшек там ориентирован на каких-то имбецилов.
Пруфы давай
> Пруфы давайПруфы чего именно? Что у павлина ecc память? Это наверное к павлину.
> И у меня ещё есть запас - поставить 290-ые на 2.8ГГц и
> оперативку с CAS Latency 2.5Ради справедливости замечу что интел кажется уже до 4 interleaved контроллеров памяти на 1 проц делает в новом сокете. Как ты понимаешь, 4 interleaved канала могут в принципе и натянуть 2. Правда задачи для показательной порки придется очень тщательно подбирать, но если сильно постараться то можно и накопать.
ну они как до первого поколения бульдозеров дотянут, можно будет посмотреть, а пока интеловский мусор пускай по шарагам валяется всяким
> ну они как до первого поколения бульдозеров дотянутДык вроде как бульдозеры не обогнали i7 пока в большинстве бенчей. Зато амд научилось читерить с числом ядер не хуже интеля. У них теперь как бы 8 ядер, которые правда в лучшем случае ведут себя как 6 целочисленных, и 4-5 плавучечных. Годный ответ гипетредингу, теперь фэйковые ядра есть не только у интеля :)
> 2 x Opteron 285 (в сумме 4 ядра) 2.6 ГГц, имеют во все дыры галимый Core i7супер! это называется "сравнить ж* с пальцем" и особенно в контексте новости про нвидию.
Ключевое - 2х?
А как насчет 2х Xeon E7-8870 - в сумме 20 ядер по 2,4?
> Ключевое - 2х?
> А как насчет 2х Xeon E7-8870 - в сумме 20 ядер по 2,4?А как на счёт 420000 и 15000 руб. (новый в 2005 стоил 1000$)
>видел собственными глазами как ведут на amd-only платформе себя скажем KDE - это просто ужасно, просто кошмар.Ну-ка здесь, пожалуйста поподробней, как ведёт себя KDE на AMD плаформе?
PS А мужики-то и не знали...
> Ну-ка здесь, пожалуйста поподробней, как ведёт себя KDE на AMD плаформе?
> PS А мужики-то и не знали...Например так: низкая отзывчивость иксов и кедов в целом, кеды тупо медленно работают и дико напрягают процессор (тоже amd кстати) на каждое движение. Ошибка исключена - собиралось с mtune=native по фряхой. Те же кеды под интел+нвидия - идеально быстро, быстрее скорости света. Я связываю это в большей степени с повернотостью gcc к intel, возможно он так компилит что amd процессору потом трудно разбирать этот бардак, а можно просто что amd - г-но. Такие дела, ну серьезно, есть практика. С амд - отстойно медленно глючно и тупит жостко весь десктоп, с интел и нвидия - ни одного нарекания, максимально быстро, быстрее быть не может, быстрее чем макось и винда визуально, так плавно и красиво ничто не работало еще как KDE на фряхе под intel и nvidia. Ниодного тормоза никогда, ниразу.
>> Ну-ка здесь, пожалуйста поподробней, как ведёт себя KDE на AMD плаформе?
>> PS А мужики-то и не знали...
> Например так:Я-то хоть модель процов назвал, а вы копипаст из гугла.
> Я-то хоть модель процов назвал, а вы копипаст из гугла.Правильно, у тебя и система более заточена под десктоп, и железо не с помойки и руки более-менее правильно растут. А у этого субъекта - из его постов все и так сразу понятно. Пусть сидит с своим ископаемым gcc и свято верит что у амд проблемы, таких придурков на этой планете не сильно много.
Вот только не надо гонево разводить! У меня Интел Атом 330 с видеокартой НВИДИЯ ДЖЫ ФОРС 9400 в кедах тормоза жуткие, даже не могу это описать будто бы на каждое действие стоит таймер выполнения.. Самое интересное что можно наклацать наперёд в браузере и он это выполнит (например ... CTRL+T www.opennet.ru ENTER Ctrl+l www.ya.ru ENTER и через секунды три все эти действия повторяются в броузере)
Ну и куча других неприятных фокусов с их тормозной гуйнёй. Кеды3 идут идеально. даж быстрее гномов и ЛХДЕ.Что могу сказать по предыдущему оратору, так он просто тролль и лжец!
> Вот только не надо гонево разводить!Это чистая правда. Сам по той-же причине несколько лет назад свалил с AMD.
> Это чистая правда. Сам по той-же причине несколько лет назад свалил с AMD.Telepathy mode: у вас тоже freebsd? :)
> У меня Интел Атом 330 с видеокартой НВИДИЯ ДЖЫ ФОРС 9400
> в кедах тормоза жуткие,Да, Атом есть полное гумно. Увы и ах. Под нагрузкой жрёт чуть меньше всяких там i3, а попугаев выдаёт с гулькин нос. Если бы не miniITX фактор и не fanless, вжисть не было бы у меня этого добра.
> Вот только не надо гонево разводить! У меня Интел Атом 330 с
> видеокартой НВИДИЯ ДЖЫ ФОРС 9400 в кедах тормоза жуткие,Да там скорее проблема в общей убогости атомного проца. Ему откусили кеши и упростили ядра. Получился огрызок, хилый как ARM но жрущий существенно больше оного.
А ты уверен что gcc42 знает хорошо про твой native?
> А ты уверен что gcc42 знает хорошо про твой native?А еще я думаю что делать выводы на основе gcc 4.2 при том что выпущен 4.6 относительно современных камней... не, давайте уж gcc 2.95 достанем из чулана и лучше им соберем на пробу и так и сяк. Посмотрим какой из скелетов в шкафу бегает лучше.
> собиралось с mtune=native по фряхойпосле этого как-то сложно доверять вашим словам
> после этого как-то сложно доверять вашим словамсобиралось в gcc4.6. Щас легче стало?
> собиралось в gcc4.6. Щас легче стало?Так вам наверное виднее, стало лучше в гцц 4.6 или нет. У меня с кедами вообще никаких проблем на амдшном 4-ядернике и амдшной же видяхе. Даже с открытым драйвером со всей дури прут с эффектами и прочая.
> Например так: низкая отзывчивость иксов и кедов в целом, кеды тупо медленно
> работают и дико напрягают процессор (тоже amd кстати) на каждое движение.Что-то не заметил диких напрягов. Проц - копеечный phenom2 810. Копеечный 4-ядерник. Кедам этого с большим запасом.
> Ошибка исключена - собиралось с mtune=native по фряхой.А вот извращенцы с недесктопной системой и древним гцц за критерий истины вообще не являются.
Бред, полный бред AMD Phenom X6 1090 + AMD SB890 + HD6870 Полет отличный.
Есть отличный опыт с Opteron X12 x2 - ЯД.
Как можно такой маразм писать!!!Я ничего не имею против любого производителя, но AMD на высоте, особенно со своими ценами!
i7 - курит еще и за такие деньги.
по поводу денег то да... но в плане производительности AMD проиграл все, что можно проиграть. Особенно с новыми бульдозерами.
Я был поклонник AMD ATI, но за последние 2 года он полностью разочаровал, сначала пришлось поменять видеокарту на NVIDIA так как занимаюсь 3d, теперь надо брать новый процессор и судя по тестам это не будет AMD
> по поводу денег то да... но в плане производительности AMD проиграл все,
> что можно проиграть.Могу как минимум 1 контрпример: например вон там https://en.bitcoin.it/wiki/Mining_Hardware_Comparison - амд наоборот эпически выигрывает у всех остальных вместе взятых. Видеокартами, но все-таки. По этому поводу всякие крякеры хешей на CPU запускать уже просто нет смысла. Моя видяха натягивает проц по скорости брута мд5 в 30-40 раз. Никакой интел в жизни это не переплюнет ;)
> по поводу денег то да... но в плане производительности AMD проиграл все,
> что можно проиграть. Особенно с новыми бульдозерами.
> Я был поклонник AMD ATI, но за последние 2 года он полностью
> разочаровал, сначала пришлось поменять видеокарту на NVIDIA так как занимаюсь 3d,
> теперь надо брать новый процессор и судя по тестам это не
> будет AMDХм, позвольте усомниться в вашей аргументации. Каким именно 3д вы занимаетесь где nVidia однозначно лучше AMD? Интересны также упомянутые вами тесты.
Мой опыт (начиная с AM2 и P4) показывает, что интел лучше, но первые 1-2 года, пока не будет оптимизации в gcc, обновления ядра и etc... Потом амд выигрывает по всем параметрам, особенно совместимостью железа (можно ставить любое железо, находящееся в продаже).
> Мой опыт (начиная с AM2 и P4) показывает, что интел лучше,P4 вообще был на редкость гадостный проц ИМХО. И много жрет и медленный. Вот уж что-что а этот отход производства атлоны рвали на британский флаг (интел даже продал марвеллу семейство процов PXA для выправления финансовой отчетности). А вот потом амд как-то сбавило темп, а интел наоборот сделал очень удачные коры2 и потом i7.
Тем не менее, у амд есть плюс: т.к. они не лидер - они ценой берут. По этому поводу у них есть недурные 2-ядерные заглушки для сокета по цене по которой у интеля 1-ядерный селерон кастрированный со всех сторон. А иногда от проца много и не надо, но и совсем хлам как бы не в кассу. Например для машинки ориентированной на GPU вычисления сильно крутой проц ни к чему но и совсем хлам там не катит. Соотношение цена/качество получается совсем не в пользу интеля. Но ради справедливости замечу что когда атлоны заруливали 4-й пень, амд тоже за топовые модели драли совершенно негуманно и вообще по сути поменялись с интелом местами по ценообразованию. Манагеры считают что если ты выпустил самый-самый проц то твой бренд становится типа крут и можно за него драть три шкуры :)
> Манагеры считают что если ты выпустил самый-самый проц то твой бренд
> становится типа крут и можно за него драть три шкуры :)Если я правильно помню, у АМД в те годы еще и засада с производством была. народ готов был купить их проц и за 3 цены, но их не было! А когда они проблемы порешали Интел подсуетился...
> Если я правильно помню, у АМД в те годы еще и засада с производством была.Да, они настолько офигели от спроса что не успевали на всех штамповать :)
> народ готов был купить их проц и за 3 цены, но их не было! А когда они проблемы порешали
> Интел подсуетился...Ну да.Впрочем у интела по жизни было и много других веселых проколов. То юсб на чипсете горел как спичка, от каждого пука. То вот SATA интерфейсы. DMA и интела традиционно кривой. Всю жизнь был и до сих пор местами остался вроде как. У амд конечно тоже бывают ляпы, но настолько брутальных как выгорания интерфейсов я как-то не припоминаю.
>> надежда на амд, где народ явно более вменяем.
> Но не сделал ничего.Они делают opencl для открытого драйвера. Алилуйя, не придется возиться с кривыми блобами устанавливаемыми откуда-то сбоку, хотя-бы в линухах, которые народ очень любит для таких задач.
> В итоге имеем: дрова nvidia хоть и закрытые, но несравненно лучшего качество,
Угу, на качество нвидии как числокрушилки можно посмотреть в районе https://en.bitcoin.it/wiki/Mining_Hardware_Comparison
> небо и земля просто по сравнению с amd;
Да, особенно по ссылке выше. Небо и земля: стобаксовая видяха от амд лупит простые параллельные операции на уровне теслы примерно.
> nvidia хоть что то открывает,
Да уж, если полчаса скулить под дверью - даже косточку кинут. Очень удобно.
> хоть как то; у amd нету никаких дров по freebsd
О, найдите мне драйвер для тегры под фрибсд, раз вы такой умный? Там под линукс то какое-то кривое нечто как максимум :).
> и многие другие платформы,
Если уж мы про другие платформы - ну я вон ARM и тегру вспомнил спецом для вас.
> у nvidia - все есть, даже под фрю 64 бит сделали.
А под 32-битный ARM зато - мало того что только под линукс так еще и просто кривущее.
> Никаких AMD никогда не будет и близко на моем железе.
А на моем десктопе никогда не будет фрибсды. Из нее такой же десктоп, как из сверхзвукового истребителя - транспортный самолет.
> Процессоры amd - мерзота полная, видел собственными глазами как ведут
> на amd-only платформе себя скажем KDE - это просто ужасно, просто кошмар.Вы что, нездоровы? КДЕ себя ведет на оном совершенно обыкновенно. Кедам вообще похрен какой там процессор, при условии что его хватает.
> Только INTEL,
Ага, идите вкатите вашу фрибсду на интелский ноут, например. Будет интересно посмотреть на это. А KMS у вас там хотя-бы добили уже? А то знаете, есть такая фигня: интел в принципе и не выпускает проприетарные дрова для *никсов, а вот встроенные в проц видяхи они очень даже делают. И как, в этой вашей фрибсде уже все фичи sandy bridge работают? А то помнится там вообще не могли свежие дрова юзать потому как KMS не реализован.
> только NVIDIA.
Я всегда подозревал что бсдуны это латентные проприетарщики. Вы уж извините конечно, но мне в открытой системе совершенно не сдалась чужеродная проприетарная мерзота с которой вечно всевозможные косяки и грабли случаются, если бы это было не так, я бы сидел в виндусе и не рыпался.
Косяки при том - что с амд, что с нвидией. То они там свежие иксы долго раздупляются поддержать, то майнтайнеры системы не могут очевидный тупняк зачинить, который колом ставит всю систему, хотя дел на 10 минут, то гномы/кеды/чтотамеще глючат. А с амд как мило, их открытый драйвер просто есть сразу, искаропки. Он just works. Глюков вообще не вижу. Апдейтится штатно, пакетным манагером. Чинится при нужде майнтайнерами. Корректно переживает апгрейд major версий системы, замену ядер и прочая. Не создает попаболи. Вообще. Да еще рекавери в случае сбоев видяхи даст фору всем остальным. Нужно конечно раз в сто лет, зато если что-то все-таки пошло не так, рекавери похож на магию. Там где остальные тупо виснут не дождавшись ответа от железки, амдшный драйвер не только ловит таймаут, но и весьма умно сбрасывает видяху по шине, заново бутит в ней фирмварь, переинициализирует ее и ... как будто бы она и не сбоила, из програм никто ничего и не замечает в общем то. Настолько эпичной рекаваери почему-то даже в проприетарных дровах нет, то-есть, там есть какие-то потуги в таких ситуациях, но они явно менее кардинальны и менее успешны :). Вообще, с проприетарью в половине случаев можно словить попаболь на ровном месте, что у нвидии, что у амд. Нафиг!
>[оверквотинг удален]
> все-таки пошло не так, рекавери похож на магию. Там где остальные
> тупо виснут не дождавшись ответа от железки, амдшный драйвер не только
> ловит таймаут, но и весьма умно сбрасывает видяху по шине, заново
> бутит в ней фирмварь, переинициализирует ее и ... как будто бы
> она и не сбоила, из програм никто ничего и не замечает
> в общем то. Настолько эпичной рекаваери почему-то даже в проприетарных дровах
> нет, то-есть, там есть какие-то потуги в таких ситуациях, но они
> явно менее кардинальны и менее успешны :). Вообще, с проприетарью в
> половине случаев можно словить попаболь на ровном месте, что у нвидии,
> что у амд. Нафиг!User294, залогинься. Насчёт биткойнов 1). Непопулярны 2). В сложных труднораспараллеливаемых вычислениях картина nvidia vs ati обратная.
> 2). В сложных труднораспараллеливаемых
> вычислениях картина nvidia vs ati обратная.Так, теперь быстро и решительно: зачем переводить на GPU вычисления, которые плохо для них подходят?
> User294, залогинься. Насчёт биткойнов 1). Непопулярны 2). В сложных труднораспараллеливаемых
> вычислениях картина nvidia vs ati обратная.Добавлю, биткоины - показатель числодробительной мощи GPU, где они особенно сильны. Тот же перебор паролей на радеонах намного быстрее происходит чем на нвидиевских картах.
> Насчёт биткойнов 1). НепопулярныДа пофиг. Это пример хорошо параллелящейся задачи. То же самое применимо к любому брутфорсу хешей например и прочим похожим по смыслу сильно параллельным задачам.
> 2). В сложных труднораспараллеливаемых вычислениях картина nvidia vs ati обратная.
А сложную не параллелящуюся задачу вообще лучше всех рюхнет CPU с его суперпереусложненным ядром на 3+ гигагерцах с turbo core, где вся мощща собирается в кулак и отдается 1 ядру на максимум. У видях относительно простые ядра на куда более скромной частоте, которые в индивдуальном порядке не обгонят таких переростков. Зато в силу относительной простоты - таковых ядер чуть более чем дофига. Что позволяет скрушить два вагона чисел за раз, если задача удобная в этом плане.
> рекавери похож на магиюага. и работает так же?
> из програм никто ничего и не замечает
особенно, например, программы, использующие OpenGL и успешно накормившие видеокарту текстурами (да-да, такое и для 2d делают). ну точно: магия!
>> рекавери похож на магию
> ага. и работает так же?Ага. Картинка застревает на несколько секунд (видяха не отвечает) - тынц - ресет - тынц - картинка размораживается и пашет как ни в чем не бывало (нихуасебе читерство). Почти как микроядерщики и хотели, с той разницей что мозг вправляется не глючному драйверу, а сглючившей железке драйвером, что явно эпичнее. Для сравнения, винда с проприераским драйвером в такой ситуации уныло улетает в бсод с коментом про watchdog timeout (драйвер застрял и ждет ответа от видяхи вечно, что и ловится вачдогом). Бывает если например кулер тотально забился пылью и видяха откровенно перегрелась, etc.
>> из програм никто ничего и не замечает
> особенно, например, программы, использующие OpenGL и успешно накормившие видеокарту текстурами
> (да-да, такое и для 2d делают). ну точно: магия!Честно говоря доктор Ватсон не заметил проблем в этом плане. OpenGL программы на первый взгляд вообще не замечают что видяху под ними сребутили. По крайней мере, визуально все выражается только в фризе картинки на несколько секунд (пока до драйвера доходит что видяха залипла) и мерцании в момент ребута, ну и запись в dmesg - мол, у вас тут видяха что-то не отвечает, а давайте ка мы ей ресет сделаем?! Правда я это видел всего несколько раз в жизни, и детально не исследовал (архиредкая ситуация же) но настолько кульный рекавери мне доставил.
Что именно через задницу? Открыла код?PS. Под FreeBSD видюхи от nvidia работают замечательно, завести AMD'шную карточку вообще нельзя. И кто тут что делает через задницу?
> PS. Под FreeBSD видюхи от nvidia работают замечательно,И как, у вас уже появилось 3D в тегра2?
Не знаю что это. И не сильно жажду узнать.
> Не знаю что это. И не сильно жажду узнать.Это такой довольно удачный выводок ARM процессоров от нвидии с встроенным GPU. На оных сделано несколько довольно любопытных нетбуков, 100500 моделей планшетов и даже ряд топовых телефонов. Довольно удачный чипак в принципе. А то что фря застряла в каменном веке и такое если и будет поддерживать то когда с производства снимут - я не виноват.
> Нвидия как обычно, сделала все что можно было сделать через задницу. Одна
> надежда на амд, где народ явно более вменяем.АМД - как Жириновский, болтают много, но ничего не делают. После изобретения х64, во всяком случае.
А этот их лозунг "Fusion - это величайшая инновация в архитектуре х86 за все более 40 лет её существования"? Маркетологи у них умеют считать не лучше, чем у нас Чуров...
Мне нравится продукция АМД наверное потому-что я не отвлекаюсь на продукты их маркетингового отдела. (:
> А этот их лозунг "Fusion - это величайшая инновация в архитектуре х86Это действительно очень хорошее решение для своих ниш. Для HTPC например всяких. Дискретная видяха там по габаритам как-то проблемна. Видяха в чипсете не может быть мощной, поскольку хорошо охлаждать чипсет - сложно. А вот в проце - в самый раз. Даже интел скопипи...л потом это решение, только вот у интела графика сроду скромнее чем у амд была по возможностям.
>Компания NVIDIA объявила об открытии исходных текстов компилятора
>К сожалению, получить код не так простоКто-то врёт.
>>Компания NVIDIA объявила об открытии исходных текстов компилятора
>>К сожалению, получить код не так просто
> Кто-то врёт.Ну а чё -- открыли текст и смотрят его. А другим не показывают.
> Кто-то врёт.Да не, проприетарщики не врут. Они традиционно говорят не всю правду. За это я их и не жалую. Потому что кажется что прямо вот ну совсем конфетка! И тут как снег на голову уточнение, о котором забыли в рекламе: из г-на! А что, они не врали. Они и не утверждали что их конфеты - шоколадные. А кто это возомнил - сам дурак, типа.
>>Компания NVIDIA объявила об открытии исходных текстов компилятора
>>К сожалению, получить код не так просто
> Кто-то врёт.Открыть исходники != открыть исходники под открытой лицензией.
Зарегистрируйся на сайте и скачай.
> Зарегистрируйся на сайте и скачай.(задумчиво) не хочу регистрироваться. это не «открыла», скачать-то нельзя.
Под какой лицензией-то открыли?
Весьма положительные новости в любом случае.
(задумчиво) не вижу открытости. вижу обычную проприетарщину по подписке. какого чёрта эта «новость» тут делает?
> (задумчиво) не вижу открытости. вижу обычную проприетарщину по подписке. какого чёрта эта
> «новость» тут делает?Лицензия BSD по вашему не является открытой ? Код они именно под ней открыли. А то что скачать не дают без регистрации - из право. Скачайте и выложите где-нибудь на GitHub.
их право. и это называется «закрытый код».
> их право. и это называется «закрытый код».Это называется "махровый проприетарщик пытается играть в опенсорс".
> Скачайте и выложите где-нибудь на GitHub.А ему это надо? По логике вещей это надо бы самой нвидии. А если не надо - так кому хуже то. Не, можно рассылать диск с сырцом по 200 баксов, как моторола. Только у них почему-то их самопал распостраняемый таким методом успешно сдох.
Хм.. компилятор сделали на некошерном LLVM.. под вражеской BSDL..
Чтож то помешало им использовать прававерный gcc ? :/
gcc отжил своё. Будуще за llvm
> gcc отжил своё. Будуще за llvmкак хорошо, что у нас разные будущие.
> как хорошо, что у нас разные будущие.Он наверное даже надеется дожить до момена когда сможет выбросить гцц и не испытать острой попаболи. Может к моменту выхода на пенсию его и осчастливят.
на самом деле я на 100% уверен, что ему конкретно ни gcc, ни llvm-based вообще не надо, потому что он даже мир не пересобирает, не то, чтобы писать что-то.
> gcc отжил своё. Будуще за llvmLLVM всего лишь генератор кода и виртуальная машина. Это не является самодостаточным компилером, лол :)
вот вот. проект llvm и clang - это модульная структура.
А gcc - монолит который загибается от своей тяжести.
даже gcc-xml - это просто громадный патч на код - а не отдельный модуль.
…сказал человек, вне сомнения разбирающийся в коде обоих проектов.
> вот вот. проект llvm и clang - это модульная структура.И где тут в новости хоть слово про шланг? То что llvm там как встроенный генератор кода вполне уместен - факт. Но при чем тут шланг?
> А gcc - монолит который загибается от своей тяжести.Ну да, ну да. Наверное именно поэтому llvm бэкэнд к оному прикручивается как плагин :)