Дэвид Эйрли (David Airlie) из компании RedHat представил три патча, нацеленных на обеспечение поддержки PCI-E 2.0 в свободном видеодрайвере Radeon, что может заметно повысить производительность карт AMD в некоторых сценариях.
Первый патч (http://lists.freedesktop.org/archives/dri-devel/2012-June/02...) обеспечивает проверку того, что указанное устройство реально поддерживает скорости PCI-E 2.0 (5.0GT). Этот патч явно запрещает проверку для корневых портов от VIA и Serverworks, поскольку это вызывает проблемы на данных чипсетах.
Второй патч (http://lists.freedesktop.org/archives/dri-devel/2012-June/02...) включает поддержку PCI-E 2.0 для семейства HD7000 "Southern Islands", впрочем этот код всего лишь использует код для HD6000 который в свою очередь совпадает с кодом для HD5000.
Третий патч (http://lists.freedesktop.org/archives/dri-devel/2012-June/02...) разрешает по умолчанию поддержку PCI-E 2.0 для видеокарт HD2000 и новее, в конфигурациях где PCI-E 2.0 поддерживается материнской платой.
При обнаружении ошибок можно форсировать режим PCI-E 1.0 путем передачи модулю параметра radeon.pcie_gen2=0. Предполагается, что данные патчи могут войти в ядро Linux 3.6.URL: http://www.phoronix.com/scan.php?page=news_item&px=MTEyNzM
Новость: http://www.opennet.me/opennews/art.shtml?num=34210
Наконец-то я узнал предназначение PCI Express 2.0 и 3.0.
как пользователь nvidia и radeon дома, и intel на работе, рад за самый лучший драйвер под GNU/Linux
Всё у тебя "самое лучшее", что было выбрано рандомом родителями в магазине. Показательный пример NVIDIA GTX 560 Ti, после приобретения которой NVIDIA вдруг перестали быть ненужным блобом.
Ну то, что в свободном драйвере отсутствует куча 3D-фич - это понятно. Но я, прочитав эту новость, подумал, что там, наверное, опечатка - имеется ввиду PCI-E 3.0. Неужто и впрямь - включение 2.0 было так сложно??? Просто ирония судьбы: на моей старой материнке с PCI-E 1.0 комп вообще не стартует с 5000-ой карточкой.Хотя, конечно, судя по тестам, преимущество ни то что 3.0, но даже и 2.0 на играх вообще не видно. Лишь при передаче данных через OpenCL, поддержка которого только зарождается.
Если вы купите пару нормальных карточек в Crossfire, а не 1 бюджетную, то увидите разницу.
То есть только для самых пришибленных игроманов?
> То есть только для самых пришибленных игроманов?Не обязательно. Вгрузка данных в память GPU будет быстрее. Насколько оно даст профит - вопрос второй. Может и так хватало. А может хватало не всегда. В зависимости от - и будет профит. С ростом разрешения мониторов, качества текстур и прочая - и требования растут.
> Не обязательно. Вгрузка данных в память GPU будет быстрее.бред, не будет она быстрее в кроссе
для каждого чипа - своя порция данных требуется, то есть данные дублируются
> бред, не будет она быстрее в кроссеЯ про PCI-E 2.0 вообще-то. Меня если честно вообще геймерско-задротские довольно ограниченно интересуют - на уровне "nexuiz бегает - ну и славненько". Мне вычисления на GPU куда как интереснее :)
> для каждого чипа - своя порция данных требуется, то есть данные дублируются
Я кстати припоминаю где-то виденный совет отключать нафиг кроссфайр для вычислений. Может как раз из подобных соображений - я так понимаю там идея в том чтобы распилить сцену на части и дать по части каждому из GPU. Для вычислений это разумеется не вариант, за отсутствием того что можно пилить на части по такому принципу. С пилением по другому принципу программы ориентированные на множество GPU и сами справляются :)
> Просто ирония судьбы: на моей старой материнке с PCI-E 1.0 комп вообще не стартует с 5000-ой карточкой.нонсенс
Если б! Ни писка - ничего.
Если нужны подробности - плата asus a8n-vm csm (NVIDIA GeForce 6150 + nForce 430), проц AMD Athlon 3000+. И последний бета-биос не помог.
А ирония, потому что оказалось, линуксу 1.0 как раз и было достаточно.
> Если нужны подробности - плата asus a8n-vm csm (NVIDIA GeForce 6150 +
> nForce 430), проц AMD Athlon 3000+. И последний бета-биос не помог.Странно. Может биос дурной? А если отключить встроенное видео?
p.s. народ, зачем вы покупаете нвидиевские чипсеты? Они глючные и дохнут как мухи. Вон у меня 2 экспоната лежат условно-бесплатные, как источник запчастей. У обоих откинул лапки^W шарики чипсет, ЧСХ для нвидии и их чипов.
> А ирония, потому что оказалось, линуксу 1.0 как раз и было достаточно.Ну вы явно влопались в баг аппаратной совместимости или кривой bios. Нормальный вариант хотя-бы посмотреть POST код чтобы понять где оно заткнулось. Но это чисто железячный трабль, при том - или у вас железо удивительно кривое/дефектное, или вы нашли какой-то весьма редкий баг в таком вот сочетании.
> Просто ирония судьбы: на моей старой материнке с PCI-E 1.0 комп вообще не стартует с 5000-ой карточкой.Никакой иронии - до сих пор пользуюсь старой (но хорошей) материнкой с PCI-E 1.0 и на данный момент с RadeOn HD 6850. По поводу старого PCE-E не комплексую, благо в большинстве случаев производительность всё равно не им ограничена...
> Хотя, конечно, судя по тестам, преимущество ни то что 3.0, но даже и 2.0 на играх вообще не видно. Лишь при передаче данных через OpenCL, поддержка которого только зарождается.Вы говорите неправду :) Или же тесты не смотрели вообще.
Два года назад, в играх в среднем падение производительности на одиночной Geforce 480 от pcie 2.0 x8 режима (эквивалентно pcie 1.0 x16) было порядка 8%: http://www.tomshardware.com/reviews/pcie-geforce-gtx-480-x16...,2696-9.html
Но это "в среднем", если посмотреть в деталях, то и больше 10% потерь встречалось.В более свежем тесте проверяли Radeon 7970 на pcie 3.0 в режиме x16, x8, x4, x2; x4 режим, соответственно, эквивалентен pcie 1.0 x16 - http://www.anandtech.com/show/5458/the-radeon-hd-7970-repris...
Как видите, даже в играх падение производительности достигает 20% по сравнению с x8 режимом (= pcie 2.0 x16).
Но это все одиночки, а вот в Crossfire все намного хуже. Особенно в бюджетном CF на, скажем, 1155 платформе - когда карты и так работают в x8 каждая, а если тут еще и pcie 1.0 режим.. бррр.. Тут и двухкратное падение производительности можно получить.
В тестах проблема - какие брать в учёт. Страничка, к сожалению, не доступна для свободного просмотра, но heise - с немецкой педантичностью тестирует:
https://www.heise.de/artikel-archiv/ct/2012/8/149Здесь http://en.expreview.com/2012/01/18/pci-e-3-0-vs-pci-e-2-0-te..., например, сказано: That’s to say, half of PCI-E 2.0 bandwidth could satisfy current graphics’ needs.
Если брать материнку за 250-300 евро + 2 карточки по 500 евро + виндовс, то, может, эффект и будет больше предела погрешности.
> Как видите, даже в играх падение производительности достигает 20% по сравнению с
> x8 режимом (= pcie 2.0 x16).//благодарю за приведенные тесты
не могу согласиться, только в Dirt отрыв сильный, в остальном разница между x4 и x16 не столь существенна
> не могу согласиться, только в Dirt отрыв сильный, в остальном разница между
> x4 и x16 не столь существеннаДа обычно должно бы хватать PCI-E 1.0 x16 для всех кроме самых требовательных геймеров. Ну вот с ростом разрешений моников данных становится больше, факт.
> Ну вот с ростом разрешений моников данных становится больше, факт.разрешение экрана и объем передаваемых по шине pci-e данных никак не связаны, если что
не путайте энтузиастов и людей, которые из видеокарты нижнего сегмента хотят получить представителя верхнего
> Лишь при передаче данных через OpenCLЭээ от задачи зависит, знаете ли. Вон биткоиновые майнеры или крякеры хешей вообще PCI-E x1 :) довольны. Они много считают и лишь изредка кидают результат в сторону CPU. По поводу чего народ втыкает 4-6 видеокарт в одну мамку.
А отдельные маньяки нарыв PCI-E backplane где-то потом истошно чертыхаются что закрытые дрова более 8 видях в системе не понимают :D
Шел 2012 год. Линуксоиды наконец осилили PCI-E 2.0
Скажите им кто-нибудь, что уже 3.0 на дворе.
> Шел 2012 год. Линуксоиды наконец осилили PCI-E 2.0
> Скажите им кто-нибудь, что уже 3.0 на дворе.уходи толстый
2.0 то не шибко нужен, не то чтобы 3.0 (да, в играх под вынь)
>уходи толстый
>2.0 то не шибко нужен, не то чтобы 3.0 (да, в играх под вынь)Я вам дам подсказку: OpenCL
А вы потом догадайтесь, почему сказали очевидную тупость
> Я вам дам подсказку: OpenCL
> А вы потом догадайтесь, почему сказали очевидную тупостьмысль разверните, от наличия opencl не появляется необходимости гонять постоянно данные по шине
не сможете аргументированно развернуть - то тупостью будет ваше сообщение
>от наличия opencl не появляется необходимости гонять постоянно данные по шинеЛишь для задач, того не требующих (либо не особо чувствительных), ведь и наличие 2-й передачи в авто вас тоже не принуждает ездить быстрее 20км/ч если вы не хотите
- ваш K.O.
>>от наличия opencl не появляется необходимости гонять постоянно данные по шине
> Лишь для задач, того не требующих (либо не особо чувствительных), ведь и
> наличие 2-й передачи в авто вас тоже не принуждает ездить быстрее
> 20км/ч если вы не хотите
> - ваш K.O.ну так вперёд - приводите конкретные примеры с opencl где требуется широкая шина
необходимости то как не было так и нет
В сети достаточно обзоров, учитесь пользоваться поиском: http://dpk.itc.ua/content/35308>необходимости то как не было так и нет
Ага, "нинужно" (c) :-D
> В сети достаточно обзоров, учитесь пользоваться поиском: http://dpk.itc.ua/content/35308
>>необходимости то как не было так и нет
> Ага, "нинужно" (c) :-Dпонимаю, opencl benchmark каждый пользуется для получения каких-то циферок на экране
тест просмотрел, потому и говорю - нет необходимости чтобы переживать даже из-за его отсутствия
Ты, конечно, будешь в глубоком шоке, но даже _нвидия под виндой_ обработку части своих аппаратных фич перекидывает драйвером на процессор, а-ля меса софтвер рендеринг. Только об этом многие не то что не знают, но даже не подозревают - исходники закрыты и догадаться можно только имея большой опыт работы с кучей видеокарт. так что не надо свою винду идеализировать, как и нвидию, последнее - совет всем.
есть такое, посему для гефорсов требуется мощный процессор
>как и нвидию, последнее - совет всем.задолбал уже местный амдешный шовинизм. гнилой холивар всё это...
Где ты увидел расхваливанием АМД? Мне вообще Интелы нравятся.
> задолбал уже местный амдешный шовинизм. гнилой холивар всё это...Это не "гнилой шовинизм". Просто я мониторю развитие драйверов амд и интель. Потому что у меня есть это железо и мне оно актуально, я гоняю свежую версию всего этого и мне интересно "а что меня будет ждать завтра?". Правда интеграт от интела хилый и для своей дохлоты и так хорошо работает, а фокус развития сместился на всякие там Ivy Bridge которых у меня все-равно нет. Так что я мониторю в основном AMD и совсем немного - интель.
Вот и пописываю новости иногда. А нвидии у меня нет и не будет. Ибо вендор со скотской политикой блобостроения. Ну и новости о таковой конторе пишите сами, если вам это надо.
Правда простой феномен "пиара"? Да, амд мне не платит ни цента. И опеннет - тоже. Мне и так хорошо, в общем то :)
я не о статье, они разные нужны. как и железо.
оборудование надо трезво сравнивать, и выбирать кому что хочется, а не пропагандировать.
цитата:
>так что не надо свою винду идеализировать, как и нвидию, последнее - совет всем.винда мне по барабану, а с нвидиа 15 лет.
как будто некрософт сам пилит дровишки на видеокарты))
Не осилят.
> как будто некрософт сам пилит дровишки на видеокарты))Там такие же дрова как и проприетарные под линь: нвидия и амд их из одной порции сорца билдуют. Только платформозависимая обвязка разная.
Враньё это, fglrx долгие годы был абсолютно другой кодовой базой, потом было заявление что Catalyst будет стремиться в все более общему куску, потом громко хвастались что OpenGL часть полностью переделана и более менее общая. Все остальное как былоразным так и осталось. Бета версии выходят только для венды, для линукса всего 1-2 раза за всю историю. Очевидно, что различий там вагон до сих пор и требует больших усилий ваыпускать бинарные пакеты одновременно.
> Враньё это, fglrx долгие годы был абсолютно другой кодовой базой,Да мне похрену что там было 100500 лет назад. Просто посмотрите сами хексэдитором в кишки каталиста и потом попробуйте осмыслить увиденное. Намекаю: там и в той и в другой системе влинковано 100500 одинаковых библиотек, которые и формируют логику работы с картой - некий костяк абстрактно поддерживающий "амдшные видеокарты вообще". Без какой-то привязки к ОС. А то что там некий слой обвязки адаптирующий вот эти две тонны нейтральных либов к неровносотям рельефа конкретной ОС - второй вопрос.
Детали выпуска релизов каталиста меня волнуют крайне слабо. Если честно - я планирую в скором времени вообще забыть про это отвратное блобье. Потому что уже сегодня есть и VDPAU :D силами вычислительных шейдеров (да, VDPAU - на амд и только в линуксе, лол) и opencl почти готов. А иных поводов юзать это кривое блобье я и не вижу честно говоря :)
> VDPAU силами вычислительных шейдерова можно подробнее про это - силами r300 от ати можно ли заюзать ? и что для этого требуется (хорошо бы под бубунту) ?
Кому интересно они или не они. Главное в винде все работает, а в линуксе нет
> Кому интересно они или не они. Главное в винде все работает, а в линуксе нетМне (автору новости) вообще не интересно что там в винде - я ее не рассматриваю как primary десктоп для себя любимого по ряду причин и неустранимых дебилизмов, которые перевешивают все остальное с диким отрывом. По этому поводу я пишу новости про AMD и Linux. Доступно?
А скорость-то написания открытых дров на радеоны заметно возросла.>>radeon.pcie_gen2=0
radeon.pcie_gen=1 (0,1,2 - не судьба ? )
> radeon.pcie_gen=1 (0,1,2 - не судьба ? )Постойте! Вы не правы! Мы ж на С всегда с 0 считаем. ;)
> Постойте! Вы не правы! Мы ж на С всегда с 0 считаем. ;)PCI-E версии 0? Это что? Шина PCI чтоли? А может ISA? :)
булевой тип 0 - false; 1 - trueLoL