1.4, J.L.unregistred (?), 23:03, 14/02/2015 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
есть ли знатоки ноутов со встроенной+дискретной графикой ?
дискретка R9 m290X
под ubuntu 14.10+oibaf/graphics-drivers на DRI_PRIME=1 glxgears получаю чёрное окно вместо шестерёнок, и так похже со всеми программами с опенгл
есть подзрение что я чего-то не доустановил или не настроил
xrandr --listproviders
Providers: number : 3
Provider 0: id: 0x7e cap: 0x9, Source Output, Sink Offload crtcs: 4 outputs: 4 associated providers: 2 name:radeon
Provider 1: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6 outputs: 1 associated providers: 2 name:radeon
Provider 2: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6 outputs: 1 associated providers: 2 name:radeon
randr --setprovideroffloadsink 0x46 0x7e
(без неё так же чёрное окно)
есть ли мануальчик с перечислением всего что нужно чтоб дискретка работала со встроенной ?
| |
|
|
3.8, J.L.unregistred (?), 01:00, 15/02/2015 [^] [^^] [^^^] [ответить]
| –1 +/– |
> А в glxinfo что?
DRI_PRIME=0 glxinfo |grep -i "renderer string"
OpenGL renderer string: Gallium 0.4 on AMD ARUBA
DRI_PRIME=1 glxinfo |grep -i "renderer string"
OpenGL renderer string: Gallium 0.4 on AMD PITCAIRN
ошибок нет, версии выглядят нормально
glxgears точно так-же не выдаёт ошибок, просто внутри самого окна чёрное (игрушки на дх через вайн - тоже чёрные)
| |
|
4.10, J.L.unregistred (?), 01:16, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
у меня радеон/радеон
00:01.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Richland [Radeon HD 8650G] [1002:990b]
r600
01:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Neptune XT [Radeon HD 8970M] [1002:6801] (rev ff)
radeonsi
| |
|
|
2.6, MPEG LA (ok), 00:36, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
1. LIBGL_DRI3_DISABLE=1
2. попробуй без компиза, он паскудит иногда
3. на крайняк radeon.runpm=0 ядру. ноут шумит от этого
у меня на HD8730M c 3.18.5-031805-lowlatency (от vivid'а) только последнее и помогает
| |
|
|
4.14, Аноним (-), 03:11, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
> [radeon]] *ERROR* radeon: ring 0 test failed (scratch(0x850C)=0xCAFEDEAD)
> kern :err : [Sun Feb 15 00:57:21 2015] [drm:si_resume
> [radeon]] *ERROR* si startup failed on resume
GPU не заработал. Это достаточно серьезные грабли - "ring N test failed" гарантирует что будут проблемы, как правило достаточно фатальные. И недавно что-то связанное с этим чинили в свежих ядрах. Попробуйте 3.19 релизный, если с ним аналогично то амдшникам баг про это стоит написать.
| |
|
|
6.35, Аноним (-), 14:29, 16/02/2015 [^] [^^] [^^^] [ответить]
| +2 +/– |
> кому и как написать ? в ядро ?
По логике вещей - да, ядру. Насколько я понимаю, не удалась инициализация GPU после выхода из спячки и это проблема так или иначе со стороны ядра. При том где-то в 3.19-3.20 что-то по части мобильных GPU как раз чинили, но я не очень следил, за отсутствием у меня таковых.
В принципе можно и на фридесктоп, там разработчики приывкшие к тому что половина репортов по части ядра. Т.к. далеко не всегда понятно что за ... . А конкретно в этом случае - не получилась инициализация GPU поле спячки, насколько я понимаю. Крэш юзермодового софта - потому что GPU в этот момент не работает и попытки с ним поработать обречены на провал. Такая реакция на ошибки тоже в принципе баг...
> зы: это грабли с невозможностью повторно включить до ребута, в инете один
> парень предполагает что из-за ошибки в таблицах acpi ноута msi gx70/gx60
Вот чего не знаю того не знаю. По логу вижу что GPU не заработал как надо, завалился тест ring - после этого работать нормально не будет. Даже если это баг конкретной железки, со стороны амдшников будет логично как минимум попытаться его заворкэраундить. Кто-то где-то должен quirk влепить значит.
> r600 продолжает работать работать и работать, несмотря на надпись [drm:r600_ring_test
> [radeon]] *ERROR*....
На самом деле если ring test не прошел, есть шанс получить если не полный отвал графики то как минимум весьма некорректную работу и кучу глюков. Сам факт наличия таких логов - индикатор больших граблей на низком уровне. После чего странно ожидать какую либо корректную работу. Отвал теста ring'ов - считается чем-то типа фатального сбоя инициализации. Таких сообщений по любому быть не должно, с ними странно на глюки жаловаться, т.к. это достаточно фатальные грабли.
| |
|
|
4.17, MPEG LA (ok), 07:48, 15/02/2015 [^] [^^] [^^^] [ответить]
| –3 +/– |
я-то думал у меня проблемы с графическим стеком...
вот поэтому надо брать оборудование с линуксом из коробки - хоть проблемы и будут, но они решаемы, по крайней мере
| |
|
5.19, J.L.unregistred (?), 10:03, 15/02/2015 [^] [^^] [^^^] [ответить]
| –1 +/– |
> я-то думал у меня проблемы с графическим стеком...
> вот поэтому надо брать оборудование с линуксом из коробки - хоть проблемы
> и будут, но они решаемы, по крайней мере
поэтому 1) брались видео амд 2) судя по инету сама такая видеокарта у людей работает уже полгода 3) эти грабли похоже грабли определённой модели ноута, тут да, не смог выбрать лучший и чтоб вместо доса давали линукс из коробки
| |
|
6.21, ананим.orig (?), 12:49, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
Не факт что таже видюха будет работать на конкретной модели ноута, даже если дрова на 100%.
Даже с блобами и невидией. Куча примеров.
Мало что там ваш вендор накрутил.
Модель ноута представьте. (Утилита dmidecode вам в помощь. Если нет, доустановите. В репах всех дистров есть)
Второе. У всех дистров есть хавтухи в вики (что работает, что нет) практически на любую модель. Если в вашем дистре нет, то и от другого дистра вики подойдёт (хорошие хавту у генты, арча).
Например для моей модели MacBook pro 11,3 отлично помогла https://wiki.archlinux.org/index.php/MacBookPro11,x
| |
|
|
|
|
2.20, anonymous (??), 11:10, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
> Provider 0: id: 0x7e cap: 0x9, Source Output, Sink Offload crtcs: 4
> outputs: 4 associated providers: 2 name:radeon
> Provider 1: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6
> outputs: 1 associated providers: 2 name:radeon
> Provider 2: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6
> outputs: 1 associated providers: 2 name:radeon
> randr --setprovideroffloadsink 0x46 0x7e
> (без неё так же чёрное окно)
> есть ли мануальчик с перечислением всего что нужно чтоб дискретка работала со
> встроенной ?
Попробуйте собрать последний 3.20-rc, с последней фирмварью, вкомпиленной в ядро. И сам radeonsi тоже вкомпиленный в ядро. Шаманства в userspace тут вряд ли помогут, надо читать dmesg.
| |
2.24, nrndda (ok), 14:04, 15/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
Знамая проблема. Нужно врубить композиттинг либо использовать что-то типа xcompmgr. Вот тут эта проблема упомянута: https://wiki.archlinux.org/index.php/PRIME
Ещё radeon не держит dri3. Отсюда идёт проседание производительности и глюки, так как всё работает через прослойку к dri2.
| |
|
3.41, Аноним (-), 16:16, 16/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
> Знамая проблема. Нужно врубить композиттинг либо использовать что-то типа xcompmgr.
Не поможет все это при ring test failed при выходе из спячки. Угадайте почему.
| |
|
|
1.25, iZEN (ok), 16:14, 15/02/2015 [ответить] [﹢﹢﹢] [ · · · ]
| –7 +/– |
Вот и славно. Поздравляю User294. Теперь должно быть всё хорошо с его RadeonSI на R9 270, и она будет быстрее GeForce GTX 750 не на 20%, а на все 146%! А то обидно, должно быть: карточка за 12 штук, а показывает результат такой же, как карта за 8 штук (GTX 750 Ti) и при этом греется в три раза больше.
| |
|
|
3.33, Аноним (-), 00:11, 16/02/2015 [^] [^^] [^^^] [ответить]
| +1 +/– |
> 750Ti вообще-то 5 тысяч стоит. Стоила.
Ну а R9 270 стоил 6 тыс. Но - именно стоил. Сейчас ясен пень уже десятку.
| |
|
2.28, Crazy Alex (ok), 17:28, 15/02/2015 [^] [^^] [^^^] [ответить]
| +3 +/– |
Я, конечно, понимаю, что тебе лишь бы AMD и открытые драйверы лишний раз обругать, но какой хрен разницы как оно греется в десктопе? Даже по энергопотреблению некритично если, конечно, круглые сутки в игры не играть.
Впрочем, греется ли - это вообще отдельный вопрос, но это уже к 294-му.
| |
|
3.32, Аноним (-), 00:10, 16/02/2015 [^] [^^] [^^^] [ответить]
| +1 +/– |
> Впрочем, греется ли - это вообще отдельный вопрос, но это уже к 294-му.
Да, блин, греется. При 25С за бортом, GPU при показе десктопа прогревается аж до 31C. При том вентили совсем на минимуме и их не слышно. А на максимуме числодробилка довольно убедительная. ИМХО АМД не зря красовались своим управлением питанием. Хорошо работает.
Нет, бывают случаи с кривыми таблицами в vbios и катаГлист за годы и годы оброс quirks и воркэраундами на все вкусы. Вот тут вот случай неработы реклока с некоторыми видеокартами. А бывали случаи дурного дефолтного профайла вентиля в VBIOS, когда тот воет даже если видяха холодная.
| |
|
2.30, Аноним (-), 23:57, 15/02/2015 [^] [^^] [^^^] [ответить]
| +1 +/– |
> Вот и славно. Поздравляю User294. Теперь должно быть всё хорошо с его
> RadeonSI на R9 270,
Эх, изя, даже в поздравлении у тебя лажа. Это про R9 290(X). Которые конечно крутые вундервафли, но дорогие и прожорливые. Это топовые видяхи от амд и у меня их нет :)
Хинт: 270 != 290 :). У 290 даже в тестах фороникса были замечены странности, когда они почему-то проигрывали менее мощным картам на ровном месте. Как обычно нашлись парочка дотошныю юзерей которые раскопали в чем грабли.
Собственно, разработчикам иногда требуется "помощь зала". OEMов и вариантов конфиг - много, все варианты того что сделали OEM предусмотреть не так то просто. Catalyst то за годы уже прокостылили, но т.к. никто никогда не документировал всякие quirks и воркэраунды - ну ты понял! Вам в фряхе все это еще предстоит узнать.
> и она будет быстрее GeForce GTX 750 не на 20%, а на все 146%!
А я так смотрю изену запомнилось что открытый драйвер таки обштопал блобик :). Хоть и на несколько более дорогой видяхе.
> А то обидно, должно быть: карточка за 12 штук,
Как я уже сказал, мне она обошлась в 6К, потому что вовремя подсуетился. Да и вотпрямща я их за десятку вижу.
> карта за 8 штук (GTX 750 Ti) и при этом греется
> в три раза больше.
В общем случае это не так.
| |
|
|
4.39, Аноним (-), 16:10, 16/02/2015 [^] [^^] [^^^] [ответить]
| +2 +/– |
> Ну а как ещё ей рассеять 150 Вт выделяемого? В астрал?
Понимаешь, Изя, чтобы он реально выдувал эти 150 ваттов - это надо ну разве что майнить или хэши крякать круглосуточно. При подобных затеях производительность обычно приоритетнее, а нвижия в таких развлечениях вообще более-менее в пролете, архитектурно. Ну ок, если постараться - можно в жаркую погоду догнать до +70 (что далеко от критической температуры чипа) и услышать призвук системы охлаждения.
При показе десктопа оно кушает кардинально меньше и теплее окружающей среды градусов на пять. А в играх - очень зависит от сцен. У сцен, понимаешь ли, переменная сложность. И если кадр уже посчитан - GPU нет причин всегда лезть на максимум, т.к. и так уже успели посчитать.
> Референсная NVIDIA GTX 750 Ti потребляет максимум 60 Вт (от шины PCI
> Express, дополнительного коннектора питания нет).
Ну, круто, и чего? С инженерной точки зрения мысль пропихать лишние 5А тока через мамку и и без того нагруженный ATX-24 разъем совсем не кажется мне достижением инженерной мысли. А судя по плате (где место под разъем таки угадывается) это называется "мы тут немного сэкономили". А если необдуманно воткнуть парочку таких - ATX разъем может вообще стечь в сапоги. Тем паче что оно все-равно двухслотовая штука с приличной турбиной. Конечно 60 ваттов не 150, но это уже довольно убедительная мощща, что ни говори.
> На закуску: http://www.overclockers.ru/lab/60151_5
> /Testirovanie_videokart_NVIDIA_GeForce_GTX_750_Ti_i_GeForce_GTX_750_v_igrah.html
Ну, понимаешь, во первых меня наполовниу интересуют вычисления. А во вторых - нафиг мне ссылка на какие-то виндовозные игры? Можно подумать что я собираюсь ставить себе винду и играть в все это...
| |
|
3.37, Аноним (-), 15:37, 16/02/2015 [^] [^^] [^^^] [ответить]
| +1 +/– |
Он просто бесится что под его фрибздю нет драйверов кроме высера от nvidia. Молодой видимо, концентраты и добавки в этом высере плохо перевариваются организмом что влечет вот такую реакцию на слова amd radeon.
| |
|
|
1.29, Аноним (-), 22:54, 15/02/2015 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
>как будто забыв переключить частоты на максимальные.
Мде, сколько лет прошло, а воз и нынче там. В поганой винде я могу ограничить частоты и питание видеокарты, отключить вентелятор (почему то ограничение 20% совсем ее отключает, сраный каталист) и спокойно без какого-либо нагрева видеокарты пользоваться восьмерочкой, браузером открывая тяжелые сайты и играть в какую-нибудь darkest dungeon.
Когда такое станет доступно в линуксах? Запуск firefox с аппаратным ускорением в каком-нибудь гномощеле илм кде = максимальные частоты и обороты вентелятора видеокарты. Это была последняя капля когда я свалил в поганые вантуза с линуксами в виртуалках.
| |
|
2.31, Аноним (-), 00:05, 16/02/2015 [^] [^^] [^^^] [ответить]
| +2 +/– |
> Мде, сколько лет прошло, а воз и нынче там. В поганой
> винде я могу ограничить частоты и питание видеокарты,
Как ни странно, это можно и в линухе. Как минимум кантоваться между минимальными профайлами и максимальными с открытым драйвером вручную можно.
Но пойнт этого малопонятен: у АМД крутейшая схема реклока, частота поднимается только если обсчет сцены этого реально требует. Поэтому нынче видяшки холодные при небольшой нагрузке, а если нагрузка требует - они превращаются в эпичные числодробилки. И вручную дрюкаться с управлением частотой - каменный век, чтоли.
> отключить вентелятор (почему то ограничение 20% совсем ее отключает,
> срaный каталист) и спокойно без какого-либо нагрева видеокарты
> пользоваться восьмерочкой, браузером открывая тяжелые
> сайты и играть в какую-нибудь darkest dungeon.
Да вообще-то нынче так и в линухе. С ядра 3.13 примерно (кроме случаев когда случился какой-то баг). А теперь вот и управление вентилем в 3.20 для GCNов сделали.
> в каком-нибудь гномощеле илм кде = максимальные частоты и обороты вентелятора
> видеокарты.
Скорее всего дурной профиль в VBIOS. КатаГлист оверрайдит управление вентилем и сам им рулит, потому что вендорье как оказалось пишет в VBIOS черти-что. Открытый драйвер для новых GPU тоже так уже научили.
> Это была последняя капля когда я свалил в поганые вантуза
> с линуксами в виртуалках.
Не очень понятно кому от этого будет хуже кроме вас.
| |
2.43, count0krsk (ok), 13:52, 17/02/2015 [^] [^^] [^^^] [ответить]
| –1 +/– |
Дрюк, поставть диоды в разрез питания вентилятора, и будет он медленнее во столько раз, сколько надо.
Не знаешь как это сделать - купи регулятор оборотов за 300р и выпотроши.
Если десктоп - так вообще всё просто. +12, +7, +5 - выбирай не хочу напряжения.
Линукс для рукастых чуваков, которые если надо и с паяльником подлезут, и биос отредактированный прошьют в видюху.
| |
|
3.45, Аноним (-), 17:09, 23/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
> Дрюк, поставть диоды в разрез питания вентилятора, и будет он медленнее во
> столько раз, сколько надо.
Учитывая что на типичном кремниевом диоде садится 0.6V, гирлянда диодов обещает быть большой. К тому же куда ее в видеокарте девать?
> Линукс для рукастых чуваков, которые если надо и с паяльником подлезут,
Вообще-то цель - поддерживать все фичи железа. И это более-менее получается. А кто хочет на более старых видеокартах - идем вот сюда: https://bugs.freedesktop.org/show_bug.cgi?id=87457 и учимся трассировать IO карты и каталиста. Ну и трассируем управление вентилем и городим патч. Ну или ждем пока это сделают другие.
Caveat: у сильно старых видях управление может заметно отличаться.
| |
|
|
|
2.44, count0krsk (ok), 13:57, 17/02/2015 [^] [^^] [^^^] [ответить]
| –1 +/– |
> Наконец-то поиграю в Far Cry 4 на Линуксе.
Я в 3й-то ещё не играл )) Надоело тупо стрелять во всё, что движется давно. Та же MDK 2 гораздо интереснее.
Эх, где взять хорошие игрушки с сюжетом, как Арканум, PlaneScape, и прочий Baldur's Gate...
Героев 3х решил попроходить, как-то пропустил их в своё время.
| |
|
3.46, Аноним (-), 17:09, 23/02/2015 [^] [^^] [^^^] [ответить]
| +/– |
> что движется давно. Та же MDK 2 гораздо интереснее.
В линуксе есть более интересная игрушка - MDK3 называется. Codename "пи...ц соседской вафле!"
| |
|
|
|