Компания NVIDIA представила (https://devtalk.nvidia.com/default/topic/632611/) новую стабильную ветку проприетарного драйвера NVIDIA 331.20, относящуюся к веткам с длительным сроком поддержки. Драйвер доступен для Linux, FreeBSD и Solaris.
Среди добавленных улучшений:- Интеграция поддержки программного интерфейса EGL (http://en.wikipedia.org/wiki/EGL_%28API%29), используемого для организации доступа оконных систем к API рендеринга, таким как OpenGL ES, и выступающего в роли альтернативы интерфеса GLX. В настоящем выпуске поддержка EGL имеет ряд ограничений: EGL доступен для 32-разрядных платформ (из-за проблем с типом EGLint), может работать только с бэкендом X11 и обеспечивает доступ к OpenGL ES 1.1, 2.0 и 3.0 (OpenGL пока не поддерживается). Так как EGL используется для обращения к функциям рендеринга в Wayland и Mir, в скором времени можно ждать обеспечения поддержки работы данных проектов поверх проприетарного драйвера NVIDIA.
- Поддержка новых моделей GPU: GeForce GTX 760 Ti OEM, GT 740A
GT 745A,
GT 755M,
GTX 645,
705A и GT 730A; Quadro K6000, K510M, K610M, K1100M, K2100M, K3100M, K4100M, K5100M;
- Поддержка одновременной загрузки в ядро Linux разных модулей NVIDIA, что позволяет при использовании нескольких видеокарт назначить разным GPU разные модули ядра. С практической стороны использование разных модулей позволяет избавиться от накладных расходов, связанных с программной координацией доступа к разным GPU;
- Новая опция AllowEmptyInitialConfiguration, которая позволяет запустить X-сервер даже в ситуации, когда на этапе загрузки не определены подключенные к NVIDIA GPU устройства отображения. Для включения опции можно использовать команду "sudo nvidia-xconfig --allow-empty-initial-configuration";
- В инсталляторе nvidia-installer обеспечена защита от рекурсивного поиска в директориях "build" и "source" при поиске конфликтующих модулей ядра в иерархии /lib/modules;
- Поддержка использования кэша системой памяти для увеличения производительности некоторых операций рендеринга, которые могут привести к использованию программного рендеринга. Для определения размера кэша следует использовать опцию "SoftwareRenderCacheSize";
- Поддержка вывода данных о скорости вращения кулера через nvidia-settings (например, "nvidia-settings --query=[fan:0]/GPUCurrentFanSpeedRPM") и NV-CONTROL API.
- В NV-CONTROL API добавлен атрибут NV_CTRL_BACKLIGHT_BRIGHTNESS для управления фоновой подсветкой;
- В состав включен новый модуль ядра nvidia-uvm.ko, обеспечивающий поддержку в Linux технологии NVIDIA Unified Memory, которая будет представлена в следующем выпуске CUDA.- Поддержка библиотеки для захвата содержимого фреймбуфера с использованием OpenGL (NvFBCOpenGL - NVIDIA Framebuffer Capture). Библиотека опционально поддерживает кодирование записываемого содержимого и отличается высокой производительностью и низкими задержками. Реализованные API NvFBC и NvIFR являются закрытыми и предоставляются только партнёрам, развивающим продукты для удалённой работы с графикой;
- Улучшена совместимость со свежими выпусками ядра Linux.
URL: https://devtalk.nvidia.com/default/topic/632611/
Новость: http://www.opennet.me/opennews/art.shtml?num=38354
> Улучшена совместимость со свежими выпусками ядра Linux.Что, не прошло и 3 месяцев как до корпоративной гидры начало доползать? :)
Драйвер NVIDIA всегда поддерживает новые ядра Linux и X-Server'ы начиная с релиз-кандидатов. В новости про одну из версий драйвера 270.xx даже была интересность: драйвер поддерживал X-Server 1.10 RC, а в релизе поменяли ABI, и поэтому готовый код для 1.10 RC пришлось менять. И так всегда было, я не помню исключений. Только в настоящее время не удалось добавить поддержку ядра Linux 3.11, и в NVIDIA объяснили почему.Кстати. На PHORONIX за несколько дней перед новостью от NVIDIA появилась новость от ати. О том что они поддерживают 3.12 git. Я тогда вот такой коммент написал: http://www.linux.org.ru/forum/talks/9704391?cid=9705284
> AMD как всегда. У них не работает многое из того, что есть у NVIDIA, причём из нужного и важного. Но если в NVIDIA что-то не работает - AMD бросает все силы, чтобы продемонстрировать, что у них работает!
> Пример - Optimus. Не работал. В AMD сразу же сделали поддержку PowerXPress в Linux. Правда с перезагрузкой X-сервера для переключения - зато прямо из Catalyst. http://s60.radikal.ru/i168/1211/39/904aa53a29b2.jpg
> NVIDIA добавляет новый OpenGL сразу после появления, новые ядра Linux и новые X-Server на этапе релиз-кандидатов. Например в релизе 270.18 была поддержка X-Server 1.10 RC2. К релизу 1.10 ABI поменяли, поэтому в 270.30 пришлось менять код поддержки X-Server 1.10.
> И тут до AMD дошло что можно добавлять не релиз-кандидаты Kernel и xorg, а версии из GIT! И тогда как бы тоже уделывать NVIDIA!
А нормальной поддержки Optimus я так и не дождусь.
Чем bumblebeed не угодил? Всё работает.
Нет не все, у меня HDMI не работает через карту intel. А запускать иксы через bumblebee - это танцы с бубном
а причём тут nvidia?
HDMI и при полном optimus-е не заработает.У знакомого чувака и на винде не пашет.
Так и должно быть, потому-что карта нвидии в этих ноутах в полном бэкенде, и
занимается только рендерингом, пихая вывод в буфер интелу, а та уже что-то перемалывает
и пихает результат в интерфейсы.Иксы мне удалось запустить на нвидии без bumblebee.
Удалением bbswitch, ковырянием xorg.conf, перзаписыванием существующего glx.so на
нвидиевский.Только запуск был возможен из level 3 в inittab командой startx.
nvidia-xconfig показывала работу драйвера, отваливались некоторые апплеты в gnome и
окошках программ и не работал opengl, выдавая ошибку исполнения функции XCreateColormap(dp,root,visual->visual,AllocNone);
Да оно сейчас при желании работает. На интеловский драйвер уже в апстриме наложен патчик, добавляющий виртуальный монитор. Содержимое этого виртуального монитора через screenclone гонится на подключенный к нвидии выход. Только при этом ускорение видео не работает через карточку, что печально.
>гонится на подключенный к нвидии выходв технологии оптимус у нвидии нет никаких физических выводов.
идея такая — либо интел и генерит картинку, и выводит, либо генерит нвидиа в буфер интела, а интел только выводит.
Оверклокинг большой. Да и к нвидии не имеет отношения.Зыж
Кстати, метро на амд пошло влёт. На нвидии даже не стартует. Может из-за этого оптимуса, чтоб они им подавились.
>Может из-за этого оптимуса, чтоб они им подавились.Из-за Bumblebee - вот и ответ на "Чем bumblebeed не угодил?" - вовсе не всё так с ним гладко, некоторые игры не запускаются, а будет официальная поддержка Optimus от NVidia то тогда всё обязано будет работать ибо от производителя.
>>Может из-за этого оптимуса, чтоб они им подавились.
>Из-за BumblebeeА может и нет.
Проверить то нельзя. Оптимус то только кипятилником и работает.
Bumblebee сделан через virtualgl - это не самый лучший способ, теряется производительность.
Примусом почти нативно работает.
> А нормальной поддержки Optimus я так и не дождусь.Да, потом и поддержку Physx через GPU можно начать подождать
тем временем в лагере AMD прошло 7 месяцев спустя последнего выпуска.
> тем временем в лагере AMD прошло 7 месяцев спустя последнего выпуска.<fake>Они готовятся открыть все что есть и пилить OSS драйвер</fake>
>Они готовятся открыть все что есть и пилить OSS драйверЧто-то слабо верится, не надо выдавать желаемое за действительное.
Последнего стабильного релиза, а не выпуска. 13.11 бета 6 был 25 октября.
Там, вообще-то, все меньше внимания уделяется каталисту в пользу открытого. Что есть правильно, конечно.
С 3.12 ядром работает ужасно...при относительно большой графической нагрузке - иксы периодически виснут намертво
Щас придет павлинукс и скажет, что ты гoвно.
> Щас придет павлинукс и скажет, что ты гoвно.И вообще, ждем когда все фанатики нвидии наконец помогут уже своему соратнику. А то они умеют только обзываться и орать как все круто. А как до дела - так в кусты. А вот для открытых драйверов баги можно в официальный багтрекер писать по крайней мере, да и кого пнуть чтобы посмотрели - известно.
> А то они умеют только ...В данном случае это кривой конфиг ядра.
> В данном случае это кривой конфиг ядра.О, нвидия нам теперь будет еще и правильные опции сборки ядер диктовать?
>> В данном случае это кривой конфиг ядра.
> О, нвидия нам теперь будет еще и правильные опции сборки ядер диктовать?Проверь наличие мозга (и образования высшего)
> Проверь наличие мозга (и образования высшего)Detected. А ты конфиг ядра по телепатическим каналам угадываешь? Это по какой специальности так учат? :)
Наличие у себя высшего образования проверил, его нет.Что дальше?
Венду юзай, не трать время.
> Венду юзай, не трать время.Венду пусть специолизды с дипломом юзают.Чтоб вернуть кучу денег, что вбухали в вуз,
нужно возиться с наиболее распространёнными и обязательно платными прогами.
Вы хоть и павлинукс, но забыли что линукс для творчества, а не профильной занятости.
сам поймёт http://www.opennet.me/openforum/vsluhforumID3/92475.html#58
> сам поймёт http://www.opennet.me/openforum/vsluhforumID3/92475.html#58Знаешь, каркуш, красивые цифры в бенчах - это прекрасно. Но вот виснущая графика перевесит любой профит от FPSов. Если повисли иксы и работа факапнулась - при этом не так уж и важно какой там FPS в Unigine Heaven был...
Ну скажи ещё этот драйверок запустил под ядро 3.12
>> сам поймёт http://www.opennet.me/openforum/vsluhforumID3/92475.html#58
> Знаешь, каркуш, красивые цифры в бенчах - это прекрасно. Но вот виснущая
> графика перевесит любой профит от FPSов. Если повисли иксы и работа
> факапнулась - при этом не так уж и важно какой там
> FPS в Unigine Heaven был...Нипаверишь, за последние лет 10 не вспомню виснувших иксов, мож рукожопие?!
> Нипаверишь, за последние лет 10 не вспомню виснувших иксов, мож рукожопие?!или склероз
> Нипаверишь, за последние лет 10 не вспомню виснувших иксов, мож рукожопие?!Нипаверишь, в природе существует чуть более 1 конфигурации. И я сильно сомневаюсь что ты их перебрал вообше все. А то что ты перебрал 10 конфиг из 100500 квадриллионов возможных комбинаций - отлично, еще немного и ты полностью протестируешь драйвер во всех конфигах :).
Вся фигня в том, что у меня работает! Если не работает у других, виноваты только они,
если была бы ошибка, то не работало бы и у меня. Так как железо отличается, но у меня
работает, то виноваты опять же вы, ибо нех...я железо кривое/непроверенное/неизвестное
закупать.Я больше чем уверен, что все фанаты Оптимуса изучили документацию на все драйвера и ОС,
изучили БИОС на возможность выставления различной латентности на PCI-шину, или возможность её
программного изменения, проверили и узнали совместимость софта и железа до покупки! Правильно?!
Вы ведь все умные и грамотные!
> Так как железо отличается, но у меня работает, то виноваты опять же вы, ибо нех...я железо кривое/непроверенное/неизвестное закупать.И софт непроверенный/неизвестный павлинуксу запускать тоже не надо, да?
Надо запускать только сертифицированные нвидией и протестированные павлинуксом лично программы (да, хоть все три сразу), и на такой же древней карте, как у него. Шаг вправо, шаг влево - segfault.
А так с нашим любимым блобом всё работает идеально - ничего не падает, лол....> Я больше чем уверен, что все фанаты Оптимуса изучили документацию на все драйвера и ОС,
изучили БИОС на возможность выставления различной латентности на PCI-шину, или возможность её программного изменения
Изучение всей документации "на все драйвера и ОС", ковыряние в биос, и наличие растущего из нужного места напильника - это новые требования к пользователям карт нвидиа?
А фанаты любят говорить, что оно якобы just works в отличие от остальных - выходит, врут они всё... Спасибо, что хоть кто-то наконец-то правду рассказал.
Драйвер nouveau, Xorg 1.14.4, виснет регулярно на флеше (из-за драйвера nouveau).
раньше нареканий и проблем с драйверами не было, 319 и 325 работают отлично, но на 3.11 ядре. Открытые Nouveau на моей GeForce GTX 580 работают...никак...иксы виснут намертво через 1-3 минуты работы. Это к тому, что написал я это не для того что бы обосрать Nvidia :) на 3.12 ядре действительно драйвера реализованы очень криво
> :) на 3.12 ядре действительно драйвера реализованы очень кривоНу и замечательно, просто прекрасно - может пользователи хоть теперь начнут голосовать рублем.
Я всегда был фанатом нвидии, но теперь у меня сильное чувство злорадства, так им, сволочам и нужно !!
Я сам покупал gigabyte 650GTX, словил проблему неустранимого тиринга, написал на офф сайте о проблеме, причем там тема про это уже была создана, прочитав всю ветку увидел что теме более полугода и за все это время от разрабов не было ни одного ответа, вообще полное молчание.
Мой случай не самый страшный - люди покупали карточки за over 300 евро и на их проблему не реагировали более года.
К этому моменту проблема как вроде решена, сам не проверял. потому что сдал карточку в магазин, через 1,5 недели пользования.
Я желаю этим ускоглазым леприконам потери доверия от ВСЕХ пользователей линукс, чтобы ВСЕ пользователи линукса четко осозновали что если проблема проявится лично у них - рассчитывать на помощь от нвидии будет нельзя.
Нвидия делает не плохие чипы сама по себе, только пусть она свалит из линукса, плилит свои чипы под винду, под свою консоль, под другие консоли, только в линуксе ей делать нечего, потому что она делает видимость того что с ее карточками как бы все в порядке, вы покупаете суперновую железку за 15.000р, рассчитывая что и завтра все в порядке будет и через месяц, а через месяц бац - и проблема именно с вашей карточкой на год-полтора.
> пусть она свалит из линуксатебе не надо? не используй. а лучше сам свали из мерзкого линукса, так пошло запомоеного нвидией.
> тебе не надо? не используй. а лучше сам свали из мерзкого линукса,
> так пошло запомоеного нвидией.И другим не надо, просто они думаю что надо, просто ничего другого не пробовали. Не все, но таких большинство.
Я так думаю.
а ты у нас тут самый умный, стало быть, и поэтому решаешь за других, что им точно не надо и чего у них быть не должно.если вдруг не ясно: «дураки, не используйте» != «а отобрать у всех возможность использовать». «нвидия не нужна» — это первый случай. «нвидия, уходи» — это второй. за второе надо бить бамбуковой палкой по пяткам.
> если вдруг не ясно: «дураки, не используйте» != «а отобрать у всех
> возможность использовать». «нвидия не нужна» — это первый случай.
> «нвидия, уходи» — это второй. за второе надо бить бамбуковой палкой
> по пяткам.Да, я как заботливый папаша хочу запретить своим глупым детям лизать на улице в мороз металлические предметы.
Люди такие существа, что порой не знают чего хотят, и по этому решения нужно принимать ЗА них.
Потому что если они примут его сами - потом сами же сядут голой Ж на кактус.
У меня года два назад было все наоборот, АМД игнорила, а НВидиа официально прислала письмо с ссылкой на дрова на фитипи. А рассчитывать на поддержку только открытых дров нельзя, да и покупать железо 2-3 летней давности для этого не хочется, причем даже на этом старом железе половины плюшек не будет поддерживаться.
Когда слышу какая хорошая АМД у меня всплывает ассоциация, сколько им понадобилось времени запилить поддержку Гном3...
> Ну и замечательно, просто прекрасно - может пользователи хоть теперь начнут голосовать
> рублем.
> Я всегда был фанатом нвидии, но теперь у меня сильное чувство злорадства,
> так им, сволочам и нужно !!
> Я сам покупал gigabyte 650GTX, словил проблему неустранимого тиринга, написал на офф
> сайте о проблеме, причем там тема про это уже была создана,
> прочитав всю ветку увидел что теме более полугода и за все
> это время от разрабов не было ни одного ответа, вообще полное
> молчание.Едрить ты бестолочь.
спасибо, кстати — узнал про compton. на удивление приятно работает.
Слоупоки из NVidia в очередной раз не добавили поддержку Optimus, сколько можно тянуть кота за хвост?У них что соглашение что-ли с Microsoft о запрете поддержки Optimus в Linux?
Им же ничего не мешает, вон недавно в свободный Nouveau добавили отключение питания если карта не используется, а эти... просто слов нет.
>У них что соглашение что-ли с Microsoft о запрете поддержки Optimus в Linux?А также 3д-визион, отключение питания (которое даже полторы колеки реализовали),...
Зато 3 монитора программно ограничили — объяснили блин, чтоб паритет с ванузом был. Угу, паритет.Ещё одно и тоже железо по разным ценам продают. А драйвером возможности отрубают.
В общем гнилая конторка, гнилая.
> Зато 3 монитора программно ограничили — объяснили блин, чтоб паритет с ванузом
> был. Угу, паритет.Ну а фигле ты хотел? Не комильфо, знаешь ли, что в пингвине можно больше чем в винде. А что ты от проприетариев хотел? :)
Да хрен с ним, с третьим монитором уже!
Питание бы хоть научились отрубать. Чтобы этот баласт, оптимус, батарею не жрал.
Вот пусть бы гринписавцы офис нвидиа штурмовали.
>Питание бы хоть научились отрубать. Чтобы этот баласт, оптимус, батарею не жрал.Питание можно отключить зайдя в BIOS и выбрав вариант видеорежима только с картой Intel - Integrated.
1. Это не отключает питание.
2. Это только если у вас 2-е отдельные видио-карты. (Которые характерны для системников, а не для ноутов. И где на это питание как правило нас рать)
А в случае оптимус у вас выводом занимается всегда только интегрированная карта.
А вот рэндерит картинку в буфер вывода либо igp, либо gpu. Именно это и назвали optimus.
И в этом случае такого пункта в биос нет, который всё равно питанием не рулит.
> У них что соглашение что-ли с Microsoft о запретеНе пали контору....
> Так как EGL используется для обращения к функциям рендеринга в Wayland и Mir, в скором времени можно ждать обеспечения поддержки работы данных проектов поверх проприетарного драйвера NVIDIA.Таки Wayland/Mir могут скоро взлететь.
> Так как EGL используется для обращения к функциям рендеринга в Wayland и Mir, в скором времени можно ждать обеспечения поддержки работы данных проектов поверх проприетарного драйвера NVIDIA.Вот это другое дело. Весьма рад.
> Поддержка библиотеки для захвата содержимого фреймбуфера
> Реализованные API NvFBC и NvIFR являются закрытыми и предоставляются только партнёрам, развивающим продукты для удалённой работы с графикой;Это я, почтальон Печкин! Принёс вам библиотеку для захвата содержимого фреймбуфера! Только я вам её не отдам!
а что ты хотел? Соси лапу, спо же не нужно и глючно.
> Это я, почтальон Печкин! Принёс вам библиотеку для захвата содержимого фреймбуфера! Только
> я вам её не отдам!если кто-то не сможет без этого жить, то отреверсит. только зачем?
>если кто-то не сможет без этого жить, то отреверсит. только зачем?затем, что наверняка какому-нибудь параноику будет интересно, что там у него NSA^Wnvidia из фреймбуффера захватывает и куда это кино отсылается, например :)
Чтоб драйверок Unified Memory собрался под 3.12
diff -ur a/nvidia_uvm_common.c b/nvidia_uvm_common.c
--- a/nvidia_uvm_common.c 2013-10-31 04:15:05.000000000 +0400
+++ b/nvidia_uvm_common.c 2013-11-07 00:20:35.000000000 +0400
@@ -324,5 +324,5 @@
module_init(uvm_init);
module_exit(uvm_exit);
-MODULE_LICENSE("MIT");
+MODULE_LICENSE("GPL");
MODULE_INFO(supported, "external");
diff -ur a/nvidia_uvm_linux.h b/nvidia_uvm_linux.h
--- a/nvidia_uvm_linux.h 2013-10-31 04:15:06.000000000 +0400
+++ b/nvidia_uvm_linux.h 2013-11-07 00:19:42.000000000 +0400
@@ -390,10 +390,9 @@
//
//
#if defined(NV_TASK_STRUCT_HAS_CRED)
-#define NV_CURRENT_EUID() \
- (((typeof(*current->cred) __force __kernel *)current->cred)->euid)
+#define NV_CURRENT_EUID() from_kuid(&init_user_ns, current->cred->euid)
#else
-#define NV_CURRENT_EUID() (current->euid)
+#define NV_CURRENT_EUID() KUIDT_INIT(current->euid) /* можно и без этого */
#endif
#if !defined(VM_FAULT_NOPAGE)Новый девайс, мажор 251.
nvidia_uvm: Loaded the UVM driver, major device number 251
Правда нахрен он нужен ещо никто не знает, но обещают няшки :)
Может ты и недостающие мониторы тогда запатчишь? :)
> Может ты и недостающие мониторы тогда запатчишь? :)Потерял монитор? :)
Денег не хватает
> -MODULE_LICENSE("MIT");
> +MODULE_LICENSE("GPL");Тебя посодють! А ты не воруй! (С)
>> -MODULE_LICENSE(«MIT»);
>> +MODULE_LICENSE(«GPL»);
> Тебя посодють! А ты не воруй! (С)поскольку двойную лицензию указать сложновато, MIT не запрещает положить поверх GPL, и GPL налагает больше ограничений, нежели MIT, то такая смена вполне нормальна. в исходниках и документации MIT никто не убирал.
C MITом вот такая хня:
FATAL: modpost: GPL-incompatible module nvidia-uvm.ko uses GPL-only symbol 'init_user_ns'Можно обойти вот так, нефеншуйно, но все равно Namespace не юзается.
diff -ur a/nvidia_uvm_linux.h b/nvidia_uvm_linux.h
--- a/nvidia_uvm_linux.h 2013-10-31 04:15:06.000000000 +0400
+++ b/nvidia_uvm_linux.h 2013-11-07 00:19:42.000000000 +0400
@@ -390,10 +390,9 @@
//
//
#if defined(NV_TASK_STRUCT_HAS_CRED)
-#define NV_CURRENT_EUID() from_kuid(&init_user_ns, current->cred->euid)
+#define NV_CURRENT_EUID() from_kuid(NULL, current->cred->euid)
#else
#define NV_CURRENT_EUID() (current->euid)
#endif
Спасибо, проверим. А то ставил с ключом --no-unified-memory. А вот что изменится, подождём-с... :-D
Heaven Benchmark v3.0 Basic
Ядрище 3.12- Дривер 319.60
FPS: 39.8
Scores: 1001
Min FPS: 20.3
Max FPS: 72.2- Дривер 331.20
FPS: 40.0
Scores: 1005
Min FPS: 20.5
Max FPS: 72.5+ 0.2 FPS :)
это процЫк прогрелся как следует.
> FPS: 39.8
> + 0.2 FPS :)А теперь контрольный: как отличил 0.5% от погрешности измерения? -- Высоко неси Русского Фороникса!
Там 26 тестов, пускал три раза.
Протестил версию 319.72 ... та же фигня 39.9 FPS
Почему нет обновлений на nvidia 210? nvidia их уже не поддерживает
219.хх - стэйбля