В статье "General purpose computation using a GPU and other non conventional uses of graphics hardware (http://flaviostechnotalk.com/wordpress/index.php/2005/08/14/.../)" оценивается целесообразность и некоторые способы использования GPU графических плат для системных вычислений, не связанных с графикой, например, сортировки данных.
Некоторые проекты:
- BrookGPU (http://graphics.stanford.edu/projects/brookgpu/index.html) - язык (расширенный Си) и компилятор для математических вычислений используя GPU;- Sh (http://libsh.org/) - мета-язык интегрируемый в C++ приложения, позволяющий выполнять ряд вычислительных операций на GPU;
- NVIDIA Cg Toolkit (http://developer.nvidia.com/page/cg_main.html) - библиотека от Nvidia для взаимодействия с GPU;
- GPUSort (http://gamma.cs.unc.edu/GPUSORT/results.html) - использование GPU для сортировки данных;
- "VRAM Storage Device (http://hedera.linuxnews.pl/_news/2002/09/03/_long/1445.html)" - Linux драйвер для создания логического диска, с данными хранимыми в видеопамяти (также см. данное обсуждение в LKML (http://kerneltrap.org/node/143));
- gpgpu.org (http://www.gpgpu.org/) - (General-Purpose Computation Using Graphics Hardware) - специализированный сайт по нестандартному использованию GPU;
URL: http://flaviostechnotalk.com/wordpress/index.php/2005/08/14/.../
Новость: http://www.opennet.me/opennews/art.shtml?num=5925
Дааа, Nvidia cart with 256 Mb (250 Kb use CUI and 255.75 Mb use Swap :)
Кажется здесь это недавно было.
Здесь говорили про использование gpu для шифрования... Имхо, самое полезное применение, т.к. алгоритмы обработки изображений и шифрования похожи.
надо только не забывать про один момент - требования к надежности видеопамяти на порядок ниже таковых к обычному ОЗУ. Если на экране моргнет один пиксель - никто и не заметит, а если зашифрованный файл не расшифруется - будет проблема.
ИМХО, GPU можно было бы использовать для обработки мультимедийной информации, где ошибки в единичных битах прощаются. Правда, не знаю возможно ли это...
А это неплохая идея - попробовать воспроизвести MP3 файл на видеокарте. :)
Хорошо бы memtest прикрутить, так как для большинства применений (даже в мультимедиа), память критична. Например, если после обработки wav скаконет один из старших бит, то не услышит это только глухой.
> требования к надежности видеопамяти на порядок ниже таковых к обычному ОЗУ.
а вот это верно лишь к тнм областям памяти где хранится уже готовая картика и Z-буферу.
А если вы измените бит в описании цвета текстуры или координату текстуры..а??...
Фигня это все насчет требований, скажите еще что специальную глючную память делают для видюх, или отбраковку одну ставят. А нормальную память (которая не отбраковка и не глюкало) выкидывают нафик. Ибо акромя видюх ее больше и ставить почти некуда. Смех да и только. Я еще соглашусь насчет глючности если взять отдельную нонаме китайскую поделку с дешевой памятью и хреновым охлаждением да разогнать ее маленько. Так что хватит смешить тапочки, это второй пост насчет глючности видеопамяти, первый был в теме о рамдрайве.
>Фигня это все насчет требований, скажите еще что специальную глючную память делают для видюх, или отбраковку одну ставят. А нормальную память (которая не отбраковка и не глюкало) выкидывают нафик. Ибо акромя видюх ее больше и ставить почти некуда. Смех да и только. Я еще соглашусь насчет глючности если взять отдельную нонаме китайскую поделку с дешевой памятью и хреновым охлаждением да разогнать ее маленько. Так что хватит смешить тапочки, это второй пост насчет глючности видеопамяти, первый был в теме о рамдрайве.ну а вы что много памяти в видеокартах потестировали? я лично не много, но свою погонял! поднимаеш частоту чучуть, в играх совершенно никаких не артифактов не битых пикселей не заметно, но была у меня прога досовская типа testmem тока для видеопамяти, так она сразу сбои находила, причем если их 1% то ты в играх не заметиш никогда.
А если не разгонять и поставить нормальное охлаждение?
Это же специалисты, а не любители большого FPS делать будут.
Дело не в глючности как таковой. Просто частоты для видеопамяти сильнее прижимают к физическому пределу конкретных микросхем. Соответвенно, значительно меньше запас на время выборки, чем у системной оперативки.А выбитые пикселы, кстати, я видел даже у весьма брендовых карт. Это, конечно, не рядовое явление, но бывает.
Действительно значащих бит во всяких текстурах и в управляющих структурах очень немного относительно общего объема видеопамяти, поэтому сбои малозаметны и, как правило, списываются на глюки GPU,драйверов и прочего.
я вообще не понимаю этой темы, круто конечно заюзать с неба свалившиеся 120-240 мегов под своп или /tmp, но извините нафига брать видюшку с кучей памяти и переплачивать за это столько, сколько можно потратить на пару планок обычной памяти суммарным объемом раза в полтора больше? А вот в ней уже и делать рамдрайвы для /tmp и свопинг будет меньше. Короче, тема из разряда just for fun.
>я вообще не понимаю этой темы, круто конечно заюзать с неба свалившиеся
>120-240 мегов под своп или /tmp, но извините нафига брать видюшку
>с кучей памяти и переплачивать за это столько, сколько можно потратить
>на пару планок обычной памяти суммарным объемом раза в полтора больше?
>А вот в ней уже и делать рамдрайвы для /tmp и
>свопинг будет меньше. Короче, тема из разряда just for fun.Хммм... Пытался я заказать дешевую _внешнюю_ видюху на сервер... ну не люблю я встроенных.
И угадай, какая была самая дешевая?
зачем нужна видюха на сервере? есть serial console и этого достаточно.
что-то я не понял, речь шла об использовании видео-CPU. чего вы на память набросились?
Чуваки вы бы меньше ненужные строки писали -
идея просто cool. Сейчас память на видео увеличиваеться просто с +++++. Вот преставьте можно сидеть в vesa (vga, svga) ИМЕТЬ на это все под 128K & using RAM+VRAM. А скорость AGP -> PCIE
будет по-круче чем ОП. Да еще плюс круче архитектура памяти VRAM(2портовая память и т.д., а!!!).
Можно в DOOM, a потом в vesa(в kernel).
Я так понял, что речь долюжна идти о присоединении мощности GPU к CPU - что то вроде рапределения нагрузки. Разве это плохо? В приложениях где нет необходимости вывода качественной графики. Получается что графический процессор простаивает без толку. Так почему бы его не занять делом? Да то же кодирование видео, архивирование, bruteforce ;)?
очень интересная тема. конечно, надежность видеопамяти гораздо менее обычной, но это частично можно "полечить" кодами коррекции ошибок.
Вообще GPU должен очень существенно превосходить CPU на обработке картинок/видео, компиляторах, кстати базы данных; Даже если несколько уменьшить рабочие частоты для надежности.Ну а x86 давно пора стать "процессором ввода-вывода" :)
Если бы для видеокарты можно установить дополнительный драйвер
и она будет видеться системой как ещё один процессор, тогда это интересно.
Соответственно операционка её будет загружать расчётами.
А всё что мы имеем на сегодняшний день, так это вот:Computer graphics card reveals supernova collapse
Графическая карта показывает коллапс сверхновой.
http://www.newscientist.com/article.ns?id=dn7508
....
Язык программирования Scout,
разработанный в Лос Аламосской Национальной
Лаборатории в Нью Мехико(США),
позволяет учёным выполнять сложные вычисления
на графических картах компьютеров, а не на ЦПУ.
В тестах, графический процессор, в некоторых видах вычислений,
оказался в 12 раз быстрее центрального процессора...
---------------------------------
Это же надо саму программу вычислений на Скауте писать.
То есть, никакого дополнительного процессора не
появляется.
Ессно, и скорость не померишь и к вычислениям не подключишь.
Да если бы ГПУ+ЦПУ было бы круто и еще юзверю дать возможность выбирать на каком ПУ выполнялась его задача было бы круто например видео жать. А то вот у меня видюха халявная стоит офигеная. т.к. я из консоли редко вылазию то железо отдыхает.П.С. мечтать не вредно, и на нашей улице перевернется какмаз с пряниками.
надо дрова на видюху поковырять глядиш че полезное по теме найдется...