1.1, некто (?), 17:23, 16/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Дааа, Nvidia cart with 256 Mb (250 Kb use CUI and 255.75 Mb use Swap :) | |
1.3, _KAV_ (??), 11:01, 17/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Здесь говорили про использование gpu для шифрования... Имхо, самое полезное применение, т.к. алгоритмы обработки изображений и шифрования похожи. | |
1.4, Аноним (2), 12:01, 17/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
надо только не забывать про один момент - требования к надежности видеопамяти на порядок ниже таковых к обычному ОЗУ. Если на экране моргнет один пиксель - никто и не заметит, а если зашифрованный файл не расшифруется - будет проблема.
ИМХО, GPU можно было бы использовать для обработки мультимедийной информации, где ошибки в единичных битах прощаются. Правда, не знаю возможно ли это... | |
|
2.5, Аноним (2), 15:21, 17/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
А это неплохая идея - попробовать воспроизвести MP3 файл на видеокарте. :) | |
2.6, Аноним (2), 20:29, 17/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
Хорошо бы memtest прикрутить, так как для большинства применений (даже в мультимедиа), память критична. Например, если после обработки wav скаконет один из старших бит, то не услышит это только глухой. | |
2.7, пма (?), 00:20, 18/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
> требования к надежности видеопамяти на порядок ниже таковых к обычному ОЗУ.
а вот это верно лишь к тнм областям памяти где хранится уже готовая картика и Z-буферу.
А если вы измените бит в описании цвета текстуры или координату текстуры..а??... | |
|
1.8, Аноним (2), 07:31, 18/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Фигня это все насчет требований, скажите еще что специальную глючную память делают для видюх, или отбраковку одну ставят. А нормальную память (которая не отбраковка и не глюкало) выкидывают нафик. Ибо акромя видюх ее больше и ставить почти некуда. Смех да и только. Я еще соглашусь насчет глючности если взять отдельную нонаме китайскую поделку с дешевой памятью и хреновым охлаждением да разогнать ее маленько. Так что хватит смешить тапочки, это второй пост насчет глючности видеопамяти, первый был в теме о рамдрайве. | |
|
2.9, dim4 (?), 09:43, 18/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
>Фигня это все насчет требований, скажите еще что специальную глючную память делают для видюх, или отбраковку одну ставят. А нормальную память (которая не отбраковка и не глюкало) выкидывают нафик. Ибо акромя видюх ее больше и ставить почти некуда. Смех да и только. Я еще соглашусь насчет глючности если взять отдельную нонаме китайскую поделку с дешевой памятью и хреновым охлаждением да разогнать ее маленько. Так что хватит смешить тапочки, это второй пост насчет глючности видеопамяти, первый был в теме о рамдрайве.
ну а вы что много памяти в видеокартах потестировали? я лично не много, но свою погонял! поднимаеш частоту чучуть, в играх совершенно никаких не артифактов не битых пикселей не заметно, но была у меня прога досовская типа testmem тока для видеопамяти, так она сразу сбои находила, причем если их 1% то ты в играх не заметиш никогда. | |
|
3.10, aleks (??), 09:56, 18/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
А если не разгонять и поставить нормальное охлаждение?
Это же специалисты, а не любители большого FPS делать будут. | |
|
2.12, Аноним (2), 15:46, 18/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
Дело не в глючности как таковой. Просто частоты для видеопамяти сильнее прижимают к физическому пределу конкретных микросхем. Соответвенно, значительно меньше запас на время выборки, чем у системной оперативки.
А выбитые пикселы, кстати, я видел даже у весьма брендовых карт. Это, конечно, не рядовое явление, но бывает.
Действительно значащих бит во всяких текстурах и в управляющих структурах очень немного относительно общего объема видеопамяти, поэтому сбои малозаметны и, как правило, списываются на глюки GPU,драйверов и прочего. | |
|
1.11, Аноним (2), 12:24, 18/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
я вообще не понимаю этой темы, круто конечно заюзать с неба свалившиеся 120-240 мегов под своп или /tmp, но извините нафига брать видюшку с кучей памяти и переплачивать за это столько, сколько можно потратить на пару планок обычной памяти суммарным объемом раза в полтора больше? А вот в ней уже и делать рамдрайвы для /tmp и свопинг будет меньше. Короче, тема из разряда just for fun. | |
|
2.13, _KAV_ (ok), 15:48, 18/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
>я вообще не понимаю этой темы, круто конечно заюзать с неба свалившиеся
>120-240 мегов под своп или /tmp, но извините нафига брать видюшку
>с кучей памяти и переплачивать за это столько, сколько можно потратить
>на пару планок обычной памяти суммарным объемом раза в полтора больше?
>А вот в ней уже и делать рамдрайвы для /tmp и
>свопинг будет меньше. Короче, тема из разряда just for fun.
Хммм... Пытался я заказать дешевую _внешнюю_ видюху на сервер... ну не люблю я встроенных.
И угадай, какая была самая дешевая?
| |
|
3.15, Аноним (2), 10:04, 19/08/2005 [^] [^^] [^^^] [ответить]
| +/– |
зачем нужна видюха на сервере? есть serial console и этого достаточно. | |
|
|
1.14, Аноним (-), 19:07, 18/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
что-то я не понял, речь шла об использовании видео-CPU. чего вы на память набросились? | |
1.16, _chorik_ (?), 13:39, 19/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Чуваки вы бы меньше ненужные строки писали -
идея просто cool. Сейчас память на видео увеличиваеться просто с +++++. Вот преставьте можно сидеть в vesa (vga, svga) ИМЕТЬ на это все под 128K & using RAM+VRAM. А скорость AGP -> PCIE
будет по-круче чем ОП. Да еще плюс круче архитектура памяти VRAM(2портовая память и т.д., а!!!).
Можно в DOOM, a потом в vesa(в kernel).
| |
1.17, Аноним (2), 15:10, 26/08/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Я так понял, что речь долюжна идти о присоединении мощности GPU к CPU - что то вроде рапределения нагрузки. Разве это плохо? В приложениях где нет необходимости вывода качественной графики. Получается что графический процессор простаивает без толку. Так почему бы его не занять делом? Да то же кодирование видео, архивирование, bruteforce ;)? | |
1.18, zyxman (?), 19:02, 11/09/2005 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
очень интересная тема. конечно, надежность видеопамяти гораздо менее обычной, но это частично можно "полечить" кодами коррекции ошибок.
Вообще GPU должен очень существенно превосходить CPU на обработке картинок/видео, компиляторах, кстати базы данных; Даже если несколько уменьшить рабочие частоты для надежности.
Ну а x86 давно пора стать "процессором ввода-вывода" :)
| |
|
2.19, SerVal (?), 19:22, 11/09/2005 [^] [^^] [^^^] [ответить]
| +/– |
Если бы для видеокарты можно установить дополнительный драйвер
и она будет видеться системой как ещё один процессор, тогда это интересно.
Соответственно операционка её будет загружать расчётами.
А всё что мы имеем на сегодняшний день, так это вот:
Computer graphics card reveals supernova collapse
Графическая карта показывает коллапс сверхновой.
http://www.newscientist.com/article.ns?id=dn7508
....
Язык программирования Scout,
разработанный в Лос Аламосской Национальной
Лаборатории в Нью Мехико(США),
позволяет учёным выполнять сложные вычисления
на графических картах компьютеров, а не на ЦПУ.
В тестах, графический процессор, в некоторых видах вычислений,
оказался в 12 раз быстрее центрального процессора...
---------------------------------
Это же надо саму программу вычислений на Скауте писать.
То есть, никакого дополнительного процессора не
появляется.
Ессно, и скорость не померишь и к вычислениям не подключишь. | |
|
3.20, halt (ok), 12:00, 25/09/2005 [^] [^^] [^^^] [ответить]
| +/– |
Да если бы ГПУ+ЦПУ было бы круто и еще юзверю дать возможность выбирать на каком ПУ выполнялась его задача было бы круто например видео жать. А то вот у меня видюха халявная стоит офигеная. т.к. я из консоли редко вылазию то железо отдыхает.
П.С. мечтать не вредно, и на нашей улице перевернется какмаз с пряниками.
надо дрова на видюху поковырять глядиш че полезное по теме найдется... | |
|
|
|