Алекс Дейчер (Alex Deucher) из компании AMD начал (http://www.phoronix.com/scan.php?page=article&item=amd_ontar... публикацию в списке рассылки dri-devel (http://lists.freedesktop.org/archives/dri-devel/2010-Novembe... исходных текстов драйверов для процессора Ontario, построенного в соответствии с архитектурой Fusion (http://ru.wikipedia.org/wiki/AMD_Fusion) и предназначенного для использования на нетбуках и других портативных устройствах. Ключевой особенностью нового процессора является интеграция на одном кристалле CPU и GPU. Графическая подсистема Ontario построена на базе графического процессора Radeon HD 6250.
Несмотря на то, что для графических карт Radeon HD 6xxx компания AMD так и не выпустила обещанный ранее комплект открытых драйверов, представленный сегодня драйвер для процессоров Ontario имеет поддержку 2D- и 3D-режимов, поддержку системы управления питанием, функции взаимодействия с температурными датчиками, инструменты для обновления прошивки и...URL: http://www.phoronix.com/scan.php?page=article&item=amd_ontar...
Новость: http://www.opennet.me/opennews/art.shtml?num=28742
Неплохо, ждем выхода материнок под данный процессор :)
Думаю, они все вместе сделают. Отдельно мам не будет. А сам проц приклеют к плате.
> Думаю, они все вместе сделают. Отдельно мам не будет. А сам проц
> приклеют к плате.АМД молодцы, не меняют сокеты постоянно. А AM3 даже совместим с AM2. Захотел процессор с AM3 - и купил, а материнскую плату и память менять не нужно! Я так и сделал. И это здорово, только неочевидно и не каждый додумается.
Вот только где те времена, когда компьютер можно было собрать из любых завалявшихся в столе железа?! Сейчас думать дано. В какой слот какую видеокарту, в какой сокет какой процессор.
Выделение графического процессора из одного центрального произошло очень много лет назад. Когда появились самые первые персональные компьютеры. Процессор был очень слаб и не умел даже многозадачность. Отделение позволило, например, печатать и видеть напечатанное одновременно. Поэтому неудивительно, что графический процессор может постепенно исчезнуть - уверен, через 50 лет его уже не будет. Да и раньше бы не было, если бы проводить изменение архитектур было просто.
> Когда появились самые первые персональные компьютеры.А персональные компьютеры - это в вашем понимании девайсы на х86 или и более простые? А то у более ранних зачастую графику как раз отрисовывал основной CPU. Ну может с некоторыми примитивными аппаратными приспособлениями облегчающими сие (e.g. знакогенератор). В основном потому что специализированных чипов для этого еще не было и все выруливали как умели. У PC древние видеокарты не так уж сильно отличались от этих приблуд. "Ускорение" от них было разве что в том что процу не надо было дергаться на отрисовку всего содержимого экрана самолично и формировать самолично видеосигнал. Что позволило бОльшие разрешения и оствило процу больше времени для занятий полезной работой. Ну и тот же знакогенератор, етц.
> Процессор был очень слаб и не умел даже многозадачность
Хренасе заявы. Многозадачность возможна на даже самом примитивном процессоре. Правда чтобы сделать преемптивную и с какими-то гарантиями, даже в допущении что отдельные таски наглеют - нужна кой-какая аппаратная поддержка. Иначе любая задача может вырубить например прерывания таймера по которому ее переключают и гарантии пойдут лесом, при том это может быть и просто результатом сбоя задачи и выполнения не того кода который был предусмотрен :). Ну а честная многозадачность - это процессоры с несколькими ядрами и/или несколькими аппаратными тредами. Остальное - эмуляция оной, типа как кино - этакая эмуляция непрерывного движения :)
> Отделение позволило, например, печатать и видеть напечатанное одновременно.
Охтыблин, новости! И как это я печатал и видел напечатанное в девайсине где кроме 8080 процессоров вообще не было?! Хотя, конечно, тут зависит от того что понимать под одновременностью. Для идеальной одновременности клавиатура, очевидно, должна быть напрямую заинтерфейсене к видеоконтроллеру, который должен быть и контроллером клавы. Иначе как ни крути - а одновременности не получается уже.
> уверен, через 50 лет его уже не будет.
Может выродиться в набор универсальных ядер + возможно каких-то перепрограммируемых акселераторов. Интель вон уже про 1000 ядер говорит, а 48-ядерный прототип у них уже есть в железе. IBM впрочем с своим kilocore были первыми, но не осилили.
> Интель вон уже про 1000 ядер говорит, а 48-ядерный прототип у них уже есть в железе.Интель сделала прототип ускорителя вычислений, а не GPU. Larrabee RIP.
На 1000 ядрах можно и графику считать непозорно, пожалуй. А почему нет?
>Поэтому неудивительно, что графический процессор может постепенно исчезнуть - уверен, через 50 лет его уже не будет.Это троллинг, простите, троллизм такой? Какие 50 лет? Уже через 5 лет его не будет.
BGA же.
Годный, хороший продукт.
Отлично мой нетбук видимо теперь будет на процессоре AMD.
> К сожалению в драйвере отсутствует поддержка задействования возможности GPU по акселерации декодирования видео, так как открытие данных спецификаций несет юридический риск в связи с возможным нарушением требований DRM (Digital Rights Management)а что известно про реализацию декодирования видео средствами Gallium3D ?
вобще возможно ли использовать открытый драйвер и проприетарный отдельный видеоускоритель (без закрытого драйвера) ?
Да. Видеокарты Intel в ядре Линукс начиная с версии 2.6.35 умеют аппаратное декодирование.
Чёрт. Так не хочется Интел себе в будущий комп ставить :( Но чипсет без аппаратного декодирования видео в свободных ОС - не нужен.
http://lists.freedesktop.org/archives/mesa-dev/2010-November/
читать всё с "XvMC" в теме.PS: что есть "проприетарный отдельный видеоускоритель" ? :\
> PS: что есть "проприетарный отдельный видеоускоритель" ? :\r300_videoyskoritel.so используемый через libVA (например сейчас при попытке юзать либва на r300 оно вываливается с отсутвием дллки с подобным именем, точное имя не помню щас)
>> PS: что есть "проприетарный отдельный видеоускоритель" ? :\
> r300_videoyskoritel.so используемый через libVA (например сейчас при попытке юзать либва
> на r300 оно вываливается с отсутвием дллки с подобным именем, точное
> имя не помню щас)vainfo
libva: libva version 0.31.1
libva: va_getDriverName() returns 0
libva: Trying to open /usr/lib/dri/r300_drv_video.so
libva: va_openDriver() returns -1
vaInitialize failed with error code -1 (unknown libva error),exit
Накой нужна на нетбуке поддержка ускорения 3д, если видеокарта не может ускорять видео?
Поддержка ускорения 3D гораздо важнее дополнительного плюса в виде декодирования некоторых видеопотоков на видеокарте, удивительно, что ты этого не понимаешь :)
> Накой нужна на нетбуке поддержка ускорения 3д, если видеокарта не может ускорять видео?Для эффектов десктопа и несложных 3D гамез, вероятно.
С уважением, Кэп.
Учитывайте, если будет аппаратное декодирование (которое имеется в платформе nVidia ION) можно спокойно смотреть BD фильмы на FullHD (личный опыт)
Насколько помню Intel ввело ограничение на разрешение экрана 1024x600 на нетбуки с процессорами от Intel, а AMD под эту гребенку не попадает. Скажите, а почему мы не можем теперь получить AMD Fusion + монитор в 1366x768? Матрицы то такие есть 10,1".
Разве вы откажетесь докупить при желании док-станцию для своего нетбука, и превратить свой нетбук в неттоп. Ну и к докстанции подключить FullHD монитор и прочую периферию? Ваш компьютер будет всегда с вами.
ТЫ ЧТО ПРИДУРОК ЧТОЛИ НА ВСЕХ НООТБУКАХ МОЖЕТ БЫТЬ ДАЖЕ 5 Д А ЧТО ТОГДА ГОВОРИТЬ А 3 Д ЧОКНУТЫЙ ПСИХ