Компьютерный форум OSzone.net  

Компьютерный форум OSzone.net (http://forum.oszone.net/index.php)
-   Флейм (http://forum.oszone.net/forumdisplay.php?f=16)
-   -   Способен ли CPU заменить GPU??? (http://forum.oszone.net/showthread.php?t=153735)

Diseased Head 20-10-2009 12:26 1247746

Способен ли CPU заменить GPU???
 
Все мы с Вами видим как активно сейчас развивается рынок видеоакселерато(ро)в. Nvidia уже кричит что GPU важнее чем CPU. И вот тут ещё новости повыскакивали на нашем форуме:
Nvidia CUDA: видеокарты ускорят работу антивирусов
Nvidia Fermi способен запустить полноценную операционную систему

И я вот тут подумал. А на сколько GPU действительно круче CPU? А если мы возьмём, и вместо графического процессора задействуем второй центральный. Если разработать специальный видеоадаптер на котором вместо GPU будет стоять CPU. Тоисть всё так же как обычно: видеопамять, шина PCIe, DVI вывод, VideoBIOS, но вместо топового графического чипа, будет стоять наимощнейший проц х86. Написать специальный API под это дело. И вперёд...

Сабж. Обгонит ли в данном случае процессор графический чип или нет?

Gold Dragon 20-10-2009 13:02 1247787

Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело,вместе они как гриться сила,но если производитель будет плевать в огород другого,причём слабо понимая,что там растёт и как это выращивать,то мне кажеться получиться полная неразбериха.Что до Nvidia ,мне кажеться ,если они и пропагандируют мощность своих чипов,то лучше бы свои амбиции направили в нужное русло,а именно в производство своих кпу.Лишняя конкуренция между производителями никогда не вредила для обычных покупателей.

FRZ 21-10-2009 23:30 1249124

на самом деле, количество операций в секунду больше выполняет как раз графический чип. Там разница на порядка два если мне память не изменяет. Так что реально "быстрее" GPU... У CPU просто задачи чуть другие

Sionnain 21-10-2009 23:39 1249135

Не корректное голосование, ИМХО. Какой лошади быстрей и легче бежать, той которая в телегу запряжена, или той, которая сама по себе бежит? GPU - специализированный процессор, который занимается только одним, да еще ЦП часть работы по обработке берет, так кто быстрей работает?

Severny 22-10-2009 00:40 1249165

Брутить пароли GPU научили. Пусть потрудится и против вирусов. А что, хорошая идея.

lxa85 22-10-2009 01:26 1249178

Цитата:

Цитата Diseased Head
А если мы возьмём, и вместо графического процессора задействуем второй центральный. »

Если мы так сделаем, графический адаптер ИМХО встанет. Я честно признаюсь, что для меня несколько размыто назначение GPU. (Не CPU) Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) которые также забирают на себя львиную долю работы по наложению текстур и пр. узко специализированных задач. Я не сомневаюсь что система команд GPU построена на RISC. Тем набором команд, которые задействованы при построении изображения. Необходимо смотреть спецификацию процессоров. Т.к. не i586 ыми живы.
Из второй статьи
Цитата:

но специально адаптированную версию Linux запустить все же будет можно (народные умельцы, имеется для вас небольшое дельце ;) ).
Все правильно. Linux - это ядро написанное на С/С++ . Отходя от офисов и перемещая взор на промышленность, то там четко видно и давно применяется кросскомпиляция. Компиляция программных средств на одной архитектуре, для другой. В частности на x86 для ARM процессоров. Остается только написать компилятор для Fermi.

В целом сравнение GPU и CPU мне кажется некорректным, в силу различного назначения процессоров. На них возложены различные задачи, и быть высокопроизводительным в решении любой задачи - не возможно.
(Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах)
Цитата:

Цитата Severny
А что, хорошая идея. »

Хорошая идея задействовать имеющийся потенциал. Опять надо смотреть системы команд и производительность на ед. мощности. (испугавшиеся читают: на ед. выделяемого тепла)

Цитата:

Но видеочип Fermi уже не будет попросту графическим адаптером, который будет отвечать только за качество картинки в компьютерных играх. Уверен, число задач, которые смогут выполнять графические процессоры, будет расти с каждым днем.
Главное чтобы потом в обратку не пошли, специализируя процессор и убирая лишний функционал. (3D изображения, голограммы и все прочее, к чему приучила фантастика :) )

Diseased Head 23-10-2009 00:30 1249942

Цитата:

Цитата Gold Dragon
Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело »

Это понятно. Но ведь Fermi как раз таки, в чём то приблежается к ЦП. Как ни странно...
AMD сейчас разрабатывает Fusion - графический и центральный процы на одном кристале. Intel делает процы со встроенной графикой. И к чему же мы пришли? К тому с чего всё началось. Ведь поначалу всё обрабатывал именно центральный процессор. Или всё не так просто?
Цитата:

Цитата FRZ
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »

Хм... Я о таком не слышал. Ссылку было бы неплохо...
Цитата:

Цитата Sionnain
Не корректное голосование, ИМХО. »

Это да. Ну так я же специально предлагаю. Поставить их в равные условия, пусть и мысленно, но всё же. Взять видеоадаптер у которого в качестве чипа будет центральный процессор. Написать к нему API. И играй себе в игры...
Цитата:

Цитата lxa85
Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) »

Эти самые конвейеры находятся внутри графического чипа. Технология вершинных и пиксельных шейдеров. Это как раз и есть, в какой то степени, очередная ступенька в сближении GPU с CPU.
Цитата:

Цитата lxa85
Все правильно. Linux - это ядро написанное на С/С++ . »

На всяких там серверных коробочках (print, NAS, router) на сколько я знаю Линукс пихают. Ещё есть какая то геймерская сетевуха, в которой Линукс работает.
Цитата:

Цитата lxa85
Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах »

Так всё развивается, но так как человек большую часть инфы получает через глаза и существо оно социальное... Кстати в серьёзном сетевом оборудовании тоже не хилые чипы стоят.

Такое ощущение что все три "коня", AMD, Nvidia и Intel скоро будут вовсю штамповать гибридные графическо-центральные процессоры. Материнскую плату будем называть видеомамой. На неё лепиш несколько гибридных процессоров. Запускаеш несколько ОС одновременно. И... :shot:

detrin 23-10-2009 18:54 1250608

Цитата:

Цитата Diseased Head
Цитата FRZ:
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »
Хм... Я о таком не слышал. Ссылку было бы неплохо... »


Взято из статьи Высокоскоростные вычисления на GPU с использованием NVIDIA CUDA
Как видно из графика, GPU уже давно обогнали CPU по производительности.

ALLY 23-10-2009 19:51 1250645

ВБП!
Цитата:

Цитата Diseased Head
Nvidia уже кричит что GPU важнее чем CPU ... »

- Залезть в чужие сапоги ... - мне кажется это рекламный ход, для кредитов... .
Цитата:

Цитата Diseased Head
Обгонит ли в данном случае процессор графический чип или нет ... »

- Так надо сделать тест ... типа решета Эратосфена, т. е. потрогать ручками ... .
detrin,
- График конечно красивый ...
Цитата:

Архитектурные решения требуют параллелизм
это ещё бабушка надвое сказала
- Мне помнится, что самые быстрые - это умножение и деление.

detrin 24-10-2009 07:29 1250983

Вот еще статейка для ознакомления О скоростях перебора паролей на CPU и GPU.
Выводы в статье вполне подтверждают вышеприведенный график.

Diseased Head 25-10-2009 22:18 1252344

detrin, все эти тесты это технологии типа CUDA. И на сколько я понимаю там ГП работает вместе с ЦП. ИМХО. Необъективно.

detrin 25-10-2009 23:07 1252392

Цитата:

Вывод: прирост в производительности от использования одного GPU примерно 4х-5ти кратный по сравнению с современной четырёхядерной системой.
Из курса начальной математики, если производительность процессора принять за 1, то производительность GPU уж как минимум будет 3-4. Все вполне объективно, GPU значительно быстрее CPU. Вот только софта и задач поддающихся распараллеливанию, пока еще очень мало, чтоб загрузить GPU по полной.
Цитата:

Не так давно на экраны всего мира вышел фильм «Гарри Поттер и принц-полукровка», изобилующий красивейшими сценами с компьютерной графикой высочайшего качества. Какие же компьютерные ресурсы были задействованы для создания анимации такого рода? Как стало известно, Industrial Light & Magic, подразделение компании Lucasfilm, предпочло задействовать для рендеринга отдельных сцен архитектуру не центральных (CPU), а графических (GPU) процессоров, которые оказываются значительно эффективнее, например, при прорисовке пламени.
Взято отсюда.

Vadikan 26-10-2009 00:02 1252429

По-моему, название темы сформулировано с точностью до наоборот. В том смысле, что видеокарты начинают играть все большую роль в системе, беря на себя функции, которые раньше им не снились. Ну а с технической точки зрения даже к обратному заголовку можно выставить немало претензий :)

Diseased Head 26-10-2009 17:15 1252985

Цитата:

Цитата detrin
Из курса начальной математики, если производительность процессора принять за 1, то производительность GPU уж как минимум будет 3-4. Все вполне объективно, GPU значительно быстрее CPU. Вот только софта и задач поддающихся распараллеливанию, пока еще очень мало, чтоб загрузить GPU по полной. »

Нет не совсем так. Ваша математика немного хромает. В компьютер устанавливается не отдельный графический процессор, а видеокарта!!! Которая имеет свою память и свою шину данных, так что я сомневаюсь что этот, 3-4 кратный прирост берёт на себя именно графический чип сам по себе.
Цитата:

Цитата Vadikan
По-моему, название темы сформулировано с точностью до наоборот. »

Так это я специально так и назвал.

detrin 26-10-2009 19:59 1253133

Цитата:

Цитата Diseased Head
Нет не совсем так. Ваша математика немного хромает. В компьютер устанавливается не отдельный графический процессор, а видеокарта!!! Которая имеет свою память и свою шину данных, так что я сомневаюсь что этот, 3-4 кратный прирост берёт на себя именно графический чип сам по себе. »

Хм, всегда считал что вычисления производит процессор, неважно, центральный или графический. Остальные компоненты всего лишь могут ограничивать его скорость, но никак не ускорять. Где я не прав?

Gold Dragon 26-10-2009 20:18 1253147

Ну на счёт ограничивать я не думаю что уместно.Не будь остальных компонентов, цп и гп были бы просто никчёмными многоножками...Они связывают,расширяют,накопляют

Diseased Head 31-10-2009 09:48 1257235

Цитата:

Цитата detrin
Хм, всегда считал что вычисления производит процессор, неважно, центральный или графический. Остальные компоненты всего лишь могут ограничивать его скорость, но никак не ускорять. Где я не прав? »

Ну так так и есть. Вы поймите, я просто хочу понять какой из "чипов" сам по себе быстрее. Я думаю что ГП быстрее в 3-4 раза именно в данной архитектуре. Тоисть связка: графический адаптер, PCIe, видеопамять, чипсет, ЦП, память, ОС, технология CUDA. ГП оптимизируется под видеопамять инженерами на заводе. А установить память для ЦП может и сборщик из М-видео. Сравнивать процессоры в системах где контроллер памяти находится в чипсете, помоему совсем не объективно. А если ещё учесть контроллер прямого доступа к памяти? ОС также забирает часть ресурсов у ЦП. Поэтому я и предложил такое мысленное "упражнение" - поставить ЦП на место графического.

Может действительно ГП быстрее, но вопрос - на сколько? Я думаю что сравнивать чипы можно только сопоставив их характеристики: частоты, разрядности, объёмы регистров... А сравнивая расчёты по алгоритмам CUDA и без них, мы сравниваем две разнае системы в целом, но никак не отдельные "чипы".

lxa85 31-10-2009 12:00 1257306

Вынесу на суд общественности статью, опубликованную на ixbt.com.
ATI RADEON HD 5870 1024MB PCI-E

В предверии DirectX 11.
Мощный удар из Канады -
ATI (AMD) выпускает нового короля 3D-графики

Она дает представление о внутренностях чипа.
Статью по процессорам от NVidea я не искал.


Время: 14:24.

Время: 14:24.
© OSzone.net 2001-