Войти

Показать полную графическую версию : Способен ли CPU заменить GPU???


Diseased Head
20-10-2009, 12:26
Все мы с Вами видим как активно сейчас развивается рынок видеоакселерато(ро)в. Nvidia уже кричит что GPU важнее чем CPU. И вот тут ещё новости повыскакивали на нашем форуме:
Nvidia CUDA: видеокарты ускорят работу антивирусов
Nvidia Fermi способен запустить полноценную операционную систему

И я вот тут подумал. А на сколько GPU действительно круче CPU? А если мы возьмём, и вместо графического процессора задействуем второй центральный. Если разработать специальный видеоадаптер на котором вместо GPU будет стоять CPU. Тоисть всё так же как обычно: видеопамять, шина PCIe, DVI вывод, VideoBIOS, но вместо топового графического чипа, будет стоять наимощнейший проц х86. Написать специальный API под это дело. И вперёд...

Сабж. Обгонит ли в данном случае процессор графический чип или нет?

Gold Dragon
20-10-2009, 13:02
Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело,вместе они как гриться сила,но если производитель будет плевать в огород другого,причём слабо понимая,что там растёт и как это выращивать,то мне кажеться получиться полная неразбериха.Что до Nvidia ,мне кажеться ,если они и пропагандируют мощность своих чипов,то лучше бы свои амбиции направили в нужное русло,а именно в производство своих кпу.Лишняя конкуренция между производителями никогда не вредила для обычных покупателей.

FRZ
21-10-2009, 23:30
на самом деле, количество операций в секунду больше выполняет как раз графический чип. Там разница на порядка два если мне память не изменяет. Так что реально "быстрее" GPU... У CPU просто задачи чуть другие

Sionnain
21-10-2009, 23:39
Не корректное голосование, ИМХО. Какой лошади быстрей и легче бежать, той которая в телегу запряжена, или той, которая сама по себе бежит? GPU - специализированный процессор, который занимается только одним, да еще ЦП часть работы по обработке берет, так кто быстрей работает?

Severny
22-10-2009, 00:40
Брутить пароли GPU научили. Пусть потрудится и против вирусов. А что, хорошая идея.

lxa85
22-10-2009, 01:26
А если мы возьмём, и вместо графического процессора задействуем второй центральный. »
Если мы так сделаем, графический адаптер ИМХО встанет. Я честно признаюсь, что для меня несколько размыто назначение GPU. (Не CPU) Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) которые также забирают на себя львиную долю работы по наложению текстур и пр. узко специализированных задач. Я не сомневаюсь что система команд GPU построена на RISC. Тем набором команд, которые задействованы при построении изображения. Необходимо смотреть спецификацию процессоров. Т.к. не i586 ыми живы.
Из второй статьи но специально адаптированную версию Linux запустить все же будет можно (народные умельцы, имеется для вас небольшое дельце ;) ). Все правильно. Linux - это ядро написанное на С/С++ . Отходя от офисов и перемещая взор на промышленность, то там четко видно и давно применяется кросскомпиляция. Компиляция программных средств на одной архитектуре, для другой. В частности на x86 для ARM процессоров. Остается только написать компилятор для Fermi.

В целом сравнение GPU и CPU мне кажется некорректным, в силу различного назначения процессоров. На них возложены различные задачи, и быть высокопроизводительным в решении любой задачи - не возможно.
(Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах)
А что, хорошая идея. »
Хорошая идея задействовать имеющийся потенциал. Опять надо смотреть системы команд и производительность на ед. мощности. (испугавшиеся читают: на ед. выделяемого тепла)

Но видеочип Fermi уже не будет попросту графическим адаптером, который будет отвечать только за качество картинки в компьютерных играх. Уверен, число задач, которые смогут выполнять графические процессоры, будет расти с каждым днем. Главное чтобы потом в обратку не пошли, специализируя процессор и убирая лишний функционал. (3D изображения, голограммы и все прочее, к чему приучила фантастика :) )

Diseased Head
23-10-2009, 00:30
Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело »
Это понятно. Но ведь Fermi как раз таки, в чём то приблежается к ЦП. Как ни странно...
AMD сейчас разрабатывает Fusion - графический и центральный процы на одном кристале. Intel делает процы со встроенной графикой. И к чему же мы пришли? К тому с чего всё началось. Ведь поначалу всё обрабатывал именно центральный процессор. Или всё не так просто?
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »Хм... Я о таком не слышал. Ссылку было бы неплохо...
Не корректное голосование, ИМХО. »Это да. Ну так я же специально предлагаю. Поставить их в равные условия, пусть и мысленно, но всё же. Взять видеоадаптер у которого в качестве чипа будет центральный процессор. Написать к нему API. И играй себе в игры...
Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) »Эти самые конвейеры находятся внутри графического чипа. Технология вершинных и пиксельных шейдеров. Это как раз и есть, в какой то степени, очередная ступенька в сближении GPU с CPU.
Все правильно. Linux - это ядро написанное на С/С++ . »На всяких там серверных коробочках (print, NAS, router) на сколько я знаю Линукс пихают. Ещё есть какая то геймерская сетевуха, в которой Линукс работает.
Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах »Так всё развивается, но так как человек большую часть инфы получает через глаза и существо оно социальное... Кстати в серьёзном сетевом оборудовании тоже не хилые чипы стоят.

Такое ощущение что все три "коня", AMD, Nvidia и Intel скоро будут вовсю штамповать гибридные графическо-центральные процессоры. Материнскую плату будем называть видеомамой. На неё лепиш несколько гибридных процессоров. Запускаеш несколько ОС одновременно. И... :shot:

detrin
23-10-2009, 18:54
Цитата FRZ:
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »
Хм... Я о таком не слышал. Ссылку было бы неплохо... »
http://computer-vision.ucoz.ru/NVIDIA_CUDA/performance-growth-graph.jpg
Взято из статьи Высокоскоростные вычисления на GPU с использованием NVIDIA CUDA (http://computer-vision.ucoz.ru/publ/3-1-0-6)
Как видно из графика, GPU уже давно обогнали CPU по производительности.

ALLY
23-10-2009, 19:51
ВБП!
Nvidia уже кричит что GPU важнее чем CPU ... »
- Залезть в чужие сапоги ... - мне кажется это рекламный ход, для кредитов... .
Обгонит ли в данном случае процессор графический чип или нет ... »
- Так надо сделать тест ... типа решета Эратосфена, т. е. потрогать ручками ... .
detrin,
- График конечно красивый ...
Архитектурные решения требуют параллелизм это ещё бабушка надвое сказала
- Мне помнится, что самые быстрые - это умножение и деление.

detrin
24-10-2009, 07:29
Вот еще статейка для ознакомления О скоростях перебора паролей на CPU и GPU. (http://www.golubev.com/about_cpu_and_gpu_ru.htm)
Выводы в статье вполне подтверждают вышеприведенный график.

Diseased Head
25-10-2009, 22:18
detrin, все эти тесты это технологии типа CUDA. И на сколько я понимаю там ГП работает вместе с ЦП. ИМХО. Необъективно.

detrin
25-10-2009, 23:07
Вывод: прирост в производительности от использования одного GPU примерно 4х-5ти кратный по сравнению с современной четырёхядерной системой.
Из курса начальной математики, если производительность процессора принять за 1, то производительность GPU уж как минимум будет 3-4. Все вполне объективно, GPU значительно быстрее CPU. Вот только софта и задач поддающихся распараллеливанию, пока еще очень мало, чтоб загрузить GPU по полной.
Не так давно на экраны всего мира вышел фильм «Гарри Поттер и принц-полукровка», изобилующий красивейшими сценами с компьютерной графикой высочайшего качества. Какие же компьютерные ресурсы были задействованы для создания анимации такого рода? Как стало известно, Industrial Light & Magic, подразделение компании Lucasfilm, предпочло задействовать для рендеринга отдельных сцен архитектуру не центральных (CPU), а графических (GPU) процессоров, которые оказываются значительно эффективнее, например, при прорисовке пламени.
Взято отсюда. (http://www.mobiledevice.ru/garri-potter-princ-polukrovka-lucasfilm-industrial-light-magic-p.aspx)

Vadikan
26-10-2009, 00:02
По-моему, название темы сформулировано с точностью до наоборот. В том смысле, что видеокарты начинают играть все большую роль в системе, беря на себя функции, которые раньше им не снились. Ну а с технической точки зрения даже к обратному заголовку можно выставить немало претензий :)

Diseased Head
26-10-2009, 17:15
Из курса начальной математики, если производительность процессора принять за 1, то производительность GPU уж как минимум будет 3-4. Все вполне объективно, GPU значительно быстрее CPU. Вот только софта и задач поддающихся распараллеливанию, пока еще очень мало, чтоб загрузить GPU по полной. »Нет не совсем так. Ваша математика немного хромает. В компьютер устанавливается не отдельный графический процессор, а видеокарта!!! Которая имеет свою память и свою шину данных, так что я сомневаюсь что этот, 3-4 кратный прирост берёт на себя именно графический чип сам по себе.
По-моему, название темы сформулировано с точностью до наоборот. »Так это я специально так и назвал.

detrin
26-10-2009, 19:59
Нет не совсем так. Ваша математика немного хромает. В компьютер устанавливается не отдельный графический процессор, а видеокарта!!! Которая имеет свою память и свою шину данных, так что я сомневаюсь что этот, 3-4 кратный прирост берёт на себя именно графический чип сам по себе. »
Хм, всегда считал что вычисления производит процессор, неважно, центральный или графический. Остальные компоненты всего лишь могут ограничивать его скорость, но никак не ускорять. Где я не прав?

Gold Dragon
26-10-2009, 20:18
Ну на счёт ограничивать я не думаю что уместно.Не будь остальных компонентов, цп и гп были бы просто никчёмными многоножками...Они связывают,расширяют,накопляют

Diseased Head
31-10-2009, 09:48
Хм, всегда считал что вычисления производит процессор, неважно, центральный или графический. Остальные компоненты всего лишь могут ограничивать его скорость, но никак не ускорять. Где я не прав? »Ну так так и есть. Вы поймите, я просто хочу понять какой из "чипов" сам по себе быстрее. Я думаю что ГП быстрее в 3-4 раза именно в данной архитектуре. Тоисть связка: графический адаптер, PCIe, видеопамять, чипсет, ЦП, память, ОС, технология CUDA. ГП оптимизируется под видеопамять инженерами на заводе. А установить память для ЦП может и сборщик из М-видео. Сравнивать процессоры в системах где контроллер памяти находится в чипсете, помоему совсем не объективно. А если ещё учесть контроллер прямого доступа к памяти? ОС также забирает часть ресурсов у ЦП. Поэтому я и предложил такое мысленное "упражнение" - поставить ЦП на место графического.

Может действительно ГП быстрее, но вопрос - на сколько? Я думаю что сравнивать чипы можно только сопоставив их характеристики: частоты, разрядности, объёмы регистров... А сравнивая расчёты по алгоритмам CUDA и без них, мы сравниваем две разнае системы в целом, но никак не отдельные "чипы".

lxa85
31-10-2009, 12:00
Вынесу на суд общественности статью, опубликованную на ixbt.com.
ATI RADEON HD 5870 1024MB PCI-E

В предверии DirectX 11.
Мощный удар из Канады -
ATI (AMD) выпускает нового короля 3D-графики
(http://www.ixbt.com/video3/cypress-part1.shtml)
Она дает представление о внутренностях чипа.
Статью по процессорам от NVidea я не искал.




© OSzone.net 2001-2012