Имя пользователя:
Пароль:  
Помощь | Регистрация | Забыли пароль?  | Правила  

Компьютерный форум OSzone.net » Общий » Флейм » Способен ли CPU заменить GPU???

Показать результаты: Какой чип быстрее?
Центральный процессор быстрее. 7 53.85%
Графический чип быстрее. 6 46.15%
Всего проголосовало: 13. Вы не можете голосовать в этой теме

Ответить
Настройки темы
Способен ли CPU заменить GPU???

Аватара для Diseased Head

Ветеран


Сообщения: 881
Благодарности: 55


Конфигурация

Профиль | Отправить PM | Цитировать


Изменения
Автор: Diseased Head
Дата: 20-10-2009
Все мы с Вами видим как активно сейчас развивается рынок видеоакселерато(ро)в. Nvidia уже кричит что GPU важнее чем CPU. И вот тут ещё новости повыскакивали на нашем форуме:
Nvidia CUDA: видеокарты ускорят работу антивирусов
Nvidia Fermi способен запустить полноценную операционную систему

И я вот тут подумал. А на сколько GPU действительно круче CPU? А если мы возьмём, и вместо графического процессора задействуем второй центральный. Если разработать специальный видеоадаптер на котором вместо GPU будет стоять CPU. Тоисть всё так же как обычно: видеопамять, шина PCIe, DVI вывод, VideoBIOS, но вместо топового графического чипа, будет стоять наимощнейший проц х86. Написать специальный API под это дело. И вперёд...

Сабж. Обгонит ли в данном случае процессор графический чип или нет?

-------
Знаю точно, что я есть. Остальное, всё, не точно.
Возможное - невозможно! Но невозможное - возможно, но нужна жертва соразмерная.


Отправлено: 12:26, 20-10-2009

 

Аватара для Gold Dragon

Ветеран


Сообщения: 976
Благодарности: 76

Профиль | Отправить PM | Цитировать


Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело,вместе они как гриться сила,но если производитель будет плевать в огород другого,причём слабо понимая,что там растёт и как это выращивать,то мне кажеться получиться полная неразбериха.Что до Nvidia ,мне кажеться ,если они и пропагандируют мощность своих чипов,то лучше бы свои амбиции направили в нужное русло,а именно в производство своих кпу.Лишняя конкуренция между производителями никогда не вредила для обычных покупателей.

Отправлено: 13:02, 20-10-2009 | #2



Для отключения данного рекламного блока вам необходимо зарегистрироваться или войти с учетной записью социальной сети.

Если же вы забыли свой пароль на форуме, то воспользуйтесь данной ссылкой для восстановления пароля.

FRZ FRZ вне форума

Аватара для FRZ

Ветеран


Сообщения: 2755
Благодарности: 283

Профиль | Сайт | Отправить PM | Цитировать


на самом деле, количество операций в секунду больше выполняет как раз графический чип. Там разница на порядка два если мне память не изменяет. Так что реально "быстрее" GPU... У CPU просто задачи чуть другие

-------
Не все то windows, что висит....

Пока ты продолжаешь делать то, что делаешь, ты продолжаешь получать то, что получаешь...


Отправлено: 23:30, 21-10-2009 | #3


Аватара для Sionnain

Ветер


Сообщения: 588
Благодарности: 71

Профиль | Отправить PM | Цитировать


Не корректное голосование, ИМХО. Какой лошади быстрей и легче бежать, той которая в телегу запряжена, или той, которая сама по себе бежит? GPU - специализированный процессор, который занимается только одним, да еще ЦП часть работы по обработке берет, так кто быстрей работает?

-------

Авторские обои участников форума | Лучшие темы оформления для Windows XP | Мой блог


Отправлено: 23:39, 21-10-2009 | #4


Ветеран


Сообщения: 3487
Благодарности: 507

Профиль | Сайт | Отправить PM | Цитировать


Брутить пароли GPU научили. Пусть потрудится и против вирусов. А что, хорошая идея.

-------
Просьба обращаться на "ты".


Отправлено: 00:40, 22-10-2009 | #5


Аватара для lxa85

Необычный


Contributor


Сообщения: 4462
Благодарности: 994

Профиль | Сайт | Отправить PM | Цитировать


Цитата Diseased Head:
А если мы возьмём, и вместо графического процессора задействуем второй центральный. »
Если мы так сделаем, графический адаптер ИМХО встанет. Я честно признаюсь, что для меня несколько размыто назначение GPU. (Не CPU) Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) которые также забирают на себя львиную долю работы по наложению текстур и пр. узко специализированных задач. Я не сомневаюсь что система команд GPU построена на RISC. Тем набором команд, которые задействованы при построении изображения. Необходимо смотреть спецификацию процессоров. Т.к. не i586 ыми живы.
Из второй статьи
Цитата:
но специально адаптированную версию Linux запустить все же будет можно (народные умельцы, имеется для вас небольшое дельце ).
Все правильно. Linux - это ядро написанное на С/С++ . Отходя от офисов и перемещая взор на промышленность, то там четко видно и давно применяется кросскомпиляция. Компиляция программных средств на одной архитектуре, для другой. В частности на x86 для ARM процессоров. Остается только написать компилятор для Fermi.

В целом сравнение GPU и CPU мне кажется некорректным, в силу различного назначения процессоров. На них возложены различные задачи, и быть высокопроизводительным в решении любой задачи - не возможно.
(Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах)
Цитата Severny:
А что, хорошая идея. »
Хорошая идея задействовать имеющийся потенциал. Опять надо смотреть системы команд и производительность на ед. мощности. (испугавшиеся читают: на ед. выделяемого тепла)

Цитата:
Но видеочип Fermi уже не будет попросту графическим адаптером, который будет отвечать только за качество картинки в компьютерных играх. Уверен, число задач, которые смогут выполнять графические процессоры, будет расти с каждым днем.
Главное чтобы потом в обратку не пошли, специализируя процессор и убирая лишний функционал. (3D изображения, голограммы и все прочее, к чему приучила фантастика )

-------
- Я не разрешаю тебе быть плохой! Потому что плохие люди совершают плохие поступки. А это нехорошо!
(Из наставлений 5 летней девочки своей младшей сестре)


Отправлено: 01:26, 22-10-2009 | #6


Аватара для Diseased Head

Ветеран


Сообщения: 881
Благодарности: 55

Профиль | Отправить PM | Цитировать


Цитата Gold Dragon:
Графический процессор был придуман чтобы как раз таки чтобы разгрузить напряг на центральном проце,и каждый камень отвечает за своё дело »
Это понятно. Но ведь Fermi как раз таки, в чём то приблежается к ЦП. Как ни странно...
AMD сейчас разрабатывает Fusion - графический и центральный процы на одном кристале. Intel делает процы со встроенной графикой. И к чему же мы пришли? К тому с чего всё началось. Ведь поначалу всё обрабатывал именно центральный процессор. Или всё не так просто?
Цитата FRZ:
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »
Хм... Я о таком не слышал. Ссылку было бы неплохо...
Цитата Sionnain:
Не корректное голосование, ИМХО. »
Это да. Ну так я же специально предлагаю. Поставить их в равные условия, пусть и мысленно, но всё же. Взять видеоадаптер у которого в качестве чипа будет центральный процессор. Написать к нему API. И играй себе в игры...
Цитата lxa85:
Кроме него в видео картах присутствуют пиксельные и вершинные шейдеры (если в терминологии не напутал, или конвейеры?) »
Эти самые конвейеры находятся внутри графического чипа. Технология вершинных и пиксельных шейдеров. Это как раз и есть, в какой то степени, очередная ступенька в сближении GPU с CPU.
Цитата lxa85:
Все правильно. Linux - это ядро написанное на С/С++ . »
На всяких там серверных коробочках (print, NAS, router) на сколько я знаю Линукс пихают. Ещё есть какая то геймерская сетевуха, в которой Линукс работает.
Цитата lxa85:
Раз мы затрагиваем иные процессоры кроме производства Intel и AMD, то вполне уместно внести каплю абсурда и упомянуть процессоры контроллеров жестких дисков, музыкальные процессоры и пр. Сетевое оборудование работает на ARMах »
Так всё развивается, но так как человек большую часть инфы получает через глаза и существо оно социальное... Кстати в серьёзном сетевом оборудовании тоже не хилые чипы стоят.

Такое ощущение что все три "коня", AMD, Nvidia и Intel скоро будут вовсю штамповать гибридные графическо-центральные процессоры. Материнскую плату будем называть видеомамой. На неё лепиш несколько гибридных процессоров. Запускаеш несколько ОС одновременно. И...

-------
Знаю точно, что я есть. Остальное, всё, не точно.
Возможное - невозможно! Но невозможное - возможно, но нужна жертва соразмерная.


Отправлено: 00:30, 23-10-2009 | #7


Аватара для detrin

Ветеран


Сообщения: 540
Благодарности: 42

Профиль | Отправить PM | Цитировать


Цитата Diseased Head:
Цитата FRZ:
на самом деле, количество операций в секунду больше выполняет как раз графический чип. »
Хм... Я о таком не слышал. Ссылку было бы неплохо... »

Взято из статьи Высокоскоростные вычисления на GPU с использованием NVIDIA CUDA
Как видно из графика, GPU уже давно обогнали CPU по производительности.

-------
Лучше ничего не делать, чем делать ничего.


Отправлено: 18:54, 23-10-2009 | #8


Аватара для ALLY

Что-то помнящий


Сообщения: 509
Благодарности: 11

Профиль | Сайт | Отправить PM | Цитировать


ВБП!
Цитата Diseased Head:
Nvidia уже кричит что GPU важнее чем CPU ... »
- Залезть в чужие сапоги ... - мне кажется это рекламный ход, для кредитов... .
Цитата Diseased Head:
Обгонит ли в данном случае процессор графический чип или нет ... »
- Так надо сделать тест ... типа решета Эратосфена, т. е. потрогать ручками ... .
detrin,
- График конечно красивый ...
Цитата:
Архитектурные решения требуют параллелизм
это ещё бабушка надвое сказала
- Мне помнится, что самые быстрые - это умножение и деление.

-------
Скажи мне, кто твой друг и я скажу, кто ты.
~~~~~~~~~~~~~~~
И всё-таки она вертится...


Отправлено: 19:51, 23-10-2009 | #9


Аватара для detrin

Ветеран


Сообщения: 540
Благодарности: 42

Профиль | Отправить PM | Цитировать


Вот еще статейка для ознакомления О скоростях перебора паролей на CPU и GPU.
Выводы в статье вполне подтверждают вышеприведенный график.

-------
Лучше ничего не делать, чем делать ничего.


Отправлено: 07:29, 24-10-2009 | #10



Компьютерный форум OSzone.net » Общий » Флейм » Способен ли CPU заменить GPU???

Участник сейчас на форуме Участник сейчас на форуме Участник вне форума Участник вне форума Автор темы Автор темы Шапка темы Сообщение прикреплено

Похожие темы
Название темы Автор Информация о форуме Ответов Последнее сообщение
Утилиты - [addon] Cpu-z + Gpu-z ALEX SS Наборы обновлений для Windows XP/2003/Windows 7 203 24-02-2023 13:28
Разгрузка CPU (или GPU) SS3 Хочу все знать 4 17-11-2008 12:57
Посоветуйте идеальный баланс CPU - GPU. Using DirectX SDK, MathCad & 3DMax. SeriousDEN Выбор отдельных компонентов компьютера и конфигурации в целом 23 18-09-2006 13:11
Способен ли собственный сайт приносить прибыль? Mr666 Вебмастеру 4 04-10-2005 20:55




 
Переход