Войти

Показать полную графическую версию : Вторая жизнь старых ПК?


Kirill_S
29-06-2007, 10:36
http://www.lenta.ru/news/2007/06/21/nvidia/


Компания Nvidia анонсировала серию устройств Tesla, основанных на графических процессорах и предназначенных для высокопроизводительных систем обработки данных, сообщает TG Daily. Nvidia представила как сам адаптер, так и готовые решения на его основе: D870 Deskside Supercomputer, оснащенный двумя Tesla и подключаемый к рабочей станции через разъем PCI-Express, и Tesla GPU Server, оборудованный четырьмя адаптерами.
Ключевыми элементами Tesla являются: графический процессор GeForce восьмой серии, набор логики от адаптера для обработки графики Quadro FX 5600 и 1,35 гигабайта графической памяти. Адаптер Tesla не имеет выходов на монитор, и предназначен исключительно для повышения производительности системы и выполнения сложных вычислений без участия центрального процессора. Устройство подключается к компьютеру посредством разъема PCI-Express и требует дополнительного питания.


Вставил платку в разьем... добавил БП помощнее...
ну конечно когда подешевеет чуток. :)

DVDshnik
29-06-2007, 11:22
Imho, ПК с разъёмом PCI-E не такие уж и старые.

Kirill_S
29-06-2007, 12:11
Ну и они когда-нибудь устареют... и к тому моменту и девайс подешевеет...
(мечты :))
А сама идея хороша...Некая хрень вставляется в слот (тип не уточняем...)и в результате супер пк на "простом" железе.

Coutty
29-06-2007, 13:50
Нее... Вряд ли домашнему пользователю это грозит.
Это ж надо специально программы переписывать с использованием CUDA SDK. Иначе - обломайтесь, пожалуйста.
А раз так - вспоминаем вхождение 64-битности в народ. Много ли за 4 года в этом направлении подвинули?

alibaster
29-06-2007, 15:10
Вот в обычном PCI эта плата явно б не помешала 486му переварить сталкера =))))) Мне кажется это очередно мертворожденный проект-задумка_

SanCho
29-06-2007, 19:51
Было бы интереснее, если бы для математических расчётов использовалось встроенное видео чипсета - был бы бесплатный бонус от покупки дискретной карты. Ребёнок родился мёртвым - никто не будет переписывать ПО под эту технологию, а те люди, которые занимаются серьёзными расчётами не имееют проблем связанных с недостаточной мощностью ПК. Вернее недостаточной настолько, чтобы заинтересоваться этой технологией и перекомпилировать ПО под CUDA. Технология поднимется, если найдётся способ получить бонус производительности без специальной заточки ПО, просто поставив драйвера. А так... Кто помнить сейчас о Hyper-Threading?

CyberDaemon
29-06-2007, 21:59
Было бы интереснее, если бы для математических расчётов использовалось встроенное видео чипсета
Жили-были в свое время мамки...
И были на этих мамках дополнительные панельки под особые микросхемки...
И можно было в эту панельку воткнуть сопроцессор.
Математический.
И звались эти сопроцессоры 8087 и 80287...
А потом математические сопроцессоры поселились в кристалле основного...
История развивается по спирали? Теперь сопроцессор можно втыкнуть в PCI-Express?
:)

Coutty
29-06-2007, 22:07
CyberDaemon, можно. А потом его опять интегрируют в процессор.
Fusion к 2009 году?)

CyberDaemon
29-06-2007, 22:37
к 2009 годуДо 09 осталось два года... Не успеют :)

SanCho
30-06-2007, 00:14
Давайте представим: полупроводники исчерпывают свой потенциал и делать "всё-в-одном" не выходит чисто по техническим причинам. И они тогда начнут заново разбирать CPU на части. Опять появятся два сокета на мамке (процессор и сопроцессор), кеш отдельным чипом. Мы это видим на примере GeForce 8800 - RAMDAC не смогли влепить в чип - сделали отдельно. А вот если тех. прогресс так и будет шагать семимильными шагами, то мы наверняка увидим GPU интегрированные в CPU - на данный момент вся индустрия шагает в сторону интеграции. Куда это заведёт? Непонятно. Реально ещё применение двухядерникам не нашли на 100%, а уже клепают 4-ёх. Кому? Куда? Ладно... Флейм..

Diseased Head
30-06-2007, 01:19
Нее... Вряд ли домашнему пользователю это грозит.Согласен. Да там и сказано что это для высокопроизводительных систем обработки данных...


Математический.
И звались эти сопроцессоры 8087 и 80287...Тогда была немного другая ситуация. А это не совсем похоже на сопроцессор.
...использовалось встроенное видео чипсета...Ведь графическая карта имеет собственный процессор, (внутреннюю) шину и память (немалую). И даже свой BIOS. Подозреваю что она может, автономно, выполнять целый набор задач. Хотя встроенное тоже было не плохим подспорьем.


аналогичен 40 стандартным х86 процессорам.B что они подразумевают под стандартным?
Вобще интересно что было-бы лучше этот D870 Deskside Supercomputer, или какой нить двухпроцессорный комп, с процами Core 2 Quatro да ещё и с RAM-диском.

IMHO. Вобще-то я думаю что будущее за многопроцессорностью (паралельными вычислениями: графика, звук, диски, память, ввод, вывод и пр.). Потому как, ВСЁ интегрировать в одну микросхему очень проблематично (если не придумают новых технологий).




© OSzone.net 2001-2012