PDA

Показать полную графическую версию : [решено] Что конкретно убило видеокарту?


iEnemY
14-02-2013, 22:37
Вердикт: R.I.P.


Добрый день.

Вопрос такой. Давным давно, около 4-5 лет назад, была видеокарта ECS NVidia GeForce GTS250 (http://www.ecs.com.tw/ECSWebSite/Product/Product_Detail.aspx?DetailID=1105&CategoryID=5&DetailName=Feature&MenuID=25&LanID=8). Грелась. Сильно, прогревала весь корпус. После GT 9500 компутер к такому не был готов.
Были куплены корпусныые кулеры Zalman F2, F3, установлены для продува, а так же был куплен кулер Zalman GV1000, и установлен на GPU, с ручной регулировкой, и жила она так около 1-2 лет.
Далее, после смены мат. платы, и обновления охлаждения корпуса, оказалось, что свободных 3pin разъёмов на мат. платы попросту нет, и я решил подключить GV1000 кулер напрямую в 4pin разъём питания видеокарты. Снял узкий 4pin переходник с разъёмов, посмотрел порядок проводов (GRND и 12+V были поменяны местами). Вроде бы был GRND/12V/RPM/PWM.
Соответственно воткнул туда 3pin от GV1000, выломав (пригнув) 4 штырь (PWM, как бы авто контроль оборотов кулера, уже был ненужен). RPM, опять же, тоже не влез, так что были подключены лишь GRND и 12V.
Всё было отлично, работало как надо, но... после очередного обновления системы и пере-собирания начинки корпуса, я... немного промахнулся, и 12V разъём был подключён в RPM (как то так, уже не помню).
Что, разумеется, сильно повредило видеокарту, но не убило целиком. Она работала. Да, иногда просто переставал на 1-3 сек передаваться сигнал на монитор, когда слишком быстро что-то происходило на экране.
Так же, иногда (или всегда, за 1 час использования закономерности не заметил) всё обильно было покрыто артефактами, белыми полосами, etc.
Да, согласен, я сам виноват, сам дурак, запорол видеокарту. Но это было так давно, что уже всё равно, не сожалею - так бы не перешёл на что-то по солиднее.

Так вот, следующие вопросы касательно видеокарты (да, могут быть глупыми, сразу извиняюсь):
Что же с ней произошло? Погорели модули памяти, процессор повреждён, конденсаторы накрылись (понятия не имею что, честно)?
Поддается ли ремонту? Слышал, про прожаривание видеокарты в духовке, но я не уверен что тут что то отпаялось, так что это сомнительно.
Если можно починить, или как то ограничить повреждённые части/блоки, сколько проживёт? Будет ли работать, если к ней не подключать монитор?
Совсем глупый вопрос - с ещё одной GTS250 она в SLI будет работать...? Сколько % мощности может дать? 1-5%?

Вот старое не качественное фото как был подключён кулер (http://ienemy.ru/img/hw/old_gpu.jpg)



Через день после выхода из строя видеокарты, я купил GT 440. Которую "выкинул" через неделю - хрень редкостная. И купил GTX 550. Потом ещё одну. Не жалею что потерял эту (GTS250) видеокарту, но что без дела лежит - может, из неё можно что-то выжать (хотя сомневаюсь)?

WSonic
14-02-2013, 22:52
Что конкретно убило видеокарту? »
Кривые руки, голимый производитель, перегрев, частичный отвал видеопроцессора, плохой БП.

Поддается ли ремонту? Слышал, про прожаривание видеокарты в духовке, но я не уверен что тут что то отпаялось, так что это сомнительно. »
Иногда помогает, на месяц-два, иногда добивает до конца...

Совсем глупый вопрос - с ещё одной GTS250 она в SLI будет работать...? »
Действительно! Совсем глупый. Карта умерла!

iEnemY
14-02-2013, 23:09
Кривые руки »
Ну, это скорее вполне очевидный факт... но, на ошибках же учатся, верно?

голимый производитель »
Безусловно. Но, когда то их уважал.

перегрев »
Ну... нет. Температура самой видеокарты ниразу не дошла до крита, конкретно "прибила" её подача напрежения не туда. Я так думаю.

частичный отвал видеопроцессора »
Тут уж точно на выкид, да?

иногда добивает до конца »
Ну, это, как я понял, если положить её вверх ногами, что бы всё к чертям отпаялось, или забыть/поленится изолировать/отпаять кондеры.

Действительно! Совсем глупый. Карта умерла! »
Ну... не до конца же умерла, верно...? Работает... как бы... Вот, помню, в деревне монитор натурально "убил" видеокарту вместе с слотом на мат плате (старый ЭЛЧ монитор неизвестного происхождения). Какая то ATI была. Так она вообще не включалась. Но тут заменили по гарантии. Да и стояла она каких то 1000 рублей, ниочём. А на эту суммарно ушло 7к рублей (сама стоила 4500, блок питания 1000 на 450W (до сих пор работал, месяц назад сменил из-за необходимости в SLI), плюс охлаждение (топовое по тем временам!) на 2к).

WSonic
14-02-2013, 23:21
Работает... как бы... »
Ключевое слово - как бы! Вот и SLI будет "как бы" работать, с артефактами и сбросом видеодрайвера.

iEnemY
14-02-2013, 23:31
будет работать с артефактами и сбросом видеодрайвера»

О как. Но я думал тут сдох лишь D-Sub/DVI слот (ведь драйвер не вырубался. BSoD'ов небыло. Были помехи\арты передававшиеся на монитор. А в SLI - монитор будет подключён не в неё).

Такое, опять же, бывало. В далёкой молодости я подключил что-то на подобие ATI 9550 PRO через S-Video выход в DVD/Mp3 муз. центр, который по SCART был подключён к ЭЛЧ телевизору. Ну чтож, на 3 секунды я увидел 640х480 Ч/Б картинку рабочего стола, а потом всё, сервисный центр, дня 3 без компа, и... видеокарту починили. Как бы починили. Не работал VGA (D-Sub) разъём, а по DVI (конечно же, потом на D-Sub переходник) к монитору картинка шла. Но только когда загружалась винда - во время загрузки из биоса был чёрный экран.

Вот я и думаю, если порты видяхе не нужно задействовать, она будет/сможет использовать всё остальное? Так как в GPU-Z'e она определялась нормально, частоты и напряжения вроде бы были в норме (давно было, но что то такое помню).

WSonic
14-02-2013, 23:41
А в SLI - монитор будет подключён не в неё). »
Но работают то они в паре. Куда денутся артефакты?

iEnemY
14-02-2013, 23:45
Разве 1ая видеокарта не будет посылать на обработку данные на 2ую видеокарту, и после обработки отсылать обратно на 1ую, а та уже выводить на монитор (или CPU посылает данные на 1ую и 2ую, а уже потом переводит с 2ой на 1ую для вывода на дисплей)? Или же, как раз таки во время обработки артефакты и будут генерироваться? К примеру, артефакты не всегда можно заскриншотить (или не отображаются на скринах), но на экране есть. По этому, я думал что косяк с выводом из видяхи изображения на монитор. Но выводить то будет не она... хм...
Т.е. не стоит даже и пробовать включать их в SLI?

WSonic
14-02-2013, 23:49
Или же, как раз таки во время обработки артефакты и будут генерироваться »
Да.

К примеру, артефакты не всегда можно заскриншотить »
Если их источник видеокарта, то заскринить можно. Если монитор, или кабель (то-есть источник после видеокарты) то скиншотить не получится.

Т.е. не стоит даже и пробовать включать их в SLI? »
У вас валяется и вторая 250??? Если да - пробуйте, если нет и планируете покупку - откажитесь от этой идеи.

iEnemY
15-02-2013, 00:00
У вас валяется и вторая 250??? Если да - пробуйте, если нет и планируете покупку - откажитесь от этой идеи. »

Есть возможность не очень дорого купить комп с SLI на древнюшей китайской мат плате (BIO чтототам, хрень какая то), вместе с GTS 250. Вот и было бы - две GTS 250. Комп думал покупать на замену одной из 6 машин. Вот, думал, может получится вот такой вот извращенческий вариант с SLI. Может просто отдать эту... ммм... видеокарту владельцу того компьютера, вдруг повезёт.

Ну, раз генерация идёт из-за ошибок работы проца\памяти на повреждённой GTS 250, и они будут подаваться на дисплей - тогда вся затея бессмысленна. А покупать ещё одну GTS250... хоть сейчас уже и стоит копейки (и хрен найдёш!)... но, думаю, оно того не стоит.

Ремонт тут невозможен, верно?


И ещё оффтоп вопрос: будут ли (адекватно) работать в SLI GTX 550 и GTS 650? Конечно же, битность разная, частоты разные. Но...?

Mr.Benq
15-02-2013, 00:03
будут ли (адекватно) работать в SLI GTX 550 и GTS 650? »
нет,карты должны быть одинаковыми в названии

iEnemY
15-02-2013, 00:11
нет,карты должны быть одинаковыми в названии »

Значит, и 250 с 550 работать не будет. Спасибо.

Так. У меня на мат. плате 3 слота под видео, если я воткну эту 250 в 3тий, смогу ли я её тестировать не включая в неё монитор? И как то вообще смотреть на её работоспособность\гонять тесты, не включая между ними SLI?

Кстати, что это (http://ienemy.ru/img/hw/gpu_001.JPG)? Вот тут (http://ienemy.ru/img/hw/gpu_002.JPG) с другой стороны видно. Хм, может быть грязь.. но не оттирается...

Mr.Benq
15-02-2013, 00:13
У меня на мат. плате 3 слота под видео, если я воткну эту 250 в 3тий, смогу ли я её тестировать не включая в неё монитор? »
Нет
И как то вообще смотреть на её работоспособность\гонять тесты, не включая между ними SLI? »
Никак,разве что вырубить SLI,вытащить все карты,а эту вставит и гонять в одиночном режиме

iEnemY
15-02-2013, 00:17
гонять в одиночном режиме »

Эх, тогда то я гарантированно буду любоваться на артифакты. Хотя, возможно, в это время она будет "функционировать" - я тогда даже ни одну игру не мог запустить, так как... сцены с большим кол-вом фпс... сигнал на монитор отрубается... нихрена не видно... в логи писать? Хм... вариант...

Mr.Benq
15-02-2013, 00:38
iEnemY, не мучайте вы себя и видеокарту,она уже не жилец.

iEnemY
15-02-2013, 00:47
Mr.Benq, да вот, попалась под руку, вспомнил, решил попытать счастья. А вдруг...

Ладно, спасибо всем что уделили время, думаю тему можно закрывать.

Пойду разберу её на запчасти... там мини-радиаторы очень интересные, вдруг куда пристрою.

Кулер от GV1000 кстати уже давно пристроил на старую GT 6600 (http://ienemy.ru/img/hw/gt6600.jpg) на которой родной "погиб" после ~5 лет службы. Правда, этого 4к RPM монстра пришлось ослабить до 2к на постоянной основе - 55 градусов при полной нагрузке (NFS UG2), с новым радиатором (снял с какой-то GeForce MX 220 (очень, очень древняя), а на MX 440 я даже играл когда-то) и AC MX-2 термопастой. Получилась 200 рублёвая видеокарта (её золотая цена) с кулером за ~900 рублей... смешно...




© OSzone.net 2001-2012