![]() |
Выключается монитор во время игры Bioshock Infinite
Вложений: 1
Здравствуйте. Собственно ума не приложу где спрятана проблема. Абсолютно новое железо, чистая ОС (сборка без всяких наворотов, в комментариях проблему не находил). После примерно 40 (а то и меньше) минут игры в Bioshock Infinite выключается монитор, пк продолжает работать, звук в игре слышен, клавиатура не реагирует. Точно такая же проблема наблюдалась в игре Dragon Age Inquisition, но там впоследствии обнаружились различные проблемы у людей, скачавших конкретный репак. Последняя была удалена, система полностью проверена на вирусы Avast IS.
По факту такое наблюдалось при стандартной частоте процессора/оперативной памяти/видеокарты. Далее компоненты были разогнаны в приложении AI Suite 3 в щадящем режиме, т.е. автоматически "5 way optimization". Что удивительно, проблема с отключением монитора не наблюдается в CS:GO и Dota 2 (везде настройки на ультра). Может это антипиратская фича? :) Лог HWMonitor: В режиме простоя Default.txt Хотел было приложить еще лог с запущенным Bioshock, но он перестал запускаться :( слабо верится, что попался два раза на некачественный релиз. Т.к. вчера целый день проблем с Bioshock не было. Не понимаю вообще ничерта. |
Цитата:
|
WSonic сейчас так и сделаю, но повторюсь, что такое повторялось без всякого разгона в Dragon Age Inquisition
|
Цитата:
|
Цитата:
Если проблема останется - то нужна комплексная диагностика, но учитывая, что ПК у вас с редкими в бытовом обиходе железками, то проверить можно только видеокарту, да биос платы обновить. Все остальное нужно сдавать в сервис для диагностики. |
Цитата:
|
Что вы посоветуете по поводу входящего в комплект к мат. плате приложения AI Suite 3 ? Вообще удалить? Там помимо настроек разгона, управление питанием, обороты кулера регулируются. Думал приложению от изготовителя мат. платы можно доверять, хм. Запустил биошок, минут 5 подождал, HWMonitor показывает температуру матери 46, процессора 56, ssd 26, видеокарта 78 (по цельсию везде). Это нормально или видеокарта перегревается уже?
|
Цитата:
Цитата:
Цитата:
|
Цитата:
|
Корпус Fractal Design Define R4, родные 140мм вентилятора, один фронтальный, другой тыловый. Кулер процессора Deepcool Assasin. Возможно необходим дополнительный боковой, т.к. на ощупь стенка достаточно теплая. Однако раз показатели температуры в норме, не должно же выключатся тогда.
|
Цитата:
|
alex_andor,
Скрытый текст
![]() |
Железякин, по факту отключения в игре открыть боковую крышку и проверить эмпирически температуру стенок БП - боковых, особенно задней - может, греется именно он и срабатывает защита.
|
Хм у меня на ssd нет температуры-в кристале.
|
Большое спасибо всем за внимание, приятно, что хоть что-то можно проверить.
Еще есть вопрос касательно питания видеокарты, есть ли различие как подключать, например сдвоенным PCI-E (два коннектора по 8-pin) из общего стека, или отдельно подцепить, скажем, один 8-pin из общего, а другой отдельный провод на рисунке к розовому слоту (т.е. будет два независимых провода)? Скрытый текст
![]() |
Железякин, Тоже карта не в первом слоте?! Чо так?
Цитата:
|
WSonic, смотрите, что я имею ввиду. Можно подключить два разъема видеокарты этим проводом:
Скрытый текст
Либо использовать один разъем этого провода + другой разъем от другого провода (например аналогичный имеется у меня, который идет из общего отдела). Если разницы нет, тогда можно просто уменьшить количество проводов. В мануале о таком ни слова. В первый слот никак не получается, т.к. кулер процессора его закрывает. Если только убрать один вентилятор, и то будет расстояние от радиатора очень маленькое. |
Цитата:
![]() Цитата:
|
Означает ли это, что видеокарта работает в x8 режиме вместо x16?
Скрытый текст
![]() Если это так, боже, не могут ли они не привязывать это к 1 слоту :( |
Цитата:
|
Удалил AI Suite 3, сбросил настройки биоса на стандартные, подцепил видеокарту к PCIe x16_slot1 (первый слот). Теперь GPU-z показывает использование шины x16, на 3 слоте было x8 (реально очень непонятна привязка именно к первому слоту...). Посмотрю день-два, будут ли продолжаться выключения монитора.
Чтобы не создавать новые темы, задам вопросы здесь. 1) Что это за такой 3-pin коннектор (под черным CPU_FAN), для датчика какого? В мануале к мат. плате вообще не отмечен. http://imgur.com/Isxg4XB 2) Как посоветуете организовать охлаждение в кейсе Fractal Desing Define R4 http://imgur.com/pXgKpkw Такое ощущение, что вентиляторы кулера Deepcool Assassin выдувают с радиатора, в сторону верхней крышки. Нормально ли это для видеокарты, которая расположена очень близко? Большое спасибо всем за помощь! |
Цитата:
Цитата:
|
WSonic,
Изначально верхний вентилятор был снизу и закрывал первый PCI слот, теперь я развернул оба вентилятора и поставил тот сверху. Вот поэтому и интересует, что можно сделать, если судить, что видеокарта только на 1 слоте работает в x16 3.0 режиме. |
После всех манипуляций в итоге: случилось выключение монитора в том же месте, что и предыдущий раз в Биошоке. До этого я запустил его, ушел в магазин на минут 15, все отлично, температура видеокарты была в районе 60 градусов (удивительно, при таком расположении еще и температура ниже). Такой ерунды не замечаю в CS:GO, Dota 2 - настройки тоже на ультра, сильно сомневаюсь, что эти приложения не вызывали бы похожей проблемы. Проблема с самой игрой? Думаю протестировать в каком benchmark'e. Если монитор не погаснет, тогда все ясно.
Запустил тест First Strike (простой, не extreme) в последней версии 3DMARK. На сцене убийства каким-то чудищем другого чудища монитор выключился. Нести в сервисный центр видимо придется. Посоветуйте еще пожалуйста программу для теста температуры видеокарты, чтобы автоматически логи фиксировались. Может в момент выключения там резкий скачок какой. Нашел вроде как проблему (но проверять все равно надо на дистанции) - кривой стандартный разгон видеокарты. Я вообще ничего не трогал, но она была в заявленном режиме boost 928 МГц и отключалась. Понизил до 876 МГц через ASUS GPU Tweak, прошел полностью тесты в 3DMARK First Strike и First Strike Extreme. Обидно, что заявленный режим boost выключает ее, все-таки за такую сумму заявленные характеристики должны поддерживаться. |
Цитата:
|
Время: 02:14. |
Время: 02:14.
© OSzone.net 2001-