Показать полную графическую версию : Quadro и GTX в одном компьютере
В разговоре с одним приятелем всплыл факт что для 10-ти битных мониторов нужна проф. видеокарта. Гугл выдал интересную статью (http://www.efxi.ru/more/quadro_plus_geforce.html). Но после неё остаются вопросы.
1. Как я понял пара может быть любая, чипы не обязательно одинаковые и это не SLI?
2. C CUDA всё понятно, а как быть с играми? Нужно ли переключать кабель монитора в видеокарту в зависимости от деятельности, работаешь - втыкаешь в квадру, хочешь поиграть переключаешь в печ?
3. Имеет ли вообще это смысл? Например связка quadro k2200 + gtx 970, да за эту цену можно титан х взять, неужели у него нет поддержки 10-ти битных мониторов? Или то специально чтобы профи брали проф. карты?
Не по этой ли причине в iMac 5k поставили радеон, т.к. он поддерживает 10-ти битные мониторы?
разговоре с одним приятелем всплыл факт что для 10-ти битных мониторов нужна проф »
Этот факт чем-то кроме слов приятеля подтвержден?
Этот факт чем-то кроме слов приятеля подтвержден? »
Спеками на офсайте.
slewnut, Ссылку киньте. »
Quadro K420 (http://images.nvidia.com/content/quadro/product-literature/data-sheets/13720_DS_NV_Quadro_K420_Aug25_US_NV_HR.pdf), чтобы не было следующего вопроса «Укажите на абзац» ищите строку «DisplayPort 1.2 support for ultra-high
resolutions like 3840x2160 @ 60 Hz with 30-bit color», у GTX об этом молчат, стало быть там стандартные 8bit. Учитывая что тем по этому вопросу полно и везде вывод один - дальнейшее обсуждение считаю бессмысленным, разве что вы приведёте доказательство обратного, мне бы было интересно. И посмею все же напомнить, что здесь обсуждаются не 10bit, а работа Quadro и GTX в одном ящике.
UPD.
Вот на официальном ресурсе ответ (http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus).
Еще UPD.
Я умышленно молчу про AMD т.к. не пользуюсь этой продукцией.
Вот на официальном ресурсе ответ. »
Из далекого 2011. Много воды утекло с тех пор.
И посмею все же напомнить, что здесь обсуждаются не 10bit, а работа Quadro и GTX в одном ящике. »
Суть в том, что если обычные карты поддерживают тот самый 10бит режим, то зачем квадру брать?
Но если и так - то в любом случае кабелем играться придется, или КВМ ставить
К слову - у вас точно монитор 10 бит, а не, скажем, псевдо 10 бbт?
К слову - у вас точно монитор 10 бит, а не, скажем, псевдо 10 бbт? »
Да что вы к этим битам прицепились. Я не говорил что у меня 10bit, у меня простые LG - я программист, для меня главное чтобы для глаз было наименее вредно.))) Я бы с удовольствием сам проверил, но для эксперимента мне не хватает 10-ти битного монитора и второго PCIe16 на мамке. Было бы время нашел бы, но зачем, ведь есть такой замечательный форум на котором можно задать такой академический вопрос. Перефразирую. Есть сферический дизайнер который сидит за 10-ти битным монитором который воткнут в квадру. И горя себе не знает. И тут он думает: «Вот выходит Фоллаут 4, поиграть-то хотся, а можно ли я куплю себе жифорс и воткну рядом с квадрой, какие проблемы я при этом испытаю, системник то хрен знает где под столом, каждый раз видяшку менять западло».
для меня главное чтобы для глаз было наименее вредно. »
Глазам вредит ШИ модуляция, и неправильная работа за монитором, но не биты или частота обновления.
Глазам вредит ШИ модуляция, и неправильная работа за монитором, но не биты или частота обновления. »
А еще есть понятие «подобрать под себя».))) В любом случае я не писал что биты вредят, а про частоту обновления даже не вспоминал.)
DVDshnik
03-11-2015, 06:26
Хм, глаза портятся от простого сидения за монитором, даже если бы этот сферический монитор был бы только из суперэкологически чистой бумаги, отображающей сто миллиардов цветов на один бит.
Жить вообще вредно, а монитор - совсем не самый большой источник опасности для программиста. Гораздо вреднее многочасовое неподвижное сидение за столом.
Хм, глаза портятся от простого сидения за монитором, даже если бы этот сферический монитор был бы только из суперэкологически чистой бумаги, отображающей сто миллиардов цветов на один бит.
Жить вообще вредно, а монитор - совсем не самый большой источник опасности для программиста. Гораздо вреднее многочасовое неподвижное сидение за столом. »
Жить вообще вредно, опасности на каждом шагу.)
slewnut, Начиная с 200 серии NVIDIA поддерживает 10 бит (http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus)
© OSzone.net 2001-2012
vBulletin v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.