Ставить одну более новую или две старые видеокарты?

Ставить одну более новую или две старые видеокарты?

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер. Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах: Ставить одну более новую или две старые видеокарты? Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

  • Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное
  • Третий миф. От разгона видеокарты сгорают
  • Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика. При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты. Ставить одну более новую или две старые видеокарты? Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение. Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:  Ставить одну более новую или две старые видеокарты? С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину. Ставить одну более новую или две старые видеокарты? Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.  Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой: Ставить одну более новую или две старые видеокарты?

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.  Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.  На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Ставить одну более новую или две старые видеокарты? Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Читайте также:  Функция модуль эксель (excel) — инструкция как пользоваться

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет: Ставить одну более новую или две старые видеокарты?

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12. Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в х.

Источник: https://www.iguides.ru/main/other/15_mifov_o_videokartakh_pro_kotorye_pora_zabyt/

Две средние видеокарты вместо одной топовой

Если судить по тестам современных адаптеров с двумя топовыми GPU (Radeon HD 7990, GeForce GTX 690) либо аналогичных конфигураций на базе отдельных карточек, технологии NVIDIA SLI и AMD CrossFireX в целом преодолели период мучительного взросления.

Во многих играх двухпроцессорная система демонстрирует почти двукратное преимущество над таким же одиночным GPU, а в прочих вполне можно рассчитывать на бонус в пределах 50–70%. По крайней мере именно так обстоят дела среди игр категории ААА.

Менее популярные игрушки обычно ускользают от внимания IT-изданий, и насколько хорошо их оптимизируют под SLI и CrossFireX, судить не беремся.

Кроме того, в целом оптимистичную картину портят неудачи в отдельных играх, где либо производительность все-таки плохо масштабируется, либо разработчики питают пристрастие к одной из конкурирующих технологий, игнорируя другую.

В целом видеокарты с двумя GPU уже доказали право на существование на самом верху модельных рядов NVIDIA и AMD. Между тем разъемы SLI и CrossFireX теперь устанавливают даже на слабенькие по меркам геймеров адаптеры вроде Radeon HD 7770 и GeForce GTX 650 Ti BOOST.

И каждый раз, когда в руки попадает очередная дешёвая видеокарта с поддержкой SLI или CrossFireX, возникает желание проверить — а как себя ведет пара таких малышек? С одной стороны, интерес чисто академический.

Процессоры в геймерских видеокартах младшего эшелона по числу функциональных блоков представляют собой приблизительно половинки от топовых GPU.

Вот вам еще один способ протестировать эффективность технологий, распараллеливающих вычислительную нагрузку между двумя GPU, — попытаться получить из двух половинок производительность, близкую к 100% результата топового процессора.

⇡#А оно нам надо?

Но попробуем найти в таком эксперименте и долю практической пользы. В теории тандем слабых видеокарт может стать более выгодной покупкой, чем один топовый адаптер.

Старшими моделями AMD ныне являются бессменный Radeon HD 7970 и его разогнанный собрат HD 7970 GHz Edition. Среди продукции NVIDIA аналогичной парочкой можно считать GeForce GTX 680 и GTX 770.

Ну а на роль их приблизительных половинок подходят Radeon HD 7790 и HD 7850 (для AMD), GTX 650 Ti BOOST и GTX 660 (для NVIDIA).

Сопоставим розничные цены этих моделей. Radeon HD 7790 со стандартным объемом памяти 1 Гбайт в московских интернет-магазинах можно купить за сумму от 4 100 рублей, HD 7850 2 Гбайт — за 4 800 рублей. В то же время Radeon HD 7970 продается по цене от 9 800 рублей, что лишь на 200 рублей дороже, чем пара HD 7850. Но вот HD 7970 GHz Edition уже трудно найти менее чем за 14 000 рублей.

Таким образом, CrossFireX на двух недорогих карточках AMD кажется сомнительной затеей хотя бы потому, что Radeon HD 7850, хоть и является половинкой HD 7970 по числу активных вычислительных блоков в GPU, существенно уступает последнему по тактовой частоте ядра и памяти.

HD 7790 крутит процессор на частоте 1 ГГц, что отчасти компенсирует его более скромную конфигурацию по сравнению с HD 7850, но слабым местом HD 7790 является 128-битная шина памяти, а главное — её объем в 1 Гбайт, что обязательно скажется на производительности в тяжелых графических режимах (а именно для них мы и собираем такой тандем).

С точки зрения чистого эксперимента, не обремененного финансовыми соображениями, по конфигурации вычислительных блоков и частоты GPU совокупная мощь пары младших адаптеров AMD, способных работать в режиме CrossFireX (Radeon HD 7770 в расчет не берем, сборка из двух таких — это было бы совсем нелепо), немного не достает до флагманской отметки. Не будем забывать это обстоятельство, обсуждая результаты бенчмарков. Впрочем, в пользу пары HD 7850 играет 256-битная шина памяти — то, что NVIDIA не может предложить в этом ценовом сегменте.

Модель Radeon HD 7790 Radeon HD 7850 HD 7970 HD 7970 GHz Edition
Основные компоненты
GPU Bonaire Pitcairn Pro Tahiti XT Tahiti XT
Число транзисторов, млн 2080 2800 4313 4313
Техпроцесс, нм 28 28 28 28
Тактовая частота GPU, МГц: Base Clock / Boost Clock 1000/НД 860/НД 925/НД 1000/1050
Потоковые процессоры 896 1024 2048 2048
Текстурные блоки 56 64 128 128
ROP 16 32 32 32
Видеопамять: тип, объем, Мбайт GDDR5, 1024 GDDR5, 2048 GDDR5, 3072 GDDR5, 3072
Ширина шины памяти, бит 128 256 384 384
Тактовая частота памяти: реальная (эффективная), МГц 1500 (6000) 1200 (4800) 1375 (5500) 1500 (6000)
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2 1 х DL DVI-I, 1 x HDMI 1.4a, 2 x Mini DisplayPort 1.2
Макс. разрешение VGA: 2048×1536, DVI: 2560×1600, HDMI: 4096х2160, DP: 4096х2160
Типичная потребляемая мощность, Вт 85 130 250 250+
Средняя розничная цена, руб. 4 100 4 800 9 800 14 000

Расклад цен среди видеокарт NVIDIA более благоприятен для сборки тандема из двух SKU небольшой производительности по сравнению с единственным мощным адаптером. GeForce GTX 650 Ti BOOST можно купить по цене начиная с 5 200 рублей, GeForce GTX 660 — за 5 800 рублей.

Обе — с двумя гигабайтами набортной памяти. В то же время цены на GeForce GTX 680 и новоприбывший GTX 770, который является фактически обновленной версией GTX 680, начинаются с 13 000 рублей.

По спецификациям GTX 650 Ti BOOST — самый младший графический ускоритель в ассортименте NVIDIA, поддерживающий SLI, — соответствует половинке GTX 680 (GTX 770) и даже располагает большим числом ROP, только работает на более низких частотах.

GTX 660, при равной с GTX 650 Ti BOOST частоте, более плотно укомплектован ядрами CUDA и текстурными блоками. Обе модели обременяет относительно узкая 192-битная шина памяти.

Модель GeForce GTX 650 Ti BOOST GeForce GTX 660 GTX 680 GTX 770
Основные компоненты
GPU GK106 GK106 GK104 GK104
Число транзисторов, млн 2 540 2 540 3 540 3 540
Техпроцесс, нм 28 28 28 28
Тактовая частота GPU, МГц: Base Clock / Boost Clock 980/1033 980/1033 1006/1058 1046/1085
Потоковые процессоры 768 960 1536 1536
Текстурные блоки 64 80 128 128
ROP 24 24 32 32
Видеопамять: тип, объем, Мбайт GDDR5, 1024/2048 GDDR5, 2048 GDDR5, 2048 GDDR5, 2048
Ширина шины памяти, бит 1502 (6008) 1502 (6008) 1502 (6008) 1753 (7010)
Тактовая частота памяти: реальная (эффективная), МГц 192 192 256 256
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2
Макс. разрешение
Типичная потребляемая мощность, Вт 140 140 195 230
Средняя розничная цена, руб. 5 200 5 800 13 000 13 000

⇡#Обманчивые гигабайты

Существенную проблему в любых конфигурациях с множественными GPU составляет объем памяти видеоадаптеров. Дело в том, что ОЗУ индивидуальных видеокарт не складывается в один большой массив. Вместо этого их содержимое дублируется.

Таким образом, даже если совокупная вычислительная способность двух «обрезанных» GPU сопоставима с мощью единственного флагманского ядра, тандем располагает кадровым буфером в размере памяти одной карты. А тяжелые графические режимы, знаете ли, бывают чрезвычайно требовательными к объему памяти.

Возьмем игры, известные своей жаждой дополнительных мегабайтов, которые мы используем в качестве бенчмарков. Metro 2033 при разрешении 2560х1440 с максимальными настройками оккупирует до 1,5 Гбайт RAM, Far Cry 3 — 1,7, а Crysis 3 — почти 2 Гбайт.

Ну а поскольку именно для таких игр и таких настроек мы и готовы прибегнуть к столь странному решению, как две относительно бюджетные карты в конфигурации SLI/CrossFireX, то видеоадаптеры с объемом RAM меньше 2 Гбайт нам подходят плохо.

В этом плане немного больше повезло продуктам NVIDIA, поскольку даже GeForce GTX 650 Ti BOOST, согласно официальным спецификациям, поставляется в разновидности с 2 Гбайт памяти, не говоря уж о GTX 660.

Кроме того, даже GTX 680 имеет не больше памяти (только для GTX 770 допустимы версии с 4 Гбайт GDDR 5).

Radeon HD 7790 задуман как адаптер исключительно с 1 Гбайт памяти, хотя партнеры AMD и производят модели с удвоенным кадровым буфером по собственной инициативе.

Версия HD 7850 с 1 Гбайт памяти в связи с появлением HD 7790, напротив, официально прекратила существование.

И главное, флагман-то, Radeon HD 7970 GHz Edition, комплектуется 3 Гбайт памяти — в полтора раза больше, чем у «середнячков» от AMD.

А вообще — прекратим гадать. Честное слово, производительность сборки двух геймерских видеокарт средней категории в SLI или CrossFireX трудно предсказать на основании голой теории. Нужно тестировать, и мы готовы к любым неожиданностям.

Но прежде чем перейти к практической работе, обсудим еще один аспект нашего экзотического проекта — энергопотребление. Если исходить из типичной мощности адаптеров AMD, тандем HD 7850 не должен потреблять намного больше энергии, чем единственный Radeon HD 7970: 2х130 против 250 Вт соответственно.

Сборка HD 7790 еще более экономична: это дважды по 85 Вт.

Сопоставимые по производительности карты NVIDIA более прожорливы. GeForce GTX 650 Ti BOOST и GTX 660 обладают одинаковым TDP — 140 Вт. В паре такие адаптеры намного превосходят GeForce GTX 680 (195 Вт) и даже GTX 770 (230 Вт).

⇡#Участники тестирования

Наша задача — собрать четыре двухпроцессорные конфигурации: на базе GeForce GTX 650 Ti BOOST и GeForce GTX 660, с одной стороны, и на Radeon HD 7790 и HD 7850 — с другой, а затем сравнить их производительность с производительностью мощных адаптеров на одном GPU.

  • 2 x GeForce GTX 660 (980/6008 МГц, 2 Гбайт)
  • 2 x GeForce GTX 650 Ti BOOST (980/6008 МГц, 2 Гбайт)
  • 2 x Radeon HD 7850 (860/4800 МГц, 2 Гбайт)
  • 2 x Radeon HD 7790 (1000/6000 МГц, 1 Гбайт)
Читайте также:  Что делать, если windows 10 не видит жёсткий диск

А эти модели были выбраны в качестве конкурентов:

  • AMD Radeon HD 7970 GHz Edition (1050/6000 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500 МГц, 3 Гбайт)
  • AMD Radeon HD 7950 (800/5000 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 780 (863/6008 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 770 (1046/7012 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 680 (1006/6008 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 670 (915/6008 МГц, 2 Гбайт)

⇡#Участники тестирования, подробно

Большинство из карт в многопроцессорных сборках предоставлены для тестирования партнерами NVIDIA, и отличаются от адаптеров референсного дизайна по тактовым частотам. Для чистоты исследования их пришлось привести к референсным спецификациям. Впрочем, проявляя уважение к труду производителей, ниже кратко перечислим достоинства каждого из участников тестирования.

  • AMD Radeon HD 7850
  • ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)
  • ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)
  • Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)
  • GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)
  • MSI GeForce GTX 660 (N660 TF 2GD5/OC)
  • ZOTAC GeForce GTX 660 (ZT-60901-10M)

ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)

ASUS прислала нам немного разогнанную версию GeForce GTX 650 Ti BOOST 2 Гбайт с базовой частотой ядра, увеличенной на 40 МГц по сравнению с референсной спецификацией.

На плату установлена хорошо знакомая система охлаждения DirectCU II, которая включает тепловые трубки, напрямую контактирующие с кристаллом GPU. Отсюда и название DirectCU.

Вот только, в отличие от более дорогих моделей, в кулере GTX 650 Ti BOOST теплотрубок всего две штуки, а не три.

Ставить одну более новую или две старые видеокарты?

Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)

Gainward также производит разогнанную версию GeForce GTX 650 Ti BOOST с тем отличием от реализации ASUS, что базовая частота GPU увеличена лишь на 26 МГц, зато есть прибавка в 100 МГц к результирующей частоте видеопамяти. Кулер видеокарты также принадлежит к открытому типу и содержит две медные теплотрубки.

Ставить одну более новую или две старые видеокарты?

MSI GeForce GTX 660 (N660 TF 2GD5/OC)

GeForce GTX 660 в исполнении MSI оснащен солидной системой охлаждения Twin Frozr III уже с тремя тепловыми трубками. Базовую тактовую частоту GPU производитель увеличил на 53 МГц относительно референсного значения, не коснувшись частоты видеопамяти.

Ставить одну более новую или две старые видеокарты?

ZOTAC GeForce GTX 660 (ZT-60901-10M)

Эта видеокарта уже засветилась на 3DNews в изначальном тестировании GeForce GTX 660. Имеется небольшой разгон графического процессора: с базовой частоты 980 до 993 МГц. Система охлаждения представляет собой конструкцию открытого типа с двумя тепловыми трубками и медной пластиной в основании.

Ставить одну более новую или две старые видеокарты?

AMD Radeon HD 7850

Это на сто процентов референсный видеоадаптер, предоставленный самой компанией AMD. Соответственно, частоты ядра и памяти с точностью до мегагерца соответствуют эталонным. В отличие от всех остальных участников тестирования, референсный Radeon HD 7850 оснащен турбинным кулером. Радиатор имеет медную подошву и пронизан тремя тепловыми трубками.

Ставить одну более новую или две старые видеокарты?

ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)

Оверклокерская версия Radeon HD 7790 от ASUS разогнана на 75 МГц по частоте процессора и на 400 МГц — по видеопамяти.

В целом GPU производства AMD допускают больший заводской разгон по сравнению с аналогами от NVIDIA. Система охлаждения карты аналогична таковой у вышеописанного ASUS GeForce GTX 650 Ti BOOST DirectCU II OC.

Это упрощенный вариант кулера DirectCU II с двумя тепловыми трубками, прижатыми к кристаллу GPU.

Ставить одну более новую или две старые видеокарты?

GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)

Эта карточка по конфигурации похожа на Radeon HD 7990 от ASUS: GPU работает на такой же частоте 1075 МГц, а вот частота памяти оставлена на уровне стандартных 6000 МГц. Кулер представляет собой простейшую конструкцию, образованную цельным алюминиевым радиатором и большой вертушкой. Ни теплотрубками, ни дополнительной металлической подошвой радиатора адаптер GIGABYTE похвастаться не может.

Ставить одну более новую или две старые видеокарты?

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Источник: https://3dnews.ru/647076

Что дают две видеокарты в компьютере для игр

Самый очевидный способ сделать производительность в играх лучше – купить современную и мощную видеокарту. Если же у вас есть такая видеокарта, следующим шагом будет установка дубликата и их настройка для совместной работы.

Большинство сообразительных пользователей ПК используют дискретные (встроенные) видеокарты.

При этом добавление второй видеокарты и запуск их вместе может привести к значительному повышению производительности даже в самых требовательных играх.

Принцип работы двух видеокарт

Конфигурации графических процессоров с несколькими GPU потребительского класса восходят к 1998 году, когда компания 3dfx Interactive дебютировала с технологией SLI на платформе Voodoo 2.

Технология SLI (Scalable Link Interface) позволяет использовать от двух до четырех видеокарт одновременно в одном компьютере. Это достигается за счет использования алгоритма параллельной обработки, который берет информацию, разбивает ее на более мелкие части и работает с разными частями одновременно с помощью нескольких карт.

В те времена, когда две видеокарты Voodoo 2 были установлены в системе и правильно настроены, каждая карта чередовала четные и нечетные рендеринговые линии. Конечным результатом, как правило, был огромный прирост производительности: частота смены кадров почти вдвое выше, чем у одного Voodoo 2.

Ставить одну более новую или две старые видеокарты?

две видеокарты Voodoo 2

Большинство современных видеокарт от Nvidia и AMD также могут быть объединены для совместной работы, но работают они совсем не так, как Voodoo 2 старых версий.

Современные видеокарты, работающие в конфигурации с несколькими графическими процессорами, обычно визуализируют альтернативные кадры или разделяют кадр по горизонтали (или на плитки).

При этом каждый GPU работает с определенной частью кадра.

Ставить одну более новую или две старые видеокарты?

Причины использования двух видеокарт

Повышение производительности

Основной причиной использования нескольких видеокарт является заметный рост производительности при игре или рендеринге видео. Эта нагрузка распределяется между двумя картами памяти, что высвобождает ресурсы процессора и приводит к увеличению частоты смены кадров. Это также позволяет включить качественные графические настройки для более приятного визуального восприятия игры.

Ставить одну более новую или две старые видеокарты?

Выгодное вложение

С течением времени графические карты устаревают в связи с постоянным развитием новых игр и программных технологий. Кроме того, одна видеокарта не выдержит нагрузки, как две с новыми 3D-приложениями.

Даже если вы решите не устанавливать сразу две видеокарты, наличие такой возможности на материнской плате позволит вам вложиться в новую видеокарту, когда это необходимо, вместо того, чтобы обновлять весь компьютер.

Ставить одну более новую или две старые видеокарты?

Несколько мониторов

Не все видеокарты имеют несколько портов для поддержки более чем одного монитора.

Даже если у вас есть одна видеокарта, поддерживающая несколько мониторов, ресурсы, необходимые для запуска большинства программ, приведут к снижению производительности.

Использование двух видеокарт дает вам возможность использовать несколько мониторов без потери ресурсов, что делает многозадачность проще и позволяет в полной мере использовать преимущества приложений, которые поддерживают несколько мониторов.

Ставить одну более новую или две старые видеокарты?

Недостатки использования двух видеокарт

Использование двух видеокарт имеет свои преимущества, но может быть не лучшим решением для пользователя, который находится на бюджетном уровне, не использует современные 3D-приложения и не редактирует видео. Кроме покупки второй видеокарты, вы должны иметь или приобрести материнскую плату, которая поддерживает несколько видеокарт, а также блок питания, который может питать две карты.

Двойные видеокарты также требуют настольного корпуса, достаточно большого, чтобы вместить оборудование и блок питания, который может работать с несколькими картами. Карты должны быть соединены с помощью мостового разъема, который может быть включен либо в GPU, либо в материнскую плату.

Поддержите проект

Друзья, сайт Netcloud каждый день развивается благодаря вашей поддержке. Мы планируем запустить новые рубрики статей, а также некоторые полезные сервисы. 

У вас есть возможность поддержать проект и внести любую сумму, которую посчитаете нужной.

Источник: https://netclo.ru/chto-dayut-dve-videokarty-v-kompyutere/

Две видеокарты на одном компьютере: технологии NVLink, SLI и CrossFire

Последнее обновление — 12 октября 2019 в 12:46

Две видеокарты установленные на одном компьютере и объединенные при помощи SLI (Scalable Link Interface) от NVIDIA или CrossFire от AMD дают прирост в производительности 15-30%. Очень редко, в зависимости от оптимизации игр, прирост может достигать 50%. Технология AMD CrossFire оптимизирована заметно хуже, чем SLI от NVIDIA.

Дальнейшее развитие параллельного соединения GPU

С выходом нового поколения видеокарт GeForce RTX, NVIDIA анонсировала и новый интерфейс (мост) NVLink для соединения двух графических процессоров для совместной работы. Соединяются они при помощи NVLink BridgeСтавить одну более новую или две старые видеокарты?. Скорость передачи данных по новому интерфейсу по сравнению со SLI выросла в 10 раз. С 10 Гбайт/с до 100 Гбайт/с. NVLink поддерживают только GeForce RTX 2080 и RTX 2080 Ti, модели 2070 и 2060 его лишены.

Судя по моему анализу различных игровых тестов, проведенных с двумя видеокартами последних поколений (2080Ti), новый интерфейс практически во всех современных играх в разрешении 8k (7680 × 4320 точек) дает минимум 40% прирост производительности по сравнению с работай SLI режима на двух 1080Ti. Ниже на изображении я привел результаты одного из таких тестов.

Ставить одну более новую или две старые видеокарты?

Мониторы 8k сейчас еще очень дороги и практическая польза такого теста минимальна, но он хорошо показывает перспективы возможного увеличения применения двух видеокарт в недалеком будущем.

Стоит обратить внимание на результаты тестирования двух RTX 2080. Они значительно хуже его старшего собрата. В игре Rise of the Tomb Raider две 2080Ti в 8k выдают 50fps, а 2080 только 37fps. Это сильное падение производительности. Не думаю, что это связано с недостатком видеопамяти.

Скорее всего, драйвера для распараллеливания графических данных лучше оптимизированы под 2080Ti, так как по своим характеристикам она близка к профессиональным решениям NVIDIA для параллельных вычислений, под которые изначально и разрабатывался новый интерфейс. Более поздние версии драйверов я надеюсь доведут до ума и они будут оптимизированы значительно лучше.

Кстати, NVLink, в отличие от SLI поддерживает объединение видеопамяти обоих видеокарт.

Как установить две видеокарты на ПК

В будущем нам придется очень грамотно планировать покупку компьютера. Если разница в потреблении энергии между 2-мя и 4-мя планками оперативной памяти не значительна, то при установке 2 видеокарт или более нам необходимо будет учитывать их суммарную потребляемую мощность.

На материнской плате должны быть слоты для установки двух видеокарт и с обязательной поддержкой их совместной работы. Чтобы узнать, поддерживает ли материнская плата две видеокарты, перейдите на официальную страницу производителя системной платы и проверьте спецификации. Так же это можно определить по наличию на коробке логотипа Crossfire, SLI или NVLink.

Блок питания также должен обладать достаточной мощностью, чтобы тянуть все железо компа+2 видеокарты. Сейчас для этого необходимо около 900 Вт.

При использовании двух видеокарт, игры становятся процессорозависимыми. Чем выше разрешение вы используете и чем больше даете нагрузку на видеокарту(ы), тем меньше это проявляется. При уменьшении разрешения монитора и уменьшении нагрузки на видеокарт(у)ы, этот эффект уменьшается до его полного исчезновения, так как узким местом становиться видяха, а не центральный процессор.

Для работы с двумя топовыми видеокартами, вам придется раскошелиться и на максимально мощный процессор, иначе все это не имеет смысла.

Читайте также:  Как удалить аккаунт в paypal — подробная инструкция

Должно быть организовано качественное охлаждение всех ваших комплектующих системного блока, так как тепловыделение очень высокое.

Связывайте NVLink только видеокарты выполненные на однотипном графическом процессоре.

Производитель не важен, но важна частота работы GPU, так как при объединении обе видяхи будут работать на меньшей частоте.

Например у нас одна карточка, которая имеет рабочую частоту 1695 Мгц, а другая 1770 Mгц, то в совместном режиме они обе будут работать на 1695 Мгц.  Блин, все точно как у оперативной памяти.

Пара графических карт требует компьютерного корпуса, вместимости которого будет достаточно для установки их и дополнительного оборудования.

В панели управления драйвером графического процессора, должна быть включена функция NVLink, SLI или Crossfire.

Выводы и умозаключения

С выходом NVLink, технологию CrossFire от AMD можно смело хоронить. Она и так была хуже по реализации, чем SLI, а теперь вообще не конкурент. AMD срочно нужно что-то новое придумать, так как технологии совместной работы двух и более видеокарт станут намного производительнее, что повлечет за собой их распространение. Это станет еще одним конкурентным преимуществом.

Я думаю, что параллельная работа двух и более видеокарт будет похожа по развитию на многоядерные процессоры. Технологические процессы изготовления чипов уже настолько малы, что выпускать более сложные микросхемы становиться дорого.

Заметьте рост цен на топовые видеокарты. Я помню еще те времена, когда топовый на то время видеоускоритель ATI Radeon 9700proСтавить одну более новую или две старые видеокарты? стоил 16000 руб (около 500 баксов). Сейчас, даже с учетом роста курса, топовая видяха стоит 1500 долларов.

Сделать многоядерным графический процессор скорее всего не получиться, так как он намного сложнее центрального. Да и с отводом тепла что-то придумывать придется. Проще отладить технологию параллельных вычислений и завести ее качественную поддержку во все игры, а не как сейчас. С выходом следующего поколения видеокарт, будет реально видно, куда будет идти развитие.

Уже можно сказать точно, что поддержки работы двух и более видеокарт не будет в тех моделях, которые по общей стоимости будут равны или дороже топового варианта из их же поколения. Смысла в покупке такого тандема просто не будет (как и сейчас нет).

Лучше будет взять одну топовую видяху, чем два середнячка, а через год-два взять еще одну (уже дешевле) и увеличить производительность на 100%. Как раз к этому времени лучшую оптимизацию подвезут и игры новые появятся для такой производительности.

Сейчас производители обновляют модельный ряд видеокарт примерно каждые 18 месяцев. Скорее всего эти сроки будут

На момент написания статьи положение дел такое, что устанавливать в компьютер две видеокарты имеет смысл только если у вас разрешение монитора 4k и более. Только тогда вы получите прирост скорости в играх. Для меньших разрешений целесообразно купить одну хорошую видеокарту.

В общем пока использование двух видеокарт в компьютере остается уделом богатеньких буратино, и таким останется ближайшие 2-3 года. При примерном подсчете, стоимость игровой системы с двумя современными топовыми видеокартами ушла за 300 тысяч вместе с монитором на 8k? и чуть дешевле на 4k.

Более приземленных пользователей хочу обрадовать, что сильно расстраиваться пока не о чем, так как на самые ходовые разрешения и мониторы одной среднего уровня видеокарты пока более чем достаточно. Об этом подробнее я рассказал в статье о выборе монитора и видеокарты.

 Загрузка …

Источник: https://AgePC.ru/zhelezo/videokarty/dve-videokarty-na-odnom-kompyutere

Выбор видеокарты на старый компьютер

Ставить одну более новую или две старые видеокарты?

Рано или поздно перед каждым пользователем компьютера становится ребром вопрос о замене видеокарты. Причины для этого могут быть следующими: видеокарта вышла из строя, возможности видеокарты не удовлетворяют, общая модернизация ПК. Однако если общий апгрейд ПК не планируется, но существует необходимость замены видеокарты, нужно подойти к этому основательно.

От видеокарты в компьютере зависит многое. Самое главное, конечно же, преобразование цифровой информации в графическую. А уже от модели видеокарты зависит то, насколько качественно и исправно эта информация будет отображаться. Обычным пользователям достаточно, чтобы видеокарта просто работала без сбоев, для людей, работающих с графикой, фотографиями и для геймеров важна производительность.

Сразу стоит оговориться, что тем, кто хочет заменить видеокарту на ноутбуке, придется гораздо сложнее. Дело в том, что в ноутбуках видеокарты, как правило, интегрированы в материнскую плату, поэтому заменить видеокарту отдельно нельзя.

Остается лишь менять видеокарту вкупе с материнской платой. Существует и альтернатива — внешние видеокарты, подключающиеся посредством USB.

Пользователям же стационарного компьютера в этом плане повезло гораздо больше — можно заменить все комплектующие поочередно без особой сложности.

Итак, чтобы подобрать конкретную видеокарту к своему компьютеру, первое, что нужно знать — какой у нее тип платформы. Совсем старые компьютеры работали на AGP-платформе, а в 2004 году появился более новый тип — PCI Express.

Видеокарты на платформе AGP очень слабые для нынешних требований, но еще выпускаются, а это значит, что обладатели таких слотов расширения могут обновить свою видеокарту за приемлемую цену.

Тем, у кого слот расширения типа PCI-E, повезло больше, поскольку ассортимент доступных видеокарт значительно расширяется.

Ставить одну более новую или две старые видеокарты?

Также при выборе видеокарты необходимо смотреть на ее совместимость с другими комплектующими: мощностью блока питания и процессором.

Если покупать видеокарту, которая несовместима по мощности с блоком питания, то в лучшем случае можно ожидать резкого выключения/перезагрузки компьютера, а в худшем — нестабильная работа блока питания может привести к поломке комплектующих, в том числе самого блока питания или видеокарты.

Связка видеокарта и процессор не менее важна, поскольку именно при правильной комбинации этих комплектующих можно выжать максимум из компьютера. Особенно это актуально для тех, у кого все детали компьютера старые. Рассмотрим этот вопрос детальнее.

Более подробно: Как выбрать видеокарту

Как заменить видеокарту

Если сохранять баланс между производительностью процессора и видеокарты, то итоговая мощность компьютера будет максимальной. Часто, пытаясь дать вторую жизнь старенькому компьютеру, пользователь решает оснастить его современной мощной видеокартой, которая поддерживает разные эффекты, имеет мощное охлаждение.

Но во всем нужно находить золотую середину. Так, слабый процессор и мощная видеокарта снижают производительность. И уж тем более раскрыть весь потенциал видеокарты не представится возможным.

Пользователь получит лишь некую часть от всех функций видеокарты, а «бонусом» — перегруженный процессор, как следствие «тормоза и лаги» при работе за ПК.

Из всего этого можно сделать вывод: если цель просто заменить нерабочую видеокарту на старом компьютере, то дешевых вариантов масса, если же цель — повысить производительность компьютера, то не стоит надеяться, что замена одной лишь видеокарты сможет сотворить чудо.

Более того, это может привести к поломке компьютера или его нестабильной работе. Возможен и противоположный ожидаемому эффект — снижение производительности.

И перед покупкой нужно обязательно ознакомиться с совместимостью определенной модели видеокарты с остальными комплектующими ПК.

Источник: https://www.infoconnector.ru/vybor-videokarty-na-staryj-kompyuter

Две видеокарты на одном компьютере — плюсы и минусы

Одно устройство хорошо, а два может быть лучше
Опубликовано 02.11.2019, 13:17   · Комментарии:15
Ставить одну более новую или две старые видеокарты?

Установка двух или более видеокарт, работающих совместно, обеспечивает улучшенную производительность видео, 3D и игр по сравнению с одной видеокартой. Как AMD, так и Nvidia предлагают решения для работы с двумя или более видеокартами, но чтобы решить, стоит ли принимать это решение, нужно рассмотреть требования и преимущества.

Требования к системе с двумя видеокартами

Чтобы использовать две видеокарты, вам необходимо базовое оборудование, AMD или Nvidia для запуска их графических технологий. Графическое решение AMD — фирменный CrossFire, а решение Nvidia — SLI. Есть способы использовать два разных бренда вместе. Для каждого из этих решений вам нужна совместимая материнская плата с необходимыми графическими слотами PCI Express. Без одной из этих слотов в материнской плате, использование технологии двух карт невозможно.

Преимущества

Есть два реальных преимущества запуска нескольких видеокарт. Основная причина — повышенная производительность в играх. При наличии двух или более графических карт, которые совместно используют функции для рендеринга 3D-изображений, компьютерные игры могут работать с более высоким ФПС и более высоким разрешением и с дополнительными фильтрами.

Эта дополнительная емкость может значительно улучшить качество графики в играх. Конечно, многие современные видеокарты могут воспроизводить игру с разрешением до 1080p.

Настоящим преимуществом является возможность управлять играми с более высоким разрешением, например на дисплеях 4K, которые имеют разрешение в четыре раза, или управлять несколькими мониторами.

Другое преимущество — для людей, которые хотят обновиться позже, не заменяя свою видеокарту.

Купив видеокарту и материнскую плату, способную работать с двумя картами, вы можете добавить вторую графическую карту позже, чтобы повысить производительность без необходимости извлекать существующую видеокарту.

Единственная проблема с этим планом состоит в том, что циклы видеокарты выполняются примерно каждые 18 месяцев, а это значит, что совместимую карту может быть трудно найти, если вы не собираетесь приобретать ее в течение двух лет.

Недостатки

Большим недостатком двух видеокарт в одном компьютере является стоимость. Поскольку топовые видеокарты уже стоят 500 долларов и более, многим потребителям трудно позволить себе вторую.

Хотя ATI и Nvidia предлагают более дешевые карты с поддержкой двух карт, зачастую лучше потратить одинаковое количество денег на одну карту с одинаковой или иногда лучшей производительностью, чем на две недорогие.

Другая проблема заключается в том, что не все игры выигрывают от нескольких видеокарт.

Эта ситуация значительно улучшилась с тех пор, как были представлены первые настройки с двумя картами, но некоторые графические движки по-прежнему плохо справляются с двумя видеокартами.

Фактически, некоторые игры могут показывать небольшое снижение производительности по сравнению с одной видеокартой. В некоторых случаях происходит поддергивание, из-за которого изображение видео выглядит прерывистым.

Две видеокарты AMD Radeon подключеные через кабель DVI

Современные видеокарты очень энергоемки. Наличие двух из них в системе может почти удвоить количество потраченой эллектроэнергии, необходимое для их запуска в тандеме.

Например, для правильной работы одной видеокарты высокого класса может потребоваться блок питания на 500 Вт. Наличие двух таких же карт может потребовать около 850 Вт. Большинство настольных компьютеров не оснащены такими мощными блоками питания.

Обратитесь к мощности вашего компьютера и требованиям, прежде чем покупать более мощное оборудование.

Преимущества производительности в среде с двумя картами зависят от других компонентов компьютерной системы. Даже с двумя графическими картами самого высокого класса процессор нижнего уровня может регулировать объем данных, которые система может предоставить графическим картам. В результате двойные видеокарты обычно рекомендуются только в высокопроизводительных системах.

Кто должен установить две видеокарты?

Для среднего потребителя запуск двух видеокарт не имеет особого смысла. Общие затраты на материнскую плату и видеокарты, не говоря уже о других основных аппаратных средствах, которые необходимы для обеспечения достаточной скорости графики, являются непомерно высокими. Однако это решение имеет смысл, если вы хотите запускать игры на нескольких дисплеях или в экстремальных разрешениях.

Источник: https://fps-up.ru/videocard/dve-videokarty-na-odnom-kompyutere-plyusy-i-minusy

Ссылка на основную публикацию
Adblock
detector