Видеокарты. Видеокарты ⇡ Производительность, игровые тесты

22 марта 2012 была представлена супер-новинка от компании NVIDIA – видеокарта архитектуры Kepler NVIDIA GeForce GTX 680 . Очередной технологический прорыв от инженеров принес больше энергоэффективности, больше производительности. Разумеется, больше денег от народонаселения. Оценить возможности карты нового поколения я смогу на примере ASUS GeForce GTX 680.

Видеокарта ASUS поставляется в картонной коробке, бэкграунд которой оформлен как состаренный металл, разорванный когтями неведомого хищника. Пиктограмма напоминает нам, что фирменная утилита GPU Tweak придет на помощь, если вы захотите разгнать и тонко настроить видеокарту прямо в режиме реального времени. Кроме того ASUS говорит о 2 гигабайтах видеопамяти, поддержке DirectX 11 и шины PCI-Express 3.0.

Обратная сторона, как водится, оставлена для описания фирменных примочек и технологий, среди которых GPU Boost и адаптивная вертикальная синхронизация. GPU Boost является некоторым аналогом технологии Intel с то разницей, что процессоры увеличивают множитель, а видеокарта добавляет частоту просто мегагерцами. C помощью программ можно задать лимит тепловыделение и попробовать разогнать видеокарту выше чем частота Boost Clock. Немного забегая вперед скажу, что с разгоном у GeForce GTX 680 все в порядке.

Видеокарта ASUS GeForce GTX 680 является копией референсного образца. Оригинальные решения инженеров применяются на других моделях, например DirectCu II, которые надеюсь попадут ко мне на тесты.

Для питания видеоядра используется четырехфазная система питания. Видеопамять получает питания по двухфазной схеме.

Дополнительное питание на видеокарту подается через два разъема PCI Express 6-pin. Расположение их весьма необычно, друг над другом, при этом дальний от платы разъем утоплен на сантиметр по высоте.Энергопотребление составляет 195 ватт и производитель рекомендует использовать как минимум 550-ваттный блок питания.

Видеокарта поддерживает одновременное подключение четырех мониторов, для чего на ней разведены четыре видеовыхода — два DVI, HDMI 1.4a и DisplayPort.

Ядро охлаждается с помощью небольшого радиатора. Сложная конструкция с использованием трех плоских тепловых трубок справляется с температурой на отлично.

Отдельная металлическая пластина закрывает плату целиком и охлаждает чипы видеопамяти и силовые элементы на плате. Обдувается вся система с помощью вентилятора турбинного типа.

Для тестирования производительности системы была собрана следующая система:

Процессор

  • Intel Core i7 3770K (3.5 ГГц ), Socket 1155

Материнская плата

  • MSI Z77A-GD65, Intel Z77 chipset, Socket 1155

Видеокарта

  • Leadtek GeForce GTX 580

Оперативная память

  • G.Skill RipjawsX DDR3-1866 CL9 2*4096 Mb

Блок питания

  • Enermax Revolution 85+ 1020W

Жесткий диск

  • Kingston HyperX SSD 240 Gb

Корпус

  • Dimastech Benchtable

Монитор

  • Acer V243H

Клавиатура

  • Logitech Illuminated Keyboard

Мышь

  • Logitech MX518

Набор тестовых приложений с настройками:

Синтетические тесты:

  • 3D Mark 11, пресеты Entry, Performance, Extreme
  • 3D Mark Vantage, пресет Performance
  • Unigine Heaven HWBOT Edition, DX 11, Extreme preset

Игровые тесты:

  • Aliens vs Predator DX11 Benchmark, 1920*1080
  • Dirt 3, 1920*1080, встроенный бенчмарк
  • Metro 2033, 1920*1080, встроенный бенчмарк
  • Lost Planet 2 DX 11, 1920*1080, тест производительности А
  • Street Fighter benchmark, 1920*1080

Для тестирования видеокарта ASUS GeForce GTX 680 была разогнана до частот 1220 МГц по графическому ядру и 1600 МГц по видеопамяти. Для сравнения был выбран флагман предыдущего поколения — Leadtek GeForce GTX 580, текущий лидер из конкурирующего лагеря — AMD Radeon HD 7970 и двухчиповая карта предыдущего поколения — AMD Radeon HD 6990.

Раньше 3D Mark Vantage считался вотчиной карт от NVIDIA — прошли те времена. Красные впереди с серьезным отрывом.

3D Mark 11 вышел совсем недавно и результаты его более справедливы. В номинальном режиме ASUS GeForce GTX 680 немного проигрывает конкуренту в лице AMD Radeon HD 7970, но разгон позволяет подтянуться очень близко.

Игровой тест Aliens vs Predator тоже отдал предпочтение красным. Преимущество GeForce GTX 680 над предшественником составляет около 20%

Dirt3 раскрывает потенциал видеокарт NVIDIA — лидерство заслужено и закономерно.

Любовь Lost Planet 2 к графическим ускорителям NVIDIA известна и потдверждается.

Metro 2033 лучше идет на AMD Radeon, но преимущество минимально, так что скорее стоит говорить о паритете.

Эффект от разгона ASUS GeForce GTX 680 практически отсутствует, что несколько непонятно. Возможно какая то особенность драйверов или архитектуры.

Синтетический тест отдал предпочтение Radeon, но нужно учитывать, что у продукции AMD отключается тесселяция, которая активно используется в этом тесте.

Итоговые мысли.

Видеокарта ASUS GeForce GTX 680 демонстрирует высокую производительность и значительное превосходство над флагманов предыдущего поколения на ядре Fermi. В битве с красными конкурентами не всегда удается быть впереди, но это компенсируется более низким энергопотреблением и лучшими технологиями сглаживания. Стоит ожидать от нереференсных версий еще более высоких частот и тогда продукт будет еще более успешен. По моим личным предположениям потенциал у GeForce GTX 680 очень высокий. Комания ASUS наверняка сможет его использовать в правильном направлении. А пока что за высокое качество и отличную производительность ASUS GeForce GTX 680 получает награду «Наш выбор» от OCClub

Первые новости об оригинальной видеокарте компании Gigabyte Technology Co., Ltd. с кулером WindForce 5X появились ещё в начале весны 2012 года. Тогда новинка, без оговорок, смогла удивить всех весьма оригинальным подходом к организации охлаждения, применив в конструкции кулера сразу пять маленьких вентиляторов. WindForce 5X казался настолько неординарным, что многие и вовсе усомнились в появлении видеокарт Gigabyte с таким кулером в свободной продаже. Однако, этого, к счастью, не произошло, и в середине лета компания успешно запустила в серию сразу две видеокарты с использованием WindForce 5X: Gigabyte Radeon HD 7970 SOC WindForce 5X (GV-R797SO-3GD) и Gigabyte GeForce GTX 680 SOC WindForce 5X (GV-N680SO-2GD) . Правда, первую к настоящему времени уже успели снять с продажи ввиду появления более быстрых «GHz Edition», а вот вторая свободно продаётся, пусть и недёшево. Её-то мы сегодня изучим и протестируем.

1. Обзор видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт (GV-N680SO-2GD)

технические характеристики

Технические характеристики видеокарты Gigabyte приведены в таблице в сравнении с эталонной видеокартой NVIDIA GeForce GTX 680:



упаковка и комплектация

Видеокарта поставляется в большой картонной коробке, на лицевой стороне которой приведена ключевая информация о продукте:


На обратной – подробное описание системы охлаждения, используемых технологий, фирменной утилиты для разгона и мониторинга, а также прочая, менее значительная информация.

В комплекте поставки два кабеля-переходника с PATA-разъёмов на восьмиконтактные, компакт-диск с драйверами и утилитами, инструкция по установке и рекламный буклет:


Прямо скажем, комплектация для продукта верхнего ценового сегмента очень скромная.

Gigabyte GeForce GTX 680 SOC WindForce 5X выпускается в Тайване и стоит 549 долларов США. Гарантия на продукт – 3 года.

особенности

Видеокарта имеет размеры 295х120х64 мм и выглядит монументально, напоминая собой эдакий броненосец:


Вместо привычных вентиляторов или турбины на лицевой стороне видеокарты мы видим металлический пластиковый кожух с декоративными прорезями, названием компании-производителя и лейблами «Super OverClock». Обратная сторона видеокарты также закрыта металлической пластиной с перфорацией.

Сверху виден ряд из пяти маленьких вентиляторов, частично накрытых металлической пластиной, а снизу – массивный радиатор с тепловыми трубками:


Gigabyte GeForce GTX 680 SOC WindForce 5X оснащается двумя DVI выходами (один с Dual Link), одним выходом HDMI версии 1.4а и одним выходом DisplayPort версии 1.2:


С другой стороны видеокарты видны сразу три разъёма для вентиляторов и какой-то интерфейсный выход непонятного назначения.

Два разъёма MIO для создания различных SLI-конфигураций размещены на своих стандартных местах: в верхней части печатной платы видеокарты у её выходов:


А вот стандартные шести- и восьмиконтактные разъёмы питания, инженеры Gigabyte заменили на два восьмиконтактных, стремясь обеспечить необходимый запас тока при работе на повышенных частотах. Рекомендуемая мощность блока питания для системы с одной такой видеокартой заявлена на отметке 650 ватт, что на 100 ватт выше спецификаций эталонной NVIDIA GeForce GTX 680.

Печатная плата Gigabyte GeForce GTX 680 SOC WindForce 5X выполнена по оригинальному дизайну и имеет усиленную систему питания:


За обеспечение питания графического процессора отвечают сразу восемь фаз, а ещё три отведены на питание памяти и силовых цепей:


Видеокарта относится к серии Super Overclock , построенной по концепции применения высококачественных компонентов с увеличенным сроком службы, японских конденсаторов, пленочных конденсаторов Proadlizer NEC/TOKIN с низким эквивалентным последовательным сопротивлением ESR, установленных на обратной стороне печатной платы:


За управление питанием графического процессора отвечает восьмифазный цифровой PWM-контроллер CHiL CHL8318 :


В верхней части платы видна группа контактов J13, являющейся точками для замера рабочих напряжений V-PLL, V-MEM и V-GPU. Это не столь удобно, как, например, у MSI, но всё же редкие видеокарты оснащены такой возможностью.

Кроме всего вышеперечисленного, видеокарта оснащена двумя версиями BIOS, которые можно переключать квадратной кнопкой с подсветкой, размещённой у выходов платы. В обычной версии (синяя подсветка) просто зашиты повышенные частоты, а вот при переключении на так называемую экстремальную версию BIOS видеокарты (красная подсветка) снимаются все ограничения по токам, и до 300% увеличивается предел мощности графического процессора. Этот BIOS предназначен для экстремального оверклокинга при сверхнизких температурах.

Графические процессоры для видеокарт Gigabyte серии Super Overclock проходят специальную систему отбора «GPU Gauntlet» посредством нескольких циклов стресс-тестирования. В итоге на такие видеокарты устанавливаются только наиболее качественные чипы с высоким оверклокерским потенциалом. Наш кристалл GK104 выпущен в Тайване на 25-й неделе 2012 года (середина июня) и относится к ревизии А2:


Его базовая частота повышена с 1006 до 1137 МГц или сразу на 13%, а в моменты высокой нагрузки частота может увеличиваться до 1202 МГц. Во всём остальном это обычный «Kepler» с напряжениями 1,175 В для 3D-режима и 0,988 В – для 2D-режима, в котором частота снижается до 324 МГц.

На видеокарте установлено 2 Гбайт GDDR5-памяти производства компании Samsung с маркировкой K4G20325FD-FC03 :


Её эффективная частота повышена с номинальных 6008 МГц до 6200 МГц или +3,2%, что совсем немного, но вполне себе приятный бонус. В 2D-режиме частота видеопамяти снижается до 648 МГц.

В итоге спецификации Gigabyte GeForce GTX 680 SOC WindForce 5X таковы:


Добавим, что BIOS видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X вы можете скачать из нашего файлового архива (BIOS Gigabyte GeForce GTX 680 SOC WindForce 5X , и перейдём к изучению системы охлаждения WindForce 5X.

система охлаждения WindForce 5X

Какой бы ни была печатная плата видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X, всё это, по большому счёту, мы с вами уже видели ранее в продуктах ASUS, MSI и самой Gigabyte. Поистине уникальной в этом продукте является система охлаждения WindForce 5X. В компании не скрывают, что гордятся этой разработкой, и оригинальности ей действительно не занимать, ведь в её конструкции скомбинированы тепловая камера, девять медных тепловых трубок диаметром 6 мм, гигантский алюминиевый радиатор и пять 40-мм вентиляторов:



Несмотря на огромную массу (вес видеокарты с кулером 1622 (!) грамма), крепится он к печатной плате всего шестью винтами, четыре из которых расположены по углам графического процессора и два на радиаторе для силовых элементов:


Защитный кожух снять чуть более сложно, но без него становится ясно, что кожух этот в большей степени декоративный, нежели защитный:


Как видим, боковые стороны радиатора плотно закрыты загнутыми и сомкнутыми друг с другом рёбрами, а длинная стальная планка служит креплением для самого кожуха и не более того.

При толщине радиатора 45 мм понятно, что тепловая камера не смогла бы равномерно распределить весь тепловой поток по рёбрам, поэтому инженеры Gigabyte оснастили радиатор сразу девятью медными тепловыми трубками диаметром 6 мм. Четыре выходят в одну сторону, а пять – в другую, но все они равномерно пронизывают верхнюю часть рёбер радиатора:


Контакт основания кулера с графическим процессором осуществлён посредством густой и серой термопасты, а с микросхемами памяти и силовыми элементами радиатор контактирует через термопрокладки. Все сопряжения в радиаторе пропаяны.

Сразу пять 40-мм вентиляторов, установленных на верхнем торце радиатора, выпущены компанией Power Logic (модель PLA04015S12HH), базируются на подшипниках качения и управляются широтно-импульсной модуляцией (PWM):


Вентиляторы установлены в перевёрнутом виде, то есть в процессе работы они будут выдувать горячий воздух из радиатора, засасывая его снизу. И если на боковой стенке вашего корпуса нет вентилятора «на выдув», то нагретый видеокартой воздух будет оставаться внутри корпуса и его придётся выводить другими корпусными вентиляторами.

Давайте проверим, сколь эффективен кулер WindForce 5X. Для этого в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560х1440 пикселей с анизотропной фильтрацией уровня 16х и с использованием MSAA-сглаживания степени 4x:



Для мониторинга температур и прочих параметров применялись программа MSI Afterburner версии 2.2.5 и утилита GPU-Z версии 0.6.6 . Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 24 градуса Цельсия. Тестирование эффективности системы охлаждения видеокарты было проведено до её разборки с использованием штатного термоинтерфейса.

Посмотрим на эффективность кулера Gigabyte GeForce GTX 680 SOC WindForce 5X в автоматическом режиме работы и при максимальной скорости вентиляторов:


Автоматический режимМаксимальная мощность


При автоматической регулировке вращения вентиляторов, когда их скорость (если верить данным мониторинга) увеличивалась до 7260 об/мин, графический процессор прогрелся до 68 градусов Цельсия, что для разогнанного GK104 является превосходным результатом. Если же выставить скорость вентиляторов на максимум (9750 об/мин по данным мониторинга), то температура графического процессора составила всего 54 градуса Цельсия. Это как-то даже смешно для разогнанной GeForce GTX 680. Зато совсем не смешно для слуха пользователя.

К сожалению, традиционных измерений уровня шума в сегодняшней статье не будет. Причин тому две. Во-первых, для подключения пяти вентиляторов к печатной плате используются сразу три коннектора двух разных типов, поэтому подключить их к нашему прибору для мониторинга и управления не представлялось возможным. Второй причиной явился один бракованный вентилятор, как раз тот, который мы сняли на фото выше. При включении его подшипник завывал так, что терпеть его было крайне сложно. Правда, после прогрева он несколько утихомиривался, но всё равно лучшего решения, чем принудительно остановить его мы не нашли. К слову, температурные тесты проведены при всех пяти активированных вентиляторах. Субъективно, без гремящего подшипником вентилятора, кулер WindForce 5X работает тихо до 4000-4500 об/мин, комфортно до 6000 об/мин, а выше этой отметки, увы, уже заметно выделяется на фоне тихого системного блока. Как вы помните, в автоматическом режиме работы вентиляторы раскручивались до 7260 об/мин, поэтому мы не можем назвать Gigabyte GeForce GTX 680 SOC WindForce 5X тихой видеокартой. Только в 2D-режиме, когда скорость вентиляторов находится у отметки 2000 об/мин, видеокарту действительно не слышно, хотя для игрового продукта это не столь важно.

оверклокерский потенциал

Изучение оверклокерского потенциала Gigabyte GeForce GTX 680 SOC WindForce 5X мы начали при штатном напряжении 1,175 В и максимальном значении Power limit. Система охлаждения функционировала в автоматическом режиме. Базовую частоту графического процессора нам удалось поднять на 65 МГц, а частоту видеопамяти на 1120 эффективных мегагерц:


В результате частоты видеокарты составили 1202/1267/7328 МГц:


Результат разгона GPU вполне обычный для GeForce GTX 680, и большего нам не удалось добиться ни при включении экстремального BIOS видеокарты, ни при повышении напряжения на графическом процессоре. Впрочем, достигнутая частота памяти не может не радовать.

После разгона видеокарты максимальная температура графического процессора увеличилась на 3 градуса Цельсия до 71 градуса, а скорость вентиляторов повысилась на 150 об/мин при итоговых 7410 об/мин:



В завершение обзора видеокарты нельзя не сказать несколько слов о фирменной утилите Gigabyte OC Guru II , способной не только контролировать все параметры Gigabyte GeForce GTX 680 SOC WindForce 5X, но и управлять ими:


Кроме возможности изменения частот, напряжений и их мониторинга, утилитой можно выполнять тонкую подстройку PWM-частот и степень загрузки графического процессора, памяти и шины PCI-Express:


В отдельном окне можно вручную настроить скорость вращения вентиляторов в зависимости от температуры, или выбрать одну из трёх предустановок:



энергопотребление

Измерение энергопотребления системы с различными видеокартами осуществлялось с помощью многофункциональной панели Zalman ZM-MFC3 , которая показывает потребление системы «от розетки» в целом (без учёта монитора). Измерение было проведено в 2D-режиме, при обычной работе в Microsoft Word или интернет-«сёрфинге», а также в 3D-режиме, нагрузка в котором создавалась с помощью трёхкратного теста из игры Metro 2033: The Last Refuge в разрешении 2560х1440 при максимальных настройках качества графики.

Давайте посмотрим на результаты:



Что интересно, система с видеокартой Gigabyte оказалась немного экономичнее в плане потребления электроэнергии, чем система с почти такой же видеокартой ASUS. Даже после разгона Gigabyte GeForce GTX 680 SOC WindForce 5X до частот 1202/7320 МГц она потребляет чуть меньше, чем ASUS GeForce GTX 680 DirectCU II TOP на номинальных для неё частотах 1137/6008 МГц. В дополнение отметим, что система с Radeon HD 7970 GHz Edition (в исполнении Sapphire) всё же более требовательна к энергопотреблению, чем обе системы с GeForce GTX 680. Ну, а лидером сегодня вполне закономерно стала система с двухпроцессорной GeForce GTX 690. В 2D-режиме бездействия энергопотребление всех систем отличается в самой минимальной степени.

2. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

Системная плата: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0537 от 23.07.2012);
Центральный процессор: Intel Core i7-3960X Extreme Edition 3,3 ГГц (Sandy Bridge-E, C1, 1,2 В, 6x256 Kбайт L2, 15 Мбайт L3);
Система охлаждения CPU: Phanteks PH-TC14PЕ (два 140 мм вентилятора Corsair AF140 Quiet Edition при 900 об/мин);
Термоинтерфейс: ARCTIC MX-4 ;
Оперативная память: DDR3 4x4 Гбайт Mushkin Redline (2133 МГц, 9-10-10-28, 1,65 В);
Видеокарты:

NVIDIA GeForce GTX 690 2x2 Гбайт 256 бит GDDR5, 915/6008 МГц;
Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт 256 бит GDDR5, 1137/6200 и 1202/7320 МГц;
ASUS GeForce GTX 680 DirectCU II TOP 2 Гбайт 256 бит GDDR5, 1137/6008 МГц;
Sapphire Radeon HD 7970 OC Dual-X 3 Гбайт 384 бит GDDR5, 1050/6000 МГц;

Системный диск: SSD 256 Гбайт Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Диск для программ и игр: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5";
Архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка – три Noiseblocker NB-Multiframe S-Series MF12-S2 на 1020 об/мин; задняя – два Noiseblocker NB-BlackSilentPRO PL-1 на 1020 об/мин; верхняя – штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC3 ;
Блок питания: Seasonic SS-1000XP Active PFC F3 (1000 Вт), 120-мм вентилятор;
Монитор: 27" Samsung S27A850D (DVI-I, 2560х1440, 60 Гц).

Производительность видеокарты Gigabyte мы сравним с очень быстрой ASUS GeForce GTX 680 DirectCU II TOP на номинальных частотах и с Sapphire Radeon HD 7970 OC Dual-X , разогнанной до уровня GHz Edition :




Кроме того, в качестве ориентира по скорости в тестирование добавлена эталонная NVIDIA GeForce GTX 690 на своих номинальных частотах:




Для снижения зависимости производительности видеокарт от скорости платформы, 32-нм шестиядерный процессор при множителе 37, опорной частоте 125 МГц и активированной функции «Load-Line Calibration» был разогнан до 4,625 ГГц при повышении напряжения в BIOS материнской платы до 1,49 В:



Технология «Hyper-Threading» активирована. При этом 16 Гбайт оперативной памяти функционировали на частоте 2 ГГц с таймингами 9-11-10-28 при напряжении 1,65 В.

Тестирование, начатое 3 ноября 2012 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 SP1 со всеми критическими обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 9.3.0.1025 WHQL от 25.10.2012 ;
библиотеки DirectX End-User Runtimes, дата выпуска – 30 ноября 2010 года ;
драйверы видеокарт на графических процессорах AMD – Catalyst 12.11 Beta от 23.10.2012 + Catalyst Application Profiles 12.10 (CAP1);
драйверы видеокарт на графических процессорах NVIDIA – GeForce 310.33 beta от 23.10.2012 .

Производительность видеокарт была проверена в двух разрешениях: 1920х1080 и 2560х1440 пикселей. Для тестов были использованы два режима качества графики: «Quality + AF16x» – качество текстур в драйверах по-умолчанию с включением анизотропной фильтрации уровня 16х, и «Quality + AF16x + MSAA 4х(8х)» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если данные настройки в играх отсутствовали, то параметры изменялись в панелях управления драйверов Catalyst и GeForce. Там же была отключена вертикальная синхронизация. Больше никаких изменений в настройки драйверов не вносились.

Так как мы неоднократно тестировали GeForce GTX 680 и его конкурента, то сегодняшний список тестовых приложений был сокращён до одного полусинтетического пакета и 8 игр (по принципу наиболее ресурсоёмких и свежих):

3DMark 2011 (DirectX 11) – версия 1.0.3.0, профили настроек «Performance» и «Extreme»;
Metro 2033: The Last Refuge (DirectX 10/11) – версия 1.2, использовался официальный тест, настройки качества «Very High», тесселляция, DOF включено, использовалось ААА-сглаживание, двойной последовательный проход сцены «Frontline»;
Total War: SHOGUN 2 – Fall of the Samurai (DirectX 11) – версия 1.1.0, встроенный тест (битва при Sekigahara) на максимальных настройках качества графики и использовании в одном из режимов MSAA 4x;
Crysis 2 (DirectX 11) – версия 1.9, использовался Adrenaline Crysis 2 Benchmark Tool v1.0.1.14 BETA , профиль настроек качества графики «Ultra High», текстуры высокого разрешения активированы, двукратный цикл демо-записи на сцене «Times Square»;
Battlefield 3 (DirectX 11) – версия 1.4, все настройки качества графики на «Ultra», двойной последовательный проход заскриптованной сцены из начала миссии «На охоту» продолжительностью 110 секунд;
Sniper Elite V2 Benchmark (DirectX 11) – версия 1.05, использовался Adrenaline Sniper Elite V2 Benchmark Tool v1.0.0.2 BETA максимальные настройки качества графики («Ultra»), Advanced Shadows: HIGH, Ambient Occlusion: ON, Stereo 3D: OFF, двойной последовательный прогон теста;
Sleeping Dogs (DirectX 11) – версия 1.5, использовался Adrenaline Sleeping Dogs Benchmark Tool v1.0.0.3 BETA , максимальные настройки качества графики по всем пунктам, Hi-Res Textures pack установлен, FPS Limiter и V-Sync отключены, двойной последовательный прогон теста с суммарным сглаживанием на уровне «Normal» и на уровне «Extreme»;
F1 2012 (DirectX 11) – update 9, использовался Adrenaline Racing Benchmark Tool v1.0.0.13 , настройки качества графики на уровне «Ultra», бразильская трасса «Interlagos» 2 круга, 24 машины, лёгкий дождь, режим камеры – «Bonnet»;
Borderlands 2 (DirectX 9) – версия 1.1.3, встроенный тест при максимальных настройках качества графики и максимальном уровне PhysX, сглаживание FXAA включено.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё, как минимум, один раз, чтобы получить достоверный результат.





Borderlands 2


Мы не стали комментировать каждую диаграмму, так как, по большому счёту, ничего нового на них не увидели. В целом Gigabyte GeForce GTX 680 SOC WindForce 5X чуть быстрее ASUS GeForce GTX 680 DirectCU II TOP за счёт более скоростной памяти, но разница мизерна. Разгон Gigabyte приносит ей 5-7% производительности плюсом, что также немного, но и пренебрегать таким бесплатным повышением производительности не стоит. В противостоянии с Sapphire Radeon HD 7970 OC Dual-X на частотах 1050/6000 МГц на новых версиях драйверов новая видеокарта Gigabyte выигрывает в 3DMark 2011, Crysis 2, Borderlands 2, а также качественных режимах Total War: SHOGUN 2 и F1 2012. Паритет у этих видеокарт только в Battlefield 3. В свою очередь, Radeon опережает GeForce в Metro 2033: The Last Refuge, Sniper Elite V2, Sleeping Dogs, а также в режимах без использования сглаживания Total War: SHOGUN 2 и F1 2012. Из особенностей работы двухпроцессорной NVIDIA GeForce GTX 690 на новых драйверах и в новых тестах выделим отсутствие поддержки SLI в игре F1 2012, а остальные тесты сюрпризов не преподнесли.

Заключение


Gigabyte GeForce GTX 680 SOC WindForce 5X, безусловно, оказалась очень интересной видеокартой. Досконально проработанная печатная плата с восьмифазной системой питания графического процессора и применением высококачественных компонентов для серии «Super Overclock» обеспечат стабильность при разгоне и долговечность эксплуатации. Отобранный по специальной программе «GPU Gauntlet» графический процессор, дополнительный BIOS c настройками для разгона под азотом и точки для замера ключевых напряжений наверняка обратят на себя внимание экстремальных оверклокеров. Высокие заводские частоты вкупе с весьма эффективной системой охлаждения WindForce 5X и конкурентоспособной стоимостью просто не могут не привлечь большинство обычных пользователей.

В то же время, систему охлаждения этого стильного и внешне монументального продукта мы не можем назвать тихой. Вдобавок, для раскрытия потенциала ей требуется просторный корпус с грамотно организованной системой вентиляции. Кроме того, у продуктов такого класса должна быть более насыщенная и притягивающая комплектация, а в качестве морального успокоения флагманский продукт Gigabyte можно было и оснастить четырьмя гигабайтами памяти вместо нынешних двух. Тем не менее, о Gigabyte GeForce GTX 680 SOC WindForce 5X у нас сложилось позитивное впечатление. Выбор, как и всегда, за вами.

Одна из самых производительных видеокарт 2012-го года, Nvidia Geforce GTX 680, комплектовалась графическим процессором GK104, благодаря чему легко справляется с запуском не слишком старых игр и видео в формате до 4К. В своё время она стала достойным конкурентом модели Radeon HD 7970 и всех остальных высокопроизводительных однопроцессорных видеокарт. В 2018-м году она уже не может использоваться для сборки мощного или даже среднего по параметрам геймерского компьютера, однако вполне подходит для бюджетных игровых ПК.

Видеокарта получила от производителя графику GPU GK104 с 1536 ядрами CUDA (в 3 раза больше по сравнению с моделью GTX 580) и 128 текстурными блоками.

Остальные характеристики GTX 680 можно представить следующим списком:

  • базовая частота процессора/памяти – 1006/6008 МГц;
  • объём памяти – 2048 Мб;
  • техпроцесс – 28 нм;
  • число транзисторов – 3,54 млрд., больше по сравнению с GTX 580, но заметно меньше, чем у Radeon HD 7970;
  • ширина шины памяти – 256 бит;
  • интерфейс – PCI-E 3.0.

С помощью видеокарты можно подключать к одному компьютеру до 4 экранов без специальных проводников, три из них – в режиме 3D Vision Surround. Для подключения могут использоваться 2 порта DVI (DVI-I и DVI-D), HDMI и DisplayPort. Максимальное разрешение дисплея в этом случае – 3840×2160 пикселей.

Продажная цена GTX 680 в самом начале составляла $499 или 17999 руб. для России. Эта стоимость заметно ниже по сравнению конкурентов типа Radeon HD 7970. Узнавая, сколько стоит видеокарта GTX 680 сейчас, можно получить цифру примерно на уровне $100–150.

Обзор GTX 680

На вид графическая карта ненамного отличается от предыдущей версии GTX 580. Особенно, с учётом использования массивного кулера-турбины и другим особенностям системы охлаждения.

Для экономии пространства с платы убрали испарительную камеру. Рёбра радиатора сделали более скошенными, облегчив прохождение воздуха. Эта особенность и использование для изготовления турбины специального звукопоглощающего материала приводит к заметному снижению шума от кулера, если сравнивать с 580-й версией или Radeon HD 7970.

Среди других особенностей модели стоит отметить:

  • наличие полноразмерных портов DisplayPort и HDMI, позволяющих обойтись без переходников;
  • меньшее количество микросхем памяти на плате по сравнению с конкурентами;
  • отсутствие теплораспределителя на графическом процессоре, позволяющее избежать сколов при установке кулера.
Максимальное энергопотребление GTX 680 находится на уровне 195 Вт – ниже по сравнению с показателями аналогичных по производительности карт Nvidia. Благодаря этому при использовании видеокарты в качестве дополнительного питания можно обойтись всего лишь 2 шестиконтактными разъёмами.

Как разогнать видеокарту Nvidia Geforce GTX 680

Выполняя разгон GTX 680, можно попробовать увеличить её производительность в играх и даже использовать эту карту для добычи криптовалюты. Для этого применяется специальная технология GPU Boost и одна из утилит, подходящих для графических процессоров Nvidia – например, MSI Afterburner или RivaTuner.

При увеличении напряжения питания видеоадаптера на 10% можно получить частоту 1100 МГц (вместо 1006) и эффективное значение на уровне 6912 МГц (вместо 6008). Результатом такого разгона стало незначительное увеличение нагрузки на систему охлаждения, кулеры которой стали работать с максимальным количеством оборотов.

При использовании графического адаптера в играх производительность выросла примерно на 7-13%, в зависимости от настроек.

Если сравнивать возможности GTX 680 в майнинге, до разгона она показывала значение 15 Mh/s для Эфириума, после повышения частоты – около 16,2 Mh/s.

Такой уровень не слишком высокий и примерно соответствует графическим картам GTX 1050, хотя у более новой модели от Nvidia меньше энергопотребление, а значит майнить выгоднее.

При сравнительно невысокой стоимости электроэнергии майнинг на GTX 680 принесёт определённую прибыль отечественному пользователю. Хотя покупать эту карту специально для таких целей нецелесообразно – на рынке можно найти варианты с более выгодным соотношением затрат к скорости добычи криптовалют.

Тестирование в играх

Проверяя FPS GTX 680 в играх, можно получить представление о её возможностях и принять решение по поводу покупки карты. Удобнее всего сделать это, тестируя самые требовательные к ресурсам игровые приложения на момент выпуска модели и в настоящее время. Причём, используя её вместе с соответствующими ЦПУ (Core i5 или i7) и памятью (не меньше 6–8 Гб).

При запуске с помощью видеоадаптера современных игр были получены такие результаты:

  • для Lost Planet 2 – игры, в которой активно используется 3D-графика и происходит постоянное наложение карт смещения с геометрическими объектами, – GTX 680 показывает 52 кадра в секунду;
  • при запуске ещё более требовательной к характеристикам компьютера игры Metro 2033 с разрешением FullHD можно получить значение около 25 FPS – неплохо для комфортного игрового процесса, однако практически на грани;
  • в игре DiRT 3 показатели GTX 680 составляют около 74 кадров в секунду, хотя эта игра уже не может продемонстрировать все возможности графики;
  • для Mafia II FPS карты достигает 50 даже без разгона, для разогнанной карты значение увеличивается примерно на 12%;
  • на максимальных настройках в шутере Aliens vs. Predator видеоадаптер показывает 32 FPS;
  • для технологического шутера Hard Reset значения FPS получились самыми впечатляющими – при запуске игры на высоких настройках частота достигает 83 кадр/с;
  • при попытке поиграть в одну из последних частей стратегии Total War, Shogun 2, видеокарта снова получает приличное значение частоты – 106 кадр/сек;
  • в игре Batman: Arkham City при разрешении 1650х1080 видеоадаптер показывает 27 FPS.

При запуске с помощью GTX 680 современных игровых приложений показатели падают. Однако на средних и минимальных настройках всё равно запускаются почти все игры.

Например, в Assasin Creed: Origins при запуске с процессором Core i7 и 6 Гб ОЗУ она обеспечит плавный игровой процесс с разрешением 1280х720. На невысоких настройках запустится и Kingdom Come: Deliverance, игра 2018 года, хотя для нормальной работы понадобится 8 Гб оперативной памяти.

Обновление драйверов

Отсутствие подходящего для GTX 680 драйвера приводит к проблемам с работой требовательных к ресурсам игр и других полезных программ. На экране компьютера будут появляться сообщения об ошибке, компьютер начнёт зависать и работать медленнее, чем должен. Решение проблемы заключается в скачивании подходящего программного обеспечения с официального ресурса производителя – компании Nvidia.

Можно воспользоваться для обновления драйвера и другими сайтами, в надёжности которых уверен пользователь. Не рекомендуется скачивать и устанавливать ПО для видеокарты со сторонних ресурсов – результатом нередко становится заражение компьютера вирусом. Нежелательно делать это и с помощью специальных утилит, использование которых может привести и к установке устаревших драйверов, и к попаданию на ПК вредоносных программ.

На днях компания NVIDIA представила GeForce GTX 770 , который является немного разогнанной версией бывшего флагмана шестисотой серии. Можно было бы сказать, что дни GeForce GTX 680 уже полностью сочтены и этому бойцу пора на пенсию. Но в данном обзоре мы убедимся, что старую гвардию рано списывать со счетов. Некоторые GeForce GTX 680 могут оказаться для покупателя интереснее, чем обновленный GeForce GTX 770.

В прошлом году нами рассматривалась топовая оверклокерская версия GeForce GTX 680 от ASUS — GTX680-DC2T-2GD5 . Нынешний герой, ASUS GTX680-DC2O-2GD5, мало отличается от знакомого нам флагмана. Как мы увидим, это практически близнецы-братья за исключением разных заводских частот и одной буквы в названии моделей.

Начнем с традиционного осмотра упаковки. Коробка стандартная, большая. На лицевой стороне имеется изображение кулера. Крупная надпись сразу информирует нас, что частота Boost Clock повышена до 1084 МГц.


Комплект поставки следующий:

  • переходник питания с двух PCI-E 6pin на PCI-E 8pin;
  • мостик SLI;
  • диск с программным обеспечением;
  • инструкция.
Видеокарта очень крупная. Общая ее длина достигает 30 сантиметров. Система охлаждения занимает три слота.


Внешне — это полная копия упоминавшегося уже видеоадаптера ASUS GTX680-DC2T-2GD5. Сбоку прикручено большое ребро жесткости.


Все выдержано в фирменном стиле ROG — черный цвет сочетается с красными вставками.


Задняя сторона закрыта металлической пластиной. Сбоку в текстолите видны несколько промаркированных отверстий. ASUS GTX680-DC2O-2GD5 поддерживает технологию VGA Hotwire, и при подключении карты через эти контакты на соответствующие линии материнских плати ASUS серии Republic of Gamers появляется возможность контроля и управления напряжением питания графического процессора и памяти.


На задней панели размещено четыре разъема: DisplayPort, HDMI и два DVI.


Для охлаждения используется кулер DirectCU II, который уже хорошо знаком нашим читателям по другим обзорам видеокарт ASUS. Пять тепловых трубок с технологией прямого контакта с чипом, двухсекционный тонкий радиатор и очень большие вентиляторы с реальным размером крыльчатки 92 мм (что фактически соответствует типоразмеру 100 мм). Уникальностью данной системы является использование вентиляторов толщиной 25 мм. Обычно другие производители устанавливают тонкие вентиляторы, а оставшееся пространство используют для увеличения площади радиатора. Подход ASUS противоположный, но такая система уже давно доказала свою эффективность.


Радиатор так плотно сидел внутри металлического кожуха, что напрочь отказывался изыматься после выкручивания всех фиксирующих винтов. Мы не стали особо усердствовать из-за опасности повреждения радиатора. Если же вам интересны более детальные фотографии, их можно просмотреть в обзоре ASUS HD7970-DC2-3GD .


Присутствует обязательный радиатор блока VRM.


Пластина, которая накрывает обратную сторону платы, ни от каких компонентов тепло не отводит. Она лишь служит в качестве усилителя общей конструкции и заодно выполняет защитные функции.


Никаких сюрпризов не преподносит и осмотр печатной платы. Дизайн полностью копирует ASUS GTX680-DC2T-2GD5. Восьмифазный преобразователь напряжения GPU под управлением контроллера DIGI+ ASP1212. Подсистема питания памяти реализована с использованием двух фаз.


Сердцем видеокарты является графический чип GK104-400-A2.


Распаяны микросхемы памяти Samsung K4G20325FD FC03.


Заводской разгон вроде бы скромный. Базовая частота чипа повышена с 1006 МГц до 1020 МГц. Память обходится без разгона и функционирует на эффективных 6008 МГц.


Согласно GPU-Z параметр ASIC Quality равен 80,8%.


Реальная частота ядра стабильно держится на отметке 1124 МГц. Бенчмарк Crysis: Warhead при максимальном качестве графики прогрел GPU лишь до 66 °C. Скорость вращения вентиляторов едва превысила 1500 об/мин, шум был низкий.


По итогам 12-минутного тестирования Unigine Valley benchmark пиковая температура не превысила 68 °C. Вентиляторы раскручивались уже до 1620 об/мин.


Разгон без преувеличений великолепный. Карта взяла 1200 МГц по базовой частоте, что дало реальную частоту Boost 1293 МГц. До уровня ASUS GTX680-DC2T-2GD5 наш экземпляр не дотянул каких-то 15 МГц. Зато GTX680-DC2O-2GD5 оказался намного лучше в разгоне памяти, одолев 7750 МГц. Неимоверный для GeForce GTX 680 результат! Такого мы не добивались ни на одной карте этой серии. При этом стоит отметить, что это и единственный GeForce GTX 680 на чипах Samsung K4G20325FD FC03. Зато точно такими же микросхемами был оснащен MSI N770 TF 2GD5/OC, который одолел еще более впечатляющие 8002 МГц.


Разгон отличнейший. А если прибегнуть к прошивке модифицированного BIOS с повышенным напряжением, то результаты разгона GPU будут еще более впечатляющими. В данном случае мы ограничились простым разгоном на родном напряжении, а за соответствующими инструкциями по обновлению BIOS вы можете обратиться к нашей старой статье .

Обороты пришлось поднять. Мы зафиксировали их на отметке 43%, что примерно соответствовало 1900 об/мин. Шум при этом был заметный, но терпимый. Температура ядра в Crysis: Warhead не превысила 69 °C.


Unigine Valley benchmark прогрел карту до 72 °C. В данном приложении уже наблюдались просадки частоты до 1280 МГц, хотя и очень редкие.

Характеристики тестируемых видеокарт

В нижней таблице приведены официальные спецификации участников тестирования. На сравнительных диаграммах производительности указан полный рабочий диапазон частот для GeForce, включая едва достигаемые пиковые значения.

Видеоадаптер GeForce GTX 780 GeForce GTX 770 GeForce GTX 680 Radeon HD 7970 GHz Edition Radeon HD 7970
Ядро GK110 GK104 GK104 GK104 Tahiti Tahiti
Количество транзисторов, млн. шт 7100 3500 3500 3500 4312 4312
Техпроцесс, нм 28 28 28 28 28 28
Площадь ядра, кв. мм 561 294 294 294 365 365
Количество потоковых процессоров 2304 1536 1536 1536 2048 2048
Количество текстурных блоков 192 128 128 128 128 128
Количество блоков рендеринга 48 32 32 32 32 32
Частота ядра, МГц 863-900 1046-1085 1020-1084 1006-1059 1000-1050 925
Шина памяти, бит 384 256 256 256 384 384
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Частота памяти, МГц 6008 7010 6008 6008 6000 5500
Объём памяти, МБ 3072 2048 2048 2048 3072 3072
Поддерживаемая версия DirectX 11.1 11.1 11.1 11.1 11.1 11.1
Интерфейс PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0
Заявленный уровень мощности, Вт 250 230 н/д 195 250 250

Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Intel Core i7-3930K (3,2@4,4 ГГц, 12 МБ);
  • кулер: Thermalright Venomous X;
  • материнская плата: ASUS Rampage IV Formula/Battlefield 3 (Intel X79 Express);
  • память: Kingston KHX2133C11D3K4/16GX (4x4 ГБ, DDR3-2133@1866 МГц, 10-11-10-28-1T);
  • системный диск: Intel SSD 520 Series 240GB (240 ГБ, SATA 6Gb/s);
  • дополнительный диск: Hitachi HDS721010CLA332 (1 ТБ, SATA 3Gb/s, 7200 об/мин);
  • блок питания: Seasonic SS-750KM (750 Вт);
  • монитор: ASUS PB278Q (2560х1440, 27”);
  • операционная система: Windows 7 Ultimate SP1 x64;
  • драйвер GeForce: NVIDIA GeForce 314.22;
  • драйвер GeForce GTX 780/770: NVIDIA GeForce 320.18;
  • драйвер Radeon: ATI Catalyst 13.3 beta 3.
В операционной системе были отключены User Account Control, Superfetch и визуальные эффекты интерфейса. Настройки драйверов стандартные, без изменений. Методика тестирования описана .

Результаты тестирования



В Assassin’s Creed 3 наш герой почти не уступает GeForce GTX 770 в номинале и легко превосходит его при разгоне.



Преимущество над GeForce GTX 680 в минимальное. При разгоне ASUS оставляет позади не только референс, но и форсированный GeForce GTX 770.



ASUS демонстрирует минимальную разницу с референсом в . При разгоне он занимает первое место среди всех карт на базе GK104. Отрыв от Radeon HD 7970 GHz Edition на уровне 8-12%.



В Warhead мизерное преимущество над простым GeForce GTX 680. С повышением частот ASUS обходит ускоренный GeForce GTX 770 на 3-4%. На повышенных частотах ASUS нагоняет работающий в номинале GeForce GTX 780.



В простой GeForce GTX 680 немного уступает Radeon HD 7970 GHz Edition, но ASUS GTX680-DC2O-2GD5 уже немного лучше. При разгоне наш герой сопоставим с работающим в номинале GeForce GTX 780, даже чуть быстрее.



Традиционно скромное преимущество ASUS над простым собратом в . При разгоне в этот раз они тоже слабо отличаются. Потягаться силами со старшим GeForce GTX 780 нашему герою уже не удается.



Последняя часть Hitman симпатизирует решениям AMD и никакой разгон не помогает GeForce GTX 680 сравняться со старшим Radeon. Среди тройки карта на базе GK104 в разгоне лучше всех ASUS.

Metro 2033

Энергопотребление


Система с ASUS потребляет больше ватт, чем конфигурации с обычным GeForce GTX 680. Результат вполне закономерный. С учетом хорошего разгонного потенциала это говорит об изначально повышенном напряжении. Но ASUS все равно оказывается экономичнее Radeon.

Выводы

Рассмотренная модель GTX680-DC2O-2GD5 является полной копией TOP-версии GeForce GTX 680 от ASUS. Начальные частоты ниже, но это легко компенсируется разгоном, и разгонять есть куда. Потенциал у GTX680-DC2O-2GD5 великолепный. И это касается как возможностей графического процессора, так и памяти. Рассмотренный видеоадаптер стал рекордсменом по разгону видеопамяти среди всех представителей серии, побывавших у нас ранее, лишь немного уступив в этом плане GeForce GTX 770. В итоге можно легко получить производительность на 25% выше начального уровня GeForce GTX 680. Охлаждение тоже не высоте. То, что в номинале этот ASUS тихий и холодный, ясно сразу. Для нас более важно, что и при разгоне кулер легко справляется со своей задачей при среднем уровне оборотов. Мы, признаться, выставляли скорость вентиляторов с «запасом», чтобы не было проблем с перегревом. При более тонких настройках не составит труда достичь полного акустического комфорта при максимальных частотах. Аргументом в пользу рассмотренной модели является и тот факт, что ASUS анонсировала GeForce GTX 770 пока лишь с двухслотвым охлаждением DirectCU. И, похоже, версии с трехслотовым охладителем не будет вообще. Так что GTX680-DC2O-2GD5 совершенно не теряет актуальности. Этот видеоадаптер не только достоин звания одного из лучших в пантеоне GeForce GTX 680, он и на фоне новоявленных GeForce GTX 770 выглядит отлично.

Оборудование для тестирования было предоставлено следующими компаниями:

  • ASUS — монитор ASUS PB278Q, плата ASUS Rampage IV Formula/Battlefield 3, видеокарты GTX680-2GD5 и GTX680-DC2O-2GD5;
  • MSI — видеокарты MSI N770 TF 2GD5/OC и R7970 Lightning;
  • Intel — процессор Intel Core i7-3930K и накопитель Intel SSD 520 Series 240GB;
  • Kingston — комплект памяти Kingston KHX2133C11D3K4/16GX;
  • Syntex — блок питания Seasonic SS-750KM;
  • Thermalright — Thermalright Venomous X.

Методика тестирования

Конфигурация тестового стенда
CPU Intel Core i7-3960X @ 4,6 ГГц (100x46)
Материнская плата ASUS P9X79 Pro
Оперативная память DDR3 Kingston HyperX 4x2 Гбайт @ 1600 МГц, 9-9-9
ПЗУ Transcend 2,5 SSD 128 Гбайт
Блок питания IKONIK Vulcan, 1200 Вт
Охлаждение CPU Thermalright Silver Arrow
Корпус CoolerMaster Test Bench V1.0
Операционная система Windows 7 Ultimate X64 Service Pack 1
ПО для карт AMD AMD Catalyst 12.2 + Catalyst Application Profiles 12.2 CAP 1
ПО для карт NVIDIA 300.99 (GeForce GTX 680), WHQL 296.10 (остальные)

Настройки драйвера AMD Catalyst — по умолчанию
Antialiasing Application Settings
Anisotropic Filtering Application Settings
Tesselation Application Settings
Catalyst A.I. Texture Filter Quality Quality, Enable Surface Format Optimization
Wait for V-Sync Disable, unless application Specifies
AA Mode Multisample
Triple buffernig Disable
Настройки драйвера NVIDIA
CUDA графические процессоры Все
Анизотропная фильтрация Управление приложением
Вертикальная синхронизация Использовать настройку 3D-приложения
Затенение фонового освещения Выкл.
Максимальное количество заранее подготовленных кадров 3
Потоковая оптимизация Авто
Режим управления электропитанием Адаптивный
Сглаживание — гамма-коррекция Выкл.
Сглаживание — режим Управление от приложения
Тройная буферизация Выкл.
Ускорение нескольких дисплеев Режим многодисплейной производительности
Фильтрация текстур — анизотропная оптимизация Выкл.
Фильтрация текстур — качество Качество
Фильтрация текстур — отрицательное отклонение УД Разрешить
Фильтрация текстур — трилинейная оптимизация Вкл.
Набор бенчмарков
Программа API Настройки Режим тестирования Разрешение
3DMark 2011 DirectX 11 Профили Performance, Extreme

Unigine Heaven 2 DirectX 11 Макс. качество, DirectX 11, тесселяция в режиме Extreme AF 16x, MSAA 4x 1920х1080 / 2560х1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking Tool DirectX 10 Frost flythrough. Макс. настройки, DirectX 10 AF 16x, MSAA 4x 1920х1080 / 2560х1440
Metro 2033 + Metro 2033 Benchmark DirectX 11 Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл. AF 16x, MSAA 4x 1920х1080 / 2560х1440
DiRT 3 + Adrenaline Racing Benchmark Tool DirectX 11 Aspen, 8 машин. Макс. качество, DirectX 11 AF, AA 4х 1920х1080 / 2560х1440
Crysis 2 + Adrenaline Crysis 2 Benchmark Tool DirectX 11 Central Park. Макс. качество, DirectX 11, текстуры высокого разрешения AF 16x, Post MSAA + Edge AA 1920х1080 / 2560х1440
Battlefield 3 + FRAPS DirectX 11 Начало миссии Going Hunting. Макс. качество. AF 16x, MSAA 4x 1920х1080 / 2560х1440
Batman: Arkham City. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440
The Elder Scrolls 5: Skyrim + FRAPS DirectX 9 Город Whiterun. Макс. качество AF 16x, MSAA 4x 1920х1080 / 2560х1440
Call of Duty: Modern Warfare 3 + FRAPS DirectX 9 Миссия Return to Sender. Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440

В качестве соперников GeForce GTX 680 в тестировании приняли участие следующие видеокарты:

  • AMD Radeon HD 7970 (1160/7200 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500, 3 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)
  • NVIDIA GeForce GTX 580 (772/4004 МГц, 1,5 Гбайт)
  • AMD Radeon HD 6970 (880/5500 МГц, 2 Гбайт)

Разгон, температура, энергопотребление

GeForce GTX 680 мы разгоняли с помощью единственной утилиты, которая сейчас поддерживает Kepler, — EVGA Precision X 3.0 Beta 20, да и то не без проблем. Вручную выставить напряжение GPU она как бы позволяет, но на самом деле это ни на что не влияет.

В целом GPU Boost сильно осложняет жизнь оверклокеру, меняя частоту и напряжение непредсказуемым образом. Кроме того, есть ограничение на потребляемую мощность, которую пока можно увеличить только на 32%. Поэтому если одновременно с процессором разогнать и память, то GPU Boost уже не будет так сильно поднимать частоту. Наконец, при перегреве Boost Clock тоже падает.

Мы проверили два разных варианта разгона, увеличив лимит энергопотребления и обороты кулера до максимума. Предельная базовая частота GPU, на которой карта была стабильна, составила 1086 МГц. При этом в бенчмарке Unigine Heaven Boost Clock достигал 1152 МГц, а напряжение на ядре — 1,175 В (базовое для режима 3D — 1,062 В). Второй вариант разгона: дополнительно увеличить частоту памяти на 460 Мгц — 6928 МГц эффективной частоты. В таком случае Boost Clock поднимается только до 1139 МГц.

Судя по графикам, в большинстве игр больший прирост производительности обеспечивает разгон GPU совместно с памятью. В целом большого эффекта от разгона нет: повышение частоты малозаметное, а в штатном режиме работы все равно трудится GPU Boost, отнимая хлеб у оверклокера.

По температурному режиму GTX 680 ничем не лучше своих соперников. Radeon HD 7970 под нагрузкой греется меньше, GTX 580 — немного сильнее. Все дело в новой системе охлаждения, малошумной, но не столь эффективной

Пиковое энергопотребление системы с GTX 680 на борту немного выше, чем у HD 7970, и приближается к оному у HD 6970. По сравнению с GTX 580 прогресс налицо, но разница не критическая. В разгоне GTX 680 развивает мощность лишь на 10 Вт больше, чем в штатном режиме. Что и не удивительно, так как разгон невелик.

⇡ Производительность, синтетические тесты

  • GTX 680 с большим отрывом опережает Radeon HD 7970 и сравнялся с разогнанным HD 7970.
  • По показателю Graphics Score GTX 680 приближается к GTX 590 (по 3DMark Score у последнего аномально низкий результат, но ничего, к глюкам 3DMark мы уже привыкли).
  • GTX 680 с разгоном выходит на уровень Radeon HD 6990.
  • Преимущество GTX 680 перед GTX 580 огромно.

  • Здесь между GTX 680 и HD 7970 на штатных частотах нет большой разницы.
  • Двухпроцессорные карты все-таки быстрее, чем GTX 680 (с GTX 590 у 3DMark 2011 опять сложные отношения).
  • Разогнанный GTX 680 не только превосходит разогнанный HD 7970, но даже сравнялся с HD 6990 — постоянным рекордсменом в этом бенчмарке.
  • Прирост скорости по отношению к GTX 580 весьма велик.

Unigine Heaven 2

  • GTX 680 превзошел HD 7970. Разница особенно велика при разрешении 1920х1080.
  • GTX 680 находится на одном уровне с HD 6990, но до GTX 590 немного не достает.
  • Разогнанный GTX 680 сравним с разогнанным HD 7970 и GTX 590.
  • Опять-таки есть большой прогресс по сравнению с GTX 580.

⇡ Производительность, игровые тесты

Crysis Warhead (DirectX 10)

  • А вот здесь GTX 680 проиграл своему основному конкуренту. Разгон помогает сравниться с HD 7970, работающим в штатном режиме, но разогнанный HD 7970 уже совершенно недосягаем.
  • Двухпроцессорные карты GTX 680 не может догнать даже с разгоном.
  • GTX 680 значительно быстрее, чем предыдущий флагман NVIDIA, GTX 580.

Metro 2033 (DirectX 11)

  • GTX 680 уступает HD 7970 и только благодаря разгону может с ним сравниться.
  • Разогнанный HD 7970 на голову превосходит разогнанный GTX 680.
  • Двухпроцессорные карты GTX 680 не по зубам.
  • Прирост производительности по сравнению с GTX 580 в абсолютных значениях невелик, что объясняется невероятной тяжестью этой игры с максимальными настройками.

DiRT 3 (DirectX 11)

  • GTX 680 берет реванш, демонстрируя огромное преимущество перед HD 7970.
  • HD 7970 с разгоном сравнивается с GTX 680 в штатном режиме, но разогнанный GTX 680 с большим отрывом вновь выходит вперед.
  • GTX 680 работает почти так же быстро, как GTX 590 и Radeon HD 6990, а при разгоне опережает их.
  • Про GTX 580 нечего и говорить. Преимущество нового флагмана колоссальное.

Crysis 2 (DirectX 11)

  • GTX 680 чуть-чуть быстрее, чем HD 7970.
  • Разгон почти не прибавил FPS при разрешении 1920х1080, но в 2560х1440 у GTX 680 теперь есть ощутимое преимущество над HD 7970. Разогнанный HD 7970 также упирается в невидимое ограничение в режиме 1920x1080, а в 2560x1440 берет реванш.
  • GTX 680 мало отличается от GTX 590 и сопоставим с Radeon HD 6990 в разрешении 1920x1080.
  • Превосходство GTX 680 над GTX 580 огромно.

Battlefield 3 (DirectX 11)

  • GTX 680 быстрее, чем HD 7970, но разница заметна только в режиме 1920х1080.
  • Разгон не прибавил GTX 680 ни единого FPS! В то же время разогнанный HD 7970 оставил своего соперника далеко позади.
  • Двухпроцессорные карты GTX 680 догнать не удалось.
  • Несмотря ни на что, по сравнению с GTX 580 новая карта работает чрезвычайно быстро.

Batman: Arkham City (DirectX 11)

  • GTX 680 с огромным отрывом опередил HD 7970 в режиме 1920х1080. В режиме 2560х1440 разница уже не столь велика.
  • Разгон существенно прибавил GTX 680 FPS в разрешении 2560х1440, а вот в 1920х1080 эффекта нет. Поэтому в первом режиме разогнанная карта немного быстрее, чем разогнанный HD 7970, а во втором уступает.
  • GTX 680 гораздо быстрее, чем GTX 590 и HD 6990. Многопроцессорные конфигурации в этой игре работают из рук вон плохо.
  • Налицо большой прогресс по сравнению с GTX 580.

The Elder Scrolls 5: Skyrim (DirectX 9)

  • GTX 680 заметно быстрее, чем HD 7970, в режиме 1920x1080, а вот в 2560х1440 значимой разницы уже нет.
  • От разгона GTX 680 в этой игре нет никакого толку. HD 7970 подтянулся в режиме 1920x1080, но GTX 680 все равно чуть-чуть быстрее.
  • По результатам GTX 680 немного превосходит даже GTX 590.
  • GeForce GTX 580 не сильно отстает от GTX 680 в режиме 1920x1080, хотя в 2560х1440 разница уже весьма велика.
  • В целом с сугубо практической точки зрения в этой игре нет разницы между топовыми картами GTX 680, GTX 590, HD 6990 и HD 7970. Движок слишком простой по современным меркам.

Call of Duty: Modern Warfare 3 (DirectX 9)

  • GTX 680 самую малость быстрее, чем HD 7970.
  • Разгон на производительность GTX 680 практически не повлиял. А вот HD 7970 разогнался отлично и ушел далеко вперед.
  • Двухпроцессорные карты недосягаемы для GTX 680.
  • GTX 680 снова гораздо быстрее своего предшественника.

Все игры

  • Первое, что хорошо заметно на графиках: разгон дает GTX 680 до смешного малый прирост производительности. Очевидно, что GPU Boost уже в штатном режиме выбирает запас частоты. Лишь в некоторых играх от разгона есть какая-то польза.
  • В большинстве игр GTX 680 быстрее, чем Radeon HD 7970, но разница не критическая. Кроме того, есть примеры превосходства адаптера AMD: Crysis Warhead и Metro 2033.
  • Radeon HD 7970 отлично разгоняется и часто берет у GTX 680 реванш.

⇡ Выводы

Ну что ж, ожидание релиза сопровождалось такими невероятными слухами, что все уже успели вообразить себе видеокарту с неслыханными спецификациями и чудовищной вычислительной мощью. 512-битная шина памяти, 6,4 млрд транзисторов и тому подобное. А в результате гордое имя GeForce GTX 680 получил куда менее амбициозный продукт. Такое впечатление, что за флагмана линейки отдувается адаптер среднего уровня. Неспроста же GPU новинки называется GK104, а не GK110, что соответствовало бы предшествующей номенклатуре (интрига вокруг GK110 сохраняется: выйдет ли он вообще в серии GeForce 600?) . Видно, что для успешной конкуренции с Radeon HD 7970 из карты выжали все что можно. Частоту GPU подняли до 1 ГГц, оставив лишь небольшой запас для разгона. Да и разгонять ее вручную почти что бессмысленно. В штатном режиме это уже делает технология GPU Boost, которую, похоже, прилепили к карте в последний момент, чтобы использовать малейшую лазейку для прироста производительности. Оверклокеры еще не раз помянут ее добрым словом.

Но если отрешиться от высоких ожиданий, то с практической точки зрения Kepler оказался вполне конкурентоспособным. Пусть победа достигнута неизящными методами, но GTX 680 все-таки быстрее, чем Radeon HD 7970, при этом дешевле (по официальным ценам — да. На деле Radeon HD 7970 уже стоит менее 17 000 рублей. — прим. ред. ) и потребляет меньше электроэнергии. А конкуренция всегда работает в пользу покупателя.



 

Пожалуйста, поделитесь этим материалом в социальных сетях, если он оказался полезен!