Gtx 690 в современных играх. Система охлаждения – эффективность и уровень шума


Уж не знаю, что побудило NVIDIA выпустить двойной тандем в столь короткие сроки: верхние позиции отвоеваны силами GTX 680, скорых анонсов более быстрых решений у конкурента не предвидится. Вот бы ещё в средний сектор подбавить решений на базе свежей архитектуры - судя по прогрессу, достигнутому NVIDIA при разработке Kepler, его обрезанные решения с ещё более «холодным нравом» и замечательной производительностью могли бы потеснить семитысячные решения в наиболее интересующем пользователей среднем ценовом сегменте.

А тут - 690-я, которая сама по себе является сложным (а значит, дорогим) решением, и предназначается для хардкорных геймеров. Тем более, что в прошлом подобные решения давались компании не без труда. Чего только стоит переход с двухплатного решения на одноплатное, которое случилось уже на закате линейки 2хх. Правда, 590-я была удачнее предшественницы, однако холодной её назвать язык не поворачивался. Многие из тех, кому довелось опробовать эти карты в деле, заговаривали о пользе жидкостного охлаждения для таких решений. У «красных» проблемы были примерно те же - значительное энергопотребление, высокие рабочие температуры… В общем, при проектировании таких решений перед производителями встает непростая задача: ужать до размеров одной платы в два раза больше элементов, организовать отвод и рассеивание огромного количества тепла, сделать это решение конкурентоспособным и доступным для покупателя. Видимо, окрыленная успехом GTX 680 (который, кстати, отличался вполне умеренными аппетитами), NVIDIA рискнула представить решение с двумя графическими процессорами.

Внешностью GTX 690 явно удалась. За счет использования стальных вставок, хромированных болтов и двух пластиковых окон более нет ощущения, что перед тобой какое-то техническое решение в черном пластике, наспех украшенное наклейкой с логотипом компании. 690-я уже больше походит на продукт высоких (чуть не сказал космических) технологий. В корпусе СО даже смонтирована подсветка надписи GEFORCE GTX, что на верхнем торце видеокарты (и при установке в корпус будет обращена к пользователю).

Двухчиповые видеокарты – совершенно особый вид графических адаптеров. Разработчики заслуженно гордятся такими продуктами, но всегда скромно умалчивают о доле подобных устройств в общих объемах продаж. Эти модели априори не относятся к числу массовых и не расходятся миллионными тиражами. Однако такие видеокарты наделены особой притягательной магией. Для разработчиков это прекрасная возможность продемонстрировать свой потенциал, а пользователям – обзавестись безудержно производительным решением. Несколько подзадержавшись с анонсом решений с новой графической архитектурой, компания NVIDIA спустя лишь месяц после анонса топовой представила двухчиповую модель с парой графических процессоров GK104 на борту. Исследуем возможности нового флагмана графической линейки калифорнийцев – GeForce GTX 690 .

GeForce GTX 690

Очередной носитель архитектуры NVIDIA, основанный на двух чипах GK 104, в общей сложности имеет 3072 потоковых вычислителя CUDA. Базовая частота GPU – 915 МГц, при этом GPU Boost позволяет ядрам динамически ускоряться более чем на 100 МГц – до 1019 МГц. Отметим, что тактовые частоты графических процессоров, хотя и ниже, чем у такового для , но отличие не столь велико, к тому же модель с двумя GPU использует более агрессивный алгоритм динамического ускорения.

Видеокарта оснащена 4 ГБ памяти GDDR5, которая работает на 6008 МГц. Каждому чипу доступны 2 ГБ, которые связаны с соответствующими процессорами 256-битовой шиной. Для подключения дополнительного питания понадобится два 8-контактных разъема. Заявленный уровень TDP сравнительно невелик, как для двухчипового решения – 300 Вт. При этом требования к мощности блока питания также довольно скромные: системе с GeForce GTX 690 будет достаточно 650-ваттного БП. Как и остальные адаптеры с чипами на Kepler, видеокарта готова к работе с PCI Express 3.0, пропускная способность которой вдвое выше, чем у шины предыдущего стандарта. Напомним, что для функционирования в режиме 3.0, новую версию интерфейса должны поддерживать процессор, в котором собственно содержится сам контроллер, материнская плата, а также видеокарта.

Дизайнеры отлично поработали над экстерьером видеокарты. Для верхней крышки применяется не традиционный для этого элемента пластик, а хромированный алюминий. При этом кожух адаптера не является цельным, через поликарбонатные окна можно увидеть радиаторные кассеты c набором пластин. Видеокарта выглядит очень стильно и эффектно.

Интерфейсная панель содержит три разъема DVI DL (2хDVI-I и DVI-D) и один Mini DisplayPort 1.2, каждый из которых может выводить картинку с разрешением до 2560х1600. Как и одночиповые модели на GK104, GeForce GTX 690 позволяет одновременно использовать четыре монитора. Часть крепежной пластины занимает решетка для выхлопа нагретого воздуха.

С обратной стороны адаптера в защитном кожухе предусмотрена рама, также предназначенная для вывода воздуха. В этот раз он будет уже поступать внутрь системного блока, потому подумать о дополнительной вентиляции системы не помешает.

На верхней кромке нанесена надпись «GEFORCE GTX», которая подсвечивается во время работы видеокарты. В целом визуально видеокарта выглядит очень стильно и эффектно, в этом отношении разработчики отлично справились со своей задачей.

Не меньше внимания уделено и внутреннему убранству. Каркас системы охлаждения выполнен из магниевого сплава. В конструкции СО используется две испарительные камеры с наборами никелированных алюминиевых пластин. Радиатор продувается 90-миллиметровым вентилятором осевого типа, установленным в центральной части видеокарты. Особо отметим, что система охлаждения занимает два слота, не посягая на пространство, предназначенное для других плат расширения.


Печатная плата концептуально отчасти похожа на ту, что использовалась для двухчиповой видеокарты предыдущего поколения – GeForce GTX 590. В данном случае применяется 10-слойная PCB и низкопрофильные качественные компоненты. Силовая подсистема использует 10-фазную схему – по пять фаз для каждого GPU, а также две отдельные фазы для питания памяти. Согласование работы обоих графических ядер производится с помощью скоростного моста PLX PEX8747, имеющего пропускную способность, соответствующую спецификации PCI Express 3.0.

С обратной стороны печатной платы нет никаких защитных пластин. Силовые компоненты здесь отсутствуют, потому с практической точки зрения в подобных элементах нет необходимости.

На верхней кромке PCB, ближе к крепежной пластине, расположен разъем для подсоединения моста позволяющего объединить две подобные видеокарты. Отметим, что коннектор всего один, а не два, как у многих производительных решений с чипами от NVIDIA. По понятным причинам, пары GeForce GTX 690 достаточно, чтобы получить максимально возможную графическую конфигурацию Quad SLI.

ZOTAC GeForce GTX 690 (ZT-60701-10P)

Референсный дизайн GeForce GTX 690 на начальном этапе будет использоваться для всех сдвоенных видеокарт, потому не удивительно, что первая коробочная версия адаптера от ZOTAC является полной копией тестового семпла от NVIDIA. Отличие заключается в имеющейся на нижней грани наклейке, позволяющей определить принадлежность устройства к определенному бренду.

Тактовые частоты графических процессоров и ОЗУ соответствуют рекомендуемым – 915/1019 МГц для GPU и 6008 МГЦ для 4 ГБ (2×2 ГБ) память GDDR5.

Устройство попало к нам на тестирование в ритейловой коробке, потому несколько слов о сопутствующей комплектации.

В поставку включены руководство, диск с драйверами, пара переходников с 6- на 8-контактные разъемы 12В для подключения дополнительного питания, а также переходник с DVI на аналоговый VGA. Кроме того, в коробке имеется набор из трех игр серии Assassin’s Creed, включая последнюю – Revelations, а также купон на трехдневные заезды в TrackMania2 Canyon. То, что есть – уже неплохо. Но, пожалуй, для устройства, которое попадет в розничную продажу по цене $1000+, не помешало бы сдобрить комплект какими-либо дополнительными бонусами (как минимум, переходниками Mini DisplayPort на полноформатный разъем и DVI-HDMI).

Конфигурация тестового стенда

Процессор Intel Core i7-3770K @ 4,5 ГГц Intel, www.intel.ua
Кулер Thermalright Archon Rev.A «1-Инком», www.1-incom.com.ua
Материнская плата MSI Z77A-GD65 (Intel Z77 Express) MSI, ua.msi.com
Оперативная память Team Xtreem TXD38192M2133HC9KDC-L (2×4 ГБ DDR3-2133) DC-Link, www.dclink.com.ua
Накопитель WD WD1001FALS (1 ТБ, 7200 об/мин) WD, www.wdc.com
Блок питания Thermaltake Toughpower Grand TPG-1200M (1200 Вт) Thermaltake, www.thermaltakeusa.com

В работе

Устанавливая топовую двухчиповую видеокарту, подсознательно готовишься к тому, что сейчас все начнет шуметь и греться. На практике с GeForce GTX 690 такого не происходит.


Во время работы на открытом стенде в режиме покоя графические процессоры прогрелись всего до 28 С. Вентилятор на 1150–1200 об/мин работает очень тихо. После хорошей игровой нагрузки в нашем случае температура GPU повысилась всего до 71 градуса, а скорость вращения вентилятора приблизилась к 2000 об/мин. Шум, издаваемый системой охлаждения увеличился, но если сравнивать его с таковым, издаваемым референсным кулером GeForce GTX 680, то эти величины сопоставимы. Пара одночиповых видеокарт определенно будут несколько голосистее одной GTX 690.

Общая эффективность системы охлаждения, конечно, впечатляет. Однако условия окружающей среды на открытом стенде и в корпусе заметно отличаются. Потому еще раз акцентируем внимание на организации принудительного вывода нагретого воздуха за пределы системного блока. Как минимум, один 120-миллиметровый вентилятор на задней стенке корпуса, работающий на выдув, в данном случае точно не будет лишним.

Говоря о нюансах работы видеокарты, следует отметить частотные особенности графического ядра. Алгоритм работы динамического разгона GPU Boost в данном случае весьма агрессивен. Учитывая то, что штатным значением является 915 МГц, даже при плотной нагрузке чип «выстреливал» до 1058 МГц. Заявленные же производителем 1019 МГц скорее являются неким промежуточным значением. В действительности дельта может составлять более 140 МГц, но, опять же, величина эта не постоянная и варьируется в зависимости от нагрузки, нагрева и уровня энергопотребления.

GeForce GTX 690 в режиме Quad SLI

Если не учитывать финансовую сторону вопроса, создать конфигурацию Quad SLI с GeForce GTX 690 проще простого. Для системы с четырьмя графическими процессорами необходима пара таких видеокарт. Имея на руках две GeForce GTX 690, мы не могли упустить возможность ощутить мощь четырех GK104, работающих в одной упряжке.

Помимо видеокарт, для сборки системы понадобится материнская плата с двумя слотами PCI Express x16, позволяющая использовать два графических адаптера в SLI-режиме. В нашем случае использовалась модель на чипсете Intel Z77, вполне удовлетворяющая эти требования. После установки видеокарт и объединения их мостиком-переходником система готова к работе.


С программной настройкой тоже никаких проблем не возникло. NVIDIA Control Panel рапортует об активации режиме Quad SLI.


Создавая подобную систему, особое внимание стоит уделить блоку питания. Для конфигурации с одной GeForce GTX 690 разработчик рекомендует использовать 650-ваттный БП. Используя две такие видеокарты, стоит подумать о хорошей модели мощностью 1000–1200 Вт.

Результаты тестирования

В отсутствии реального конкурента в лице двухчиповой модели от AMD с парой GPU Tahiti XT , превосходство GeForce GTX 690 над любой видеокартой с одним графическим процессором не вызывает сомнений. Мы провели ряд практических тестов, чтобы оценить насколько велико преимущество новинки и оправдывает ли она свою цену. Специально для техногурманов также включены результаты замеров производительности связки Quad SLI.




Неудивительно, что синтетические приложения, предназначенные для оценки производительности платформ, чутко реагируют на изменение возможностей конфигураций. В обоих пакетах от Futuremark двухчиповая новинка имеет серьезное преимущество над GTX 680 – 65–75%. Использование второй GTX 690 приносит дополнительные 45% «попугаев» в 3DMark Vantage. Последняя версия пакета получше оптимизирована, возможности графической подсистемы более весомы в общем результате. Потому Quad SLI приносит 81%-ную прибавку скорости.


В Heaven Benchmark 2.5 двухголовая видеокарта, в зависимости от разрешения, имеет преимущество в 83–91% над GTX 680. Вторая видеокарта в режиме Full HD приносит дополнительные 59%, а при 2560×1440 – порядка 77%.


Если ситуация в синтетике представляет чисто академический интерес, то вот тесты в реальных играх переводят исследование в практическую плоскость. Весьма технологичных шутер Lost Planet 2 как-то без энтузиазма воспринял увеличение количества графических процессоров. И если GTX 690 еще имеет ощутимое преимущество (23–58%) над GTX 680, то использование второй двухчиповой видеокарты приносит очень и очень скромные 9–16%.


Одному из самых ненасытных пожирателей системных ресурсов – игре Metro 2033 – режимы SLI нравятся в любом виде и количестве. 56–63% – таково преимущество GTX 690 над GTX 680. Вторая двухчиповая видеокарта приносит еще 66% в режиме с высоком разрешением. Наконец-то уже можно собрать конфигурацию, которая позволит комфортно поиграть в детище 4A Games с максимальным качеством на мониторах 27–30”. В 1920×1080 количество кадров/c увеличилось на 31%. Очевидно здесь уже сказывается возможности центрального процессора.


На первый взгляд не слишком притязательная к ресурсам Mafia II также с благосклонностью относится к увеличению числа GPU – GeForce GTX 690 опережает одночипового флагмана NVIDIA на 63–75%. Quad SLI приносит 56%-ную прибавку в 2560х1440, а вот в разрешении Full HD прирост уже не столь убедительный – всего 16%. С другой стороны, нужен ли он при 150 кадрах/c, вопрос риторический.

Говоря о производительности двухчиповой видеокарты, следует помнить о том, что мы имеем дело с SLI-режимом работы GPU. В этом случае скоростные показатели очень сильно зависят от программной оптимизации, как игровых движков, так и драйверов. NVIDIA активно работает с разработчиками и оперативно оптимизирует свое ПО


Энергопотребление системы с GeForce GTX 690 во время хорошей игровой нагрузки оказалось примерно на 130 Вт выше, чем у идентичной платформы c GeForce GTX 680. С одной стороны, разница ощутимая, с другой – такая конфигурация очевидно будет экономичнее ПК с парой GeForce GTX 680, работающих в SLI-режиме. Системе с разогнанным до 4,5 ГГц процессором Core i7-3770K и Quad SLI потребуется порядка 800 Вт, а если платформа собрана с щестиядерным CPU или топовыми чипами AMD, то энергопотребление будет еще выше. Это стоит учитывать при выборе БП.

Итоги

На сегодняшний день GeForce GTX 690 – самая быстрая видеокарта в мире. О целесообразности покупки графического адаптера за $1000 можно дискутировать довольно долго. Конечно, ценник с тремя нулями серьезно ограничивает круг потенциальных владельцев GeForce GTX 690, но в том, что она найдет своего покупателя, нет никаких сомнений. Прежде всего, это достаточно обеспеченные энтузиасты, которым нужна максимально возможная производительность. Вряд ли откажутся от подобной видеокарты и владельцы конфигураций с несколькими крупноформатными мониторами. Сдвоенная модель приносит серьезный прирост производительности, который возрастает с увеличением разрешения и улучшением настроек качества картинки. Никаким разгоном видеокарты с одним GK104 добиться таких же результатов не удастся.

Новинка может стать более практичным решением для тех, кто изначально планировал покупку пары . Единственным весомым недостатком GeForce GTX 690 , пожалуй, является ее высокая стоимость. Ждем аналогичное конкурентное решение от AMD, надеясь, что оно будет доступнее, потому как видеокарта по цене неплохой игровой системы скорее привлечет лишь тех, кто за ценой не постоит.

Не так давно, в конце марта вышел новый однопроцессорный флагман трехмерной графики - Geforce GTX 680, и вот снова анонс: теперь в свет выходит уже просто монстр: почти удвоенный GTX 680. Да, по сути два ускорителя на одной карте.

Мы уже не раз видели и изучали двухпроцессорные видеокарты. Всегда это были самые мощные ускорители и всегда что-то такое имиджевое, потому что такие продукты очень дорогие по себестоимости, массово их выпускать весьма накладно (спрос не столь велик), поэтому решили устанавливать на такие изделия заведомо очень высокие цены, чтобы даже небольшой спрос сбить до минимального. Понятно, что даже при таких ценах прибыль от выпуска очень маленьких серий будет невелика, одно это дает компании своего рода имидж, что ее ускоритель - самый быстрый в мире, причем абсолютно и недосягаемо (на какой-то период времени).

Но вопрос... Как подать этот особо нишевый продукт? - С подготовкой. :-) В рамках нее компания Nvidia разослала по СМИ гвоздодеры-фомки, на которых было написано, чтобы использовать в случае столкновения с зомби или... А вот что такое «или» - мы гадали.

И вот, в один день, это был понедельник, погода была хорошей, хоть и прохладной, мы получаем деревянный ящик. Сочетания половинок логотипа Nvidia на гвоздодере и на ящике четко дало понять, что вот для чего нужна фомка.

Вскрытие ящика пресловутой фомкой подтвердило наши подозрения: в грозном и суровом ящике лежало нежное и очень высокотехнологичное устройство, которое геймерам может послужить очень сильным оружием для получения максимальных впечатлений.

Вот такой маркетинг... А вы спрашиваете, почему Geforce - очень популярная марка - Да потому что компания умеет ее поддерживать даже на выпусках очень дорогих изделий ценой в 1000 долларов США.

Часть 1: Теория и архитектура

Совсем недавно вышло мощнейшее решение компании Nvidia, видеокарта модели Geforce GTX 680 , основанная на первом графическом процессоре архитектуры Kepler и ставшая самым быстрым одночиповым решением на рынке. Казалось бы - его производительности достаточно для всех применений, тем более что подавляющее большинство игр сейчас являются мультиплатформенными и редко требуют большей производительности, чем могут обеспечить даже решения среднего уровня. Да что там, выходят уже и тонкие игровые ультрабуки , на которых (при определённых оговорках, конечно), вполне можно играть при сравнительно высоких настройках качества даже в самые современные игры.

И всё же, наиболее требовательным игрокам и энтузиастам не хватает производительности даже самых мощных одиночных решений, и они желают приобрести видеокарты с двумя GPU. Конечно, такие видеокарты раскрываются только в ультравысоких разрешениях, с применением максимальных уровней полноэкранного сглаживания, да ещё и в наиболее требовательных 3D играх. Плюс к этому, все остальные компоненты системы (CPU, PCI Express, оперативная память) также не должны ограничивать возможности GPU. Доля сверхтребовательных покупателей таких систем невелика, но зато они платёжеспособны и являются наиболее преданной аудиторией с точки зрения производителей игровых видеокарт.

Для этой ниши энтузиастов и требовательных игроков с давних пор выпускают двухчиповые видеокарты, которые становятся самыми быстрыми ускорителями на рынке. История таких мощнейших решений началась ещё во времена 3dfx Voodoo 2 и ATI Rage Fury MAXX, она продолжалась и в дальнейшем, вплоть до настоящего времени. Со всеми своими недостатками вроде экстремально высокого энергопотребления и тепловыделения, сверхвысокой ценой и нередкими проблемами в производительности, двухчиповые платы для энтузиастов всё же имеют преимущество в виде большей частоты кадров в играх.

Хотя подобные сверхмощные (и сверхредкие!) решения не очень сильно влияют на финансовые успехи компаний, их имиджевое влияние на рынок в целом нельзя недооценивать. Такие видеокарты предназначены для самой активной и обеспеченной части покупателей графических решений, что весьма важно для производителей. Ну а с нынешними явно завышенными ценами на новое поколение видеокарт (это касается и AMD и Nvidia), на таких платах можно ещё и подзаработать, ведь стоят они теперь аж... впрочем, об этом мы поговорим позже.

Итак, сегодня компания Nvidia представила новую двухчиповую видеокарту на базе GPU семейства Kepler - Geforce GTX 690. Естественно, новая модель Geforce предназначена исключительно для энтузиастов компьютерных игр, не стеснённых в средствах, а ещё больше - на любителей разгона, ставящих рекорды в бенчмарках. Важно, что графические процессоры GK104, устанавливаемые на Geforce GTX 690, не урезаны по своим возможностям по отношению к одночиповой GTX 680. Оба GPU имеют по 1536 потоковых процессоров, на каждый из чипов приходится по два гигабайта очень быстрой GDDR5 видеопамяти, работающей на сдвоенной 256-битной шине.

Инженерам Nvidia было проще вместить потребление двух GK104, чем это было с парой GF110, которые отличались прожорливостью и горячим нравом. И всё же, даже несмотря на отличную энергетическую эффективность семейства Kepler, рабочую частоту для графических процессоров в Geforce GTX 690 пришлось немного снизить. Аналогично Geforce GTX 590, новая видеокарта Nvidia имеет два 8-контактных разъёма дополнительного питания, а не схему 8+6, которой теоретически вполне могло хватить, исходя из заявленной величины энергопотребления.

На вопросах производительности и питания мы остановимся дальше, а пока попробуем разобраться, для чего ещё может быть нужна мощь Geforce GTX 690. Хотя среди особенностей новой модели есть поддержка разъёма SLI для объединения двух подобных видеокарт в режиме Quad SLI, это получается сверхэкстремальная система на очень редких любителей, так как игровым приложениям такая мощь ну точно не нужна, особенно учитывая проблемы AFR-рендеринга.

Несколько более полезным кажется вариант по созданию игровой системы на основе одной двухчиповой видеокарты, один из GPU которой занимается графическими расчётами, а второй - физическими эффектами PhysX, ускоряемыми на графических процессорах. Но игровых приложений, в которых желательно применение отдельного мощного GPU для физики, не так уж и много, и их количество с каждым годом растёт не слишком быстро.

Зато есть любители вывести стереоизображение сразу на несколько мониторов высокого разрешения, а Geforce GTX 690 не просто поддерживает такие конфигурации, но обеспечивает достаточную производительность в таких случаях. Впрочем, все эти возможности предназначены исключительно для тонкого верхнего слоя пользователей. Для них, к слову, цена решения хоть и важна, но не является определяющей - других вариантов то всё равно нет.

Так как анонсированное сегодня двухчиповое решение Nvidia основано на двух графических процессорах GK104 архитектуры «Kepler», о которой мы уже подробно рассказывали и которая близка к родственной архитектуре «Fermi», то читателям будет полезно ознакомиться со статьями о ранних моделях графических решений:

Предполагая, что с предыдущей и текущей архитектурами видеочипов Nvidia вы уже неплохо знакомы, рассмотрим подробные характеристики двухчиповой видеокарты этой компании, основанной на паре графических процессоров GK104 из семейства Kepler.

Графический ускоритель Geforce GTX 690

  • Кодовое имя чипов GK104;
  • Технология производства 28 нм;
  • Два чипа по 3.54 миллиарда транзисторов каждый;
  • Площадь ядер дважды по 294 мм 2 ;
  • Унифицированная архитектура с массивом процессоров для потоковой обработки различных видов данных: вершин, пикселей и др.;
  • Аппаратная поддержка DirectX 11 API, в том числе шейдерной модели Shader Model 5.0, геометрических и вычислительных шейдеров, а также тесселяции;
  • Двойная 256-битная шина памяти: по четыре независимых контроллера на чип, шириной по 64 бита каждый, с поддержкой GDDR5 памяти;
  • Базовая частота ядра 915 МГц (на 10% ниже, чем у одночипового варианта);
  • Средняя турбо-частота ядра 1019 МГц (на 4% ниже, чем у одночипового варианта);
  • 2×8 потоковых мультипроцессоров, включающих в общем 3072 скалярных ALU для расчётов с плавающей запятой (поддержка вычислений в целочисленном формате, с плавающей запятой, с FP32 и FP64 точностью в рамках стандарта IEEE 754-2008);
  • 2×128 блоков текстурной адресации и фильтрации с поддержкой FP16 и FP32 компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • 2×4 широких блока ROP (всего 64 пикселя) с поддержкой режимов сглаживания до 32 выборок на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг;
  • Интегрированная поддержка RAMDAC, двух портов Dual Link DVI, а также HDMI и DisplayPort.
  • Интегрированная поддержка четырёх мониторов, включая два порта Dual Link DVI, а также HDMI 1.4a и DisplayPort 1.2
  • Поддержка шины PCI Express 3.0

Спецификации референсной видеокарты Geforce GTX 690

  • Базовая частота ядра 915 МГц;
  • Средняя турбо-частота 1019 МГц;
  • Количество универсальных процессоров 2×1536;
  • Количество текстурных блоков - 2×128, блоков блендинга - 2×32;
  • Эффективная частота памяти 6008 (1502×4) МГц;
  • Тип памяти GDDR5, 2×256-бит шина памяти;
  • Объем памяти 2×2 ГБ;
  • Пропускная способность памяти 2×192.3 ГБ/с;
  • Теоретическая максимальная скорость закраски 58.6 гигапикселей в секунду;
  • Теоретическая скорость выборки текстур 234.2 гигатекселей в секунду;
  • Три Dual Link DVI-I разъема, один DisplayPort;
  • Одинарный SLI-разъем;
  • Шина PCI Express 3.0;
  • Энергопотребление до 300 Вт (для GTX 590 - 365 Вт);
  • Два 8-контактных разъёма питания;
  • Двухслотовое исполнение;
  • Рекомендуемая цена для американского рынка $999 (для российского рынка - 35999 руб )

Анонсированная сегодня видеокарта на базе двух графических процессоров GK104 становится верхней моделью линейки Geforce GTX 600 и располагается над быстрейшей одночиповой Geforce GTX 680. Что касается сравнения с конкурентом, то пока что аналога по мощности и цене компания AMD не выпустила. Хотя двухчиповая карта на двух графических процессорах Tahiti и ожидается уже некоторое время. Похоже, её придётся подождать ещё несколько недель.

Принцип наименования видеокарт Nvidia со времени предыдущей двухчиповой Geforce GTX 590 не изменился. Топовая плата Geforce на базе двух быстрейших GPU имеет название, отличающееся от аналогичной одночиповой модели лишь средней цифрой (680→690). Появление Geforce GTX 690 в продаже под торговыми марками компаний: Asus, EVGA, Gainward, Galaxy, Gigabyte, Inno3D, MSI, Palit и Zotac в ограниченных количествах ожидается в ближайшие дни.

Рекомендованная розничная цена решения для североамериканского рынка равна $999. Для нашей розницы цена ещё выше, и в реальности она, скорее всего, выльется в пугающую цифру в районе 36 тыс. руб. Впрочем, подобные имиджевые решения в небольших количествах покупаются энтузиастами за любые деньги, и их цена не является определяющим фактором для покупки.

Так как двухчиповая модель имеет сдвоенную 256-битную шину памяти, то общий объём установленной на неё видеопамяти равен 2×2 ГБ. Это вполне достаточный объём, а 4 ГБ на чип - это было бы слишком много по разным причинам. Двух гигабайт на GPU должно хватать в большинстве режимов, и разве что в сверхвысоких разрешениях со стереорендерингом и/или сглаживанием может потребоваться больший объём.

Систему охлаждения и дизайн Geforce GTX 690 мы рассмотрим ниже, но плата двухслотовая и на неё установлено два 8-контактных разъёма питания. Также отметим, что референсная (а другие вряд ли появятся, кроме совсем уж экзотики типа Asus MARS) плата Geforce GTX 690 имеет три выхода Dual-Link DVI и один mini-DisplayPort, и не имеет HDMI выходов, в отличие от одночиповой Geforce GTX 680. Вопрос легко решается при помощи соответствующих переходников.

Архитектура и технологии

Так как вышедшая сегодня видеокарта Geforce GTX 690 основана на двух GPU новейшей архитектуры Nvidia Kepler, уже известных нам под кодовым именем GK104, то расписывать в этом разделе особо нечего - . А в данном материале мы лишь вкратце повторим некоторую базовую информацию.

Основы архитектуры Kepler были заложены ещё в вышедших пару лет назад чипах семейства Fermi (Geforce GTX 480 и затем GTX 580), но несмотря на сходства, Kepler всё же является практически полностью переработанной архитектурой, основной задачей при разработке которой было повышение энергоэффективности.

Имеющиеся на Geforce GTX 690 графические процессоры GK104 используют одинаковую конфигурацию мультипроцессоров, эти чипы состоят из четырёх кластеров графической обработки Graphics Processing Clusters каждый, и не отличаются от тех, что мы рассматривали в обзоре одночипового аналога:

Каждый из двух GK104 содержит по четыре кластера GPC, восемь мультипроцессоров SMX и четыре 64-битных контроллера памяти, соединённых с кэш-памятью второго уровня и имеющих по 8 блоков ROP в каждом. Итого, в состав каждого чипа входит 1536 потоковых процессоров, собранных в 8 мультипроцессоров по 192 штуки в каждом. В двухчиповой модели Geforce GTX 690 количество функциональных устройств не снижено искусственно и все мультипроцессоры активны. И в целом, новая видеокарта содержит 3072 потоковых вычислительных ядра.

Подсистема памяти двухчиповой Geforce GTX 690 аналогична той, что мы видели в Geforce GTX 680, просто удвоенная - на каждый GPU приходится по четыре 64-битных канала памяти (256-бит на чип), и всего на плате установлено два набора по 2 ГБ быстрой GDDR5 видеопамяти. Причём её частота не отличается от частоты памяти в GTX 680 (то есть, 6008 МГц эффективной частоты) и это - правильное решение, так как нехватка пропускной способности видеопамяти в одночиповой модели иногда проявлялась.

Базовая (основная) частота графических процессоров в GTX 690 составляет 915 МГц, что на 10% ниже частоты GK104, установленного в одночиповой GTX 680. Но GK104 поддерживает технологию GPU Boost, которая позволяет Geforce GTX 690 автоматически увеличивать частоту GPU для достижения максимально возможной производительности. Об этой технологии можно подробно прочитать в базовом обзоре Kepler, а средняя турбо-частота для Geforce GTX 690 равна 1019 МГц, что лишь на 4% меньше, чем у одночипового варианта.

Вкратце, суть технологии GPU Boost состоит в том, что специализированный аппаратный блок в чипах архитектуры Kepler постоянно отслеживает потребление энергии и некоторые другие параметры, такие как температура, и автоматически изменяет частоту графического процессора, повышая её для получения максимально возможной производительности в пределах установленного пакета теплопотребления. Средняя турбо-частота для Geforce GTX 690 выше 1 ГГц, и она обеспечивается в большом количестве игр и других приложений, использующих мощности GPU, но реальная турбо-частота для каждого приложения своя и она зависит от особенностей системы.

Высокая рабочая частота не отменяет её дальнейший возможный рост в рамках разгона. Наоборот, судя по всему, Geforce GTX 690 спроектирована для достижения максимальной производительности в том числе и в режиме разгона. Так, типичное потребление энергии в играх в среднем равно лишь 263 Вт, но плата оснащена двумя 8-контактными разъёмами дополнительного питания, которые вместе с PCI Express интерфейсом дают в сумме до 375 Вт доступной энергии. И даже с учётом максимального потребления в 300 Вт, у GTX 690 явно остаётся определённый запас по питанию. Вероятно, у энтузиастов разгона получится увеличить рабочую частоту GPU до 1,2 ГГц и даже выше.

Это важно, так как на предыдущих двухчиповых видеокартах компании Nvidia важнейшим фактором ограничения производительности было высокое энергопотребление. К примеру, на Geforce GTX 295 и GTX 590 устанавливались видеочипы, работающие на значительно сниженных частотах, по сравнению с их одночиповыми собратьями GTX 285 и GTX 580. В случае Geforce GTX 690 удалось снизить влияние этого фактора, так как архитектура Kepler отличается весьма высокой энергоэффективностью.

И поэтому графические процессоры GK104, на которых основана новая модель Geforce GTX 690, имеют турбо-частоту, мало отличающуюся от той, что имеет GPU одночиповой Geforce GTX 680. При этом чипы GK104 и там и там идентичны и не имеют отключенных исполнительных блоков. Частоты и шины памяти также абсолютно одинаковы, и пропускная способность видеопамяти не пострадала. В результате, Geforce GTX 690 обеспечивает уровень производительности, сравнимый с тем, который даёт пара видеокарт Geforce GTX 680, работающих в SLI-режиме.

Но у Geforce GTX 690 есть и преимущества перед двумя одночиповыми платами. Во-первых, эта модель нуждается лишь в одном полноразмерном слоте PCI Express. Во-вторых, Geforce GTX 690 потребляет значительно меньше энергии, чем две платы GTX 680, и выделяет тепла меньше, что даёт меньший уровень шума от системы охлаждения. И, в-третьих, две Geforce GTX 690 можно объединить в ещё более производительную монструозную систему Quad SLI.

Кстати, о производительности. Понятно, что Geforce GTX 690 обеспечивает высочайшую скорость рендеринга в 3D приложениях. На момент выхода это быстрейшая видеокарта на рынке, и по данным компании Nvidia, она в среднем на 45% быстрее, чем предыдущий двухчиповый вариант - Geforce GTX 590, хотя такой разрыв в скорости между ними наблюдается не везде:

Но не только производительность важна в современных условиях. Сейчас всё чаще упирают на показатель энергоэффективности, который становится всё более важным, особенно в случае таких мощных двухчиповых решений как Geforce GTX 690. По сравнению с той же двухчиповой Geforce GTX 590, новая плата обеспечивает до двух раз более высокую энергоэффективность (в среднем - 70-75%):

Как и её младшая сестра, новая двухчиповая модель Geforce GTX 690 поддерживает все технологии компании, в том числе Adaptive VSync, PhysX и 3D Vision Surround. Причём, некоторые технологии, такие как PhysX и 3D Vision Surround, в случае этой модели имеют даже больше смысла, так как Geforce GTX 690 обеспечивает более высокую производительность, которая никогда не помешает в тяжёлых приложениях, особенно с включением тяжёлых физических эффектов и стереорендеринга.

Например, в некоторых играх для оптимальной производительности в высоких разрешениях с максимальными настройками качества, Nvidia рекомендует применение выделенного GPU для PhysX-эффектов. А Geforce GTX 690 уже содержит два графических процессора на борту, что позволяет выделить один из них под физические расчёты при такой необходимости. То же самое касается и стереорежима, особенно в высоких разрешениях на несколько экранов - Geforce GTX 690 обеспечивает достаточно производительности, чтобы насладиться высокой частотой кадров в таких условиях.

Но самой любопытной новой функциональностью в вышедшей двухчиповой видеокарте Nvidia нам видится аппаратное измерение частоты кадров, позволяющее минимизировать проблемы мультичиповых решений, такие как небольшие, но неприятные скачки частоты кадров, более известные как micro-stuttering.

В режиме SLI современные видеочипы работают в режиме AFR-рендеринга, когда каждый графический процессор занимается своими кадрами: один чётными, другой - нечётными. И из-за того, что нагрузка на GPU в разных кадрах может отличаться, видеочипы справляются с работой за разное время, а при выводе отрендеренных кадров на экран возникает нестабильность FPS. В Geforce GTX 690 появился механизм аппаратного измерения FPS и регулирования потока кадров. Он постоянно отслеживает частоту кадров и сглаживает пики FPS, возникающие по причине разности во времени обработки кадров, и в результате смена кадров происходит плавнее, по сравнению с предыдущими SLI-системами.

Дизайн и охлаждение платы

Не только высочайшая производительность отличает плату Geforce GTX 690. Новая топовая плата компании Nvidia имеет необычный даже для топовых плат дизайн, отражающий её непревзойдённую игровую производительность и цену. Так, каждый GPU двухчиповой видеокарты имеет свой отдельный радиатор - они видны в прозрачных пластиковых окошках на плате. А для любителей прозрачных корпусов и светодиодов на торце платы есть светящийся логотип Geforce GTX.

Кожух системы охлаждения новой видеокарты сделан из покрытого хромом алюминия, а кожух вентилятора выполнен из магниевого сплава - лёгкого материала с хорошей теплопроводностью - эти же характеристики и послужили причиной его применения в Geforce GTX 690. Эти необычные решения явно придают видеокарте солидный вид, что важно для топового сегмента. Ведь если пользователь заплатил за видеокарту столько денег, то ему явно хотелось бы, чтобы она и выглядела дорого.

Как всегда, создание двухчиповой видеокарты экстремальной мощности - не самое простое занятие. В процессе её проектирования возникает масса интересных и сложных задач, в числе которых питание двух GPU от одного источника (а сейчас цепи питания даже на одночиповых картах довольно сложны) и достаточно эффективное охлаждение графических процессоров, расположенных близко друг к другу на одной печатной плате.

Больше всего ограничивает полёт фантазии конструкторов физически доступное пространство - ведь помимо двух GPU, на печатной плате нужно расположить два комплекта видеопамяти с собственной шиной, а также коммутатор, обеспечивающий работу двух чипов с одним слотом PCI Express. Несмотря на это, для обеспечения более широкой совместимости с игровыми системами, в Nvidia решили ограничить длину двухчиповой платы 11 дюймами (28 см). Можете сравнить её с 25,5-сантиметровой Geforce GTX 680, имеющей вдвое меньшее кол-во микросхем памяти и самих GPU.

Сюда же относятся и трудности с обеспечением приемлемого охлаждения. Та же Geforce GTX 680 имеет чуть меньшую PCB, зато большой кулер с тепловыми трубками и крупными радиатором и вентилятором. В случае двух графических чипов на почти такой же площади охладить их заметно сложнее. Чтобы решить эту задачу, инженеры компании Nvidia постарались использовать площадь и объём платы максимально эффективно. Печатная плата десятислойная (у GTX 590 было 12 слоёв, но там две 384-битные шины памяти), а в слоях питания применяется много меди, что обеспечивает высокую надёжность и эффективность, а также улучшает тепловые характеристики.

Для достижения лучшей эффективности охлаждения в столь сложных условиях недостатка места на плате, каждый GPU имеет свой выделенный радиатор, основанный на медной испарительной камере и рёбрах радиатора двухслотовой высоты. А для лучшего охлаждения задней стороны платы и установленных на неё компонентов, используется дополнительная алюминиевая пластина.

Кулер оснащен низкоскоростным вентилятором с крыльчаткой большого диаметра. Для увеличения эффективности охлаждения и снижения шума от вентилятора был проработан кожух системы охлаждения - прямо под вентилятором спроектированы специальные каналы низкого профиля для направления потока воздуха на радиаторы. Также инженеры Nvidia улучшили управляющую логику вентилятора, скорость его вращения изменяется плавно, а не пошагово.

В результате всех оптимизаций, уровень шума не просто снизился, а были приглушены отчётливо слышимые высокочастотные звуки, вызывающие наибольшие нарекания. Ну а об общем уровне шума можно судить по цифрам для Geforce GTX 690 и пары Geforce GTX 680 в режиме SLI. Если вентиляторы двух одночиповых карт шумят на 51 децибел (дБА), то новая Geforce GTX 690 лишь на 47 дБА - приличная разница.

Из нашей обзорной статьи архитектуры Kepler известно, что новый графический процессор GK104 обладает поддержкой PCI Express 3.0. Эта версия обладает скоростью передачи 8 гигатранзакций в секунду вместо 5 ГТ/с для версии 2.0, и его пропускная способность выросла вдвое, по сравнению со стандартом предыдущей версии. Поэтому старый чип-коммутатор NF200, который применялся ещё со времён Geforce GTX 295, в данном случае не подходит, так как не рассчитан на шину PCI Express 3.0.

Компания AMD использовала в своих двухчиповых видеокартах решения компании PLX Technology (пусть и со своей маркировкой) ещё давно, а Nvidia ранее применяла собственные давние разработки. Но NF200 тут не подходит, а новый коммутатор они решили не разрабатывать, используя . Микросхема коммутатора обеспечивает независимый доступ двух GPU к PCI Express 3.0 x16 интерфейсу, разделяя пропускную способность одного слота на два графических процессора.

PLX Technology - хорошо известный разработчик подобных решений, их микросхемы встречаются на видеокартах, системных платах и разнообразных контроллерах и адаптерах. Интересно, что на днях появилось сообщение о покупке PLX Technology компанией Integrated Device Technology (IDT), который близки по специализации.

Коммутатор PEX 8747 - 48-канальный и пятипортовый, он поддерживает третье поколение PCI Express. В конфигурации двухчиповой видеокарты коммутатор раздаёт каждому GPU по 16 каналов PCI-E, но с вдвое меньшей пропускной способностью (ведь один x16 слот делится на два чипа). PEX 8747 оптимизирован для использования в высокопроизводительных графических задачах и обеспечивает высокую скорость и малые задержки. К слову, данный чип-коммутатор производится по 40 нм технологическому процессу и потребляет до 8 Вт энергии, что также необходимо учитывать при конструировании двухчиповой платы и её системы охлаждения.

Всё остальное в Geforce GTX 690 мало чем отличается от систем из двух видеокарт Geforce GTX 680, объединённых в режиме SLI. Например, для повышения качества изображения можно использовать специфичные для SLI-конфигураций режимы с большим количеством выборок. Для вывода изображения Geforce GTX 690 имеет три разъёма Dual Link DVI и один mini DisplayPort. Это решение позволяет вывести стереоизображение на несколько мониторов при помощи технологии 3D Vision Surround.

На этом краткая теоретическая часть нашего сегодняшнего материала закончена. В следующей части статьи мы практически исследуем скорость рендеринга анонсированной сегодня видеокарты Nvidia Geforce GTX 690 в синтетических тестах и сравним её с производительностью конкурентов. Предельные синтетические тесты на многочиповых видеосистемах не имеют такого уж большого смысла, разве что будет интересно оценить качество оптимизации драйверов для SLI конфигураций, а также узнать максимальную производительность нынешних топовых решений.

Nvidia Geforce GTX 690 - Часть 2: видеоплата и синтетические тесты →

К анонсу своей новой видеокарты компания NVIDIA подготовилась основательно. За несколько дней до официального представления GeForce GTX 690 был запущен обратный отсчёт до «некоего секретного события», а ещё раньше многим обозревателям были высланы… гвоздодёры. Да-да, – именно гвоздодёры, а не видеокарты! Нужно сказать, что этот пиар-ход в полной мере удался, так как версий назначений этого гвоздодёра, высказанных в конференциях, была просто уйма, хотя для многих правильный ответ был очевиден. Конечно же, сами видеокарты также были разосланы тестерам. Правда, лишь за несколько дней до анонса, но мы всё же успели и сегодня рады представить вашему вниманию обзор и тестирование самой быстрой видеокарты современности.

Сегодня ни для кого уже не секрет, что GeForce GTX 690 является двухпроцессорной видеокартой, основанной на паре GK104 «Kepler», а значит ей должны быть присущи все те особенности, которые мы отмечали ранее у NVIDIA GeForce GTX 590 или AMD Radeon HD 6990. В их число, помимо больших габаритов, входят очень высокий уровень энергопотребления и соответствующие требования к блоку питания, высокие температуры и повышенный в сравнении с «одночипами» уровень шума, а также зависимость производительности от поддержки мультипроцессорных технологий приложениями и их реализация в драйверах. Забегая вперёд, скажем, что компании NVIDIA выпуском GeForce GTX 690 удалось разрушить, ну или, как минимум пошатнуть, почти все эти стереотипы. Но, обо всём по-порядку.Технические характеристики NVIDIA GeForce GTX 690 приведены в таблице в сравнении с характеристиками GeForce GTX 680:

Ящик и гвоздодёр

За много лет тестов, обзоров и нескольких сотен протестированных видеокарт такой упаковки мы ещё ни разу не встречали. Она представляет собой большой и крепкий деревянный ящик, наглухо заколоченный гвоздями:



Сказать, что он производит впечатление, значит ничего не сказать. Осознавая, что внутри этого ящика находится высокотехнологичный продукт стоимостью 999 долларов США, непроизвольно начинаешь чесать гвоздодёром затылок и только потом вспоминаешь про его прямое назначение. Добавим, что двоичный код на боковой стенке ящика «0b1010110010» означает номер модели видеокарты – «690», а надпись на крышке в переводе звучит, как «Осторожно, игровая мощь оружейного класса».

Несмотря на тот факт, что гвоздодёр не несёт в себе полторы тысячи универсальных шейдерных процессоров и не работает на одном гигагерце частоты, свою прямую функцию он выполняет отменно – вскрыть ящик удалось за какие-то 10-15 секунд:



Внутри находятся две толстых поролоновых прокладки между которыми в антистатическом пакете прочно зафиксирован бесценный шедевр инженерной мысли, объект вожделения миллионов простых пользователей, предмет поиска и ближайшей покупки десятков тысяч обеспеченных мажоров-геймеров, или просто – GeForce GTX 690.

Комплектации никакой нет, даже кабелей питания. Но, как вы понимаете, это справедливо только для предрелизных продуктов, присланных на тестирование обозревателям. О выпуске «своих» GeForce GTX 690 уже объявили компании ASUS, EVGA, Gainward, Galaxy, Gigabyte, Inno3D, MSI, Palit и Zotac, и они-то уж совершенно точно укомплектуют видеокарты всем необходимым (насчёт гвоздодёра такой уверенности нет). Ещё раз напомним, что рекомендованная стоимость новинки составляет 999 долларов США.

Особенности видеокарты

Компания NVIDIA считает своё новое творение GeForce GTX 690 верхом мастерства, апогеем современных компьютерных технологий, сравнивая её с суперкаром Ferrari F12 Berlinetta или аудиофильской системой B&W Nautilus. И на это есть все основания. Уже с первого взгляда на видеокарту становится ясно, что перед нами не просто рядовой продукт, а исполненный с пристальным вниманием ко всем мелочам и каждой детали шедевр инженерной мысли:



Вся лицевая сторона видеокарты, длина которой составляет 280 мм, закрыта кожухом системы охлаждения. Причём, не простым пластиковым или в лучшем случае металлическим, а кожухом из покрытого трёхвалентным хромом алюминия, с чёрной вставкой вокруг вентилятора из магниевого сплава, а также с двумя прозрачными окнами из поликарбоната, сквозь которые видны радиаторы графических процессоров. Всё это в совокупности выглядит очень стильно и привлекательно! Жаль, что по фото не передать те впечатления от созерцания GeForce GTX 690, которые испытываешь, держа эту видеокарту в руках.

В то же время, обратная сторона видеокарты ничем не закрыта:



Тем и лучше – ведь такая печатная плата будет лучше охлаждаться, чем плата, закрытая кожухом, как это нередко бывает.

Сверху на кожухе крупная надпись «GEFORCE GTX», оснащённая подсветкой, которую мы ещё посмотрим в сегодняшней статье:



Снизу новинка ничем примечательным не выделяется, разве что отметим отсутствие вентиляционных отверстий:



Зато вентиляционная решётка есть на панели с выходами, где она соседствует сразу с тремя DVI-I (Dual Link) выходами и одним mini-DisplayPort:



Благодаря такой конфигурации выходов, к GeForce GTX 690 можно подключить сразу четыре монитора высокой чёткости:



На противоположном от выходов конце видеокарты также присутствует окошко, через которое видны рёбра радиатора:



Сквозь них часть нагретого видеокартой воздуха выбрасывается вовнутрь корпуса системного блока.

GeForce GTX 690 оснащена одним SLI-разъёмом. То есть в одной системе возможна установка двух таких видеокарт (или четырёх самых быстрых графических процессоров):


В задней части видеокарты видны два восьмиконтактных разъёма для подключения дополнительного питания. Согласно спецификаций, максимальное энергопотребление GeForce GTX 690 может достигать 300 Вт, а типичное равно 263 Вт. Мощность рекомендуемого блока питания для системы с одной GeForce GTX 690 составляет 650 Вт.
Выполненная по десятислойному дизайну печатная плата «приютила» на себе два графических процессора GK104 «Kepler», по два гигабайта GDDR5-памяти на каждый графический процессор, чип-коммутатор и силовую часть:






Последняя выполнена по десятифазной схеме:


Обеспечение взаимодействия между графическими процессорами легло на хрупкий кристалл чипа PEX8747 компании PLX Technology, поддерживающего до 48 линий PCI-Express :


Оба графических процессора GK104 «Kepler» относятся к ревизии А2:


Если вы не пропустили таблицу характеристик, то наверняка заметили что на GeForce GTX 690 установлены полноценные «Kepler», без всяких там «урезаний», как это нередко бывает. Суммарное количество унифицированных шейдерных процессоров равно 3072, текстурных блоков – 256, а блоков растровых операций (ROPs) – 64 штуки. Однако, в сравнении с GeForce GTX 680, базовая частота графических процессоров GeForce GTX 690 в 3D-режиме снижена и составляет 915 МГц, что на 91 МГц ниже GTX 680. Но, так называемая boost-частота при высоких нагрузках составляет 1019 МГц, то есть всего на 3,9% ниже частоты GPU на GeForce GTX 680. При переходе в 2D-режим частота снижается до 324 МГц.

К сожалению, маркировка микросхем GDDR5-памяти оказалась не читаема. Однако, осмелимся предположить, что на NVIDIA GeForce GTX 690 установлена та же память, что и на GeForce GTX 680 – FCBGA-микросхемы производства компании Hynix Semiconductor Inc. с маркировкой H5GQ2H24MFR R0C общим объёмом 4 Гбайт (по 2 Гбайт на каждый графический процессор). Эффективная частота памяти в 3D-режиме составляет 6008 МГц (идентична GTX 680), а в 2D-режиме снижается до 648 МГц.

Утилита GPU-Z последней доступной на момент подготовки статьи версии 0.6.1 уже в полной мере знакома с GeForce GTX 690:


Добавим ссылку на BIOS NVIDIA GeForce GTX 690 и перейдём к знакомству с её системой охлаждения.

Система охлаждения – эффективность и уровень шума

Схематично система охлаждения GeForce GTX 690 выглядит следующим образом:



На графических процессорах установлены никелированные алюминиевые радиаторы с медным основанием в виде испарительной камеры. За охлаждение силовых элементов и микросхем видеопамяти отвечает металлическая пластина, на которой закреплена девятилопастная крыльчатка вентилятора диаметром 83 мм с PWM-управлением:



Воздух, нагнетаемый этим вентилятором проходит сквозь тонкие рёбра радиаторов и с одной стороны выбрасывается наружу за пределы корпуса системного блока, а вторая его половина выбрасывается с другой стороны и остаётся внутри корпуса. Это, пожалуй, единственным минус системы охлаждения такой компоновки. Ведь благодаря равномерному нагнетанию воздуха к обоим радиаторам графических процессоров, их температура не будет сильно отличаться друг от друга, а значит ещё и можно надеяться на разгон GPU.

Для проверки температурного режима работы видеокарты в качестве нагрузки мы использовали пять циклов теста игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560х1600 пикселей с анизотропной фильтрацией уровня 16х и с использованием сглаживания степени 4x. Для мониторинга температур и прочих параметров применялись программа MSI Afterburner версии 2.2.0 и утилита GPU-Z версии 0.6.0 . Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 23 градуса Цельсия. Тестирование эффективности системы охлаждения видеокарты GeForce GTX 690 было проведено с использованием штатного термоинтерфейса.

Прежде всего, посмотрим на температуры видеокарты при автоматическом режиме управления скоростью вентилятора:



Результаты получились весьма интересными. Дело даже не в том, что температуры графических процессоров во время теста достигли 79 и 82 градусов Цельсия, и не в том, что максимальная скорость вентилятора составила только 2160 об/мин, а в том, что по данным мониторинга частоты графических процессоров подскакивали с 915 МГц вовсе не до указанных в спецификациях 1019 МГц, а до 1071 МГц. Причём, GPU-Z и MSI Afterburner оказались солидарны друг с другом, поэтому на издержки мониторинга новой видеокарты данный факт списывать будет вряд ли корректно. Интересно, но пока не понятно.

При максимальных 2970 об/мин вентилятора пиковые температуры графических процессоров составили 71 и 73 градус Цельсия:



Подытожим, что для двухпроцессорной видеокарты температурный режим вполне комфортен, и что разница в температурах графических процессоров действительно оказалась несущественна.

Заметим, что ни 2160 об/мин, достигнутые в автоматическом режиме работы, ни выставленные вручную максимальные 2970 об/мин являются сравнительно низкими даже для однопроцессорных видеокарт, не говоря про двухпроцессорные. И действительно, NVIDIA особо акцентирует внимание пользователей на том факте, что GeForce GTX 690 генерирует на 4 дБА более низкий уровень шума, нежели эталонная GeForce GTX 680:



Давайте сравним уровень шума эти видеокарт по нашей методике и выясним, так ли это на самом деле?

Измерение уровня шума систем охлаждения осуществлялось с помощью электронного шумомера CENTER-321 после часа ночи в полностью закрытой комнате площадью около 20 м² со стеклопакетами. Уровень шума измерялся вне корпуса системного блока, когда источником шума в комнате являлся только система охлаждения и её вентиляторы. Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора/турбины кулера. Материнская плата, в которую была вставлена видеокарта с установленной на неё системой охлаждения, размещалась на самом углу стола на пенополиуретановой подложке. Нижняя граница измерений шумомера составляет 29,8 дБА, а субъективно комфортный (не путать с низким) уровень шума при измерениях с такого расстояния находится около отметки 36 дБА. Скорость вращения вентиляторов изменялась во всём диапазоне их работы с помощью специального точного контроллера путём изменения питающего напряжения с шагом 0,5 В.

Для сравнения уровня шума новой NVIDIA GeForce GTX 690 мы включили на график результаты измерений уровня шума эталонных видеокарт NVIDIA GeForce GTX 680 и AMD Radeon HD 7970. Вертикальными пунктирными линиями соответствующего цвета отмечены границы работы вентиляторов систем охлаждения в автоматическом режиме (все протестированы по единой методике):



В нашем случае ожидания не оправдались – кривая уровня шума GeForce GTX 690 проходит над кривой уровня шума GeForce GTX 680 и после 1650 об/мин сливается с кривой Radeon HD 7970. Однако, за счёт более низкой скорости вентилятора GTX 690 функционирует тише HD 7970 и её уровень шума сопоставим с GTX 680, но всё же не ниже. Вместе с этим отметим мягкую работу вентилятора системы охлаждения GeForce GTX 690, без треска, вибраций и электрических призвуков. В 2D-режиме видеокарты вообще не слышно.

Оверклокерский потенциал

Несмотря на то, что видеокарта двухпроцессорная, в NVIDIA открыто говорят о том, что разработана она не только для сверхвысокой производительности, но и для разгона:



И, как оказалось, совершенно не просто так. Видеопамять нам удалось разогнать с 6008 МГц до 7588 МГц или +26,3%, что уже весьма неплохо. Графические процессоры, разгоняемые синхронно на номинальном напряжении, смогли стабильно прибавить 170 МГц к базовой частоте или +18,6%:


При этом повышенная частота GPU во время тестирования порой кратковременно достигала отметки 1241 МГц, что хорошо видно по графику мониторинга:



Причём, пиковые температуры графических процессоров в автоматическом режиме работы вентилятора остались практически на тех же отметках (80 и 82 градуса Цельсия), а максимальная скорость вентилятора увеличилась всего на 90 об/мин при итоговых 2250 об/мин. Можно предположить, что при более эффективном охлаждении (жидкостном, к примеру) и повышении напряжения на графических процессорах удастся добиться ещё более высоких частот. Но и достигнутый в сегодняшней статье результат весьма неплох.

Да, и чуть не забыл – она ещё и светится:


Энергопотребление

Напоследок несколько слов и об энергопотреблении системы с различными видеокартами. Измерение осуществлялось с помощью многофункциональной панели Zalman ZM-MFC3 , которая показывает потребление системы «от розетки» в целом (без учёта монитора). Измерение было проведено в 2D-режиме, при обычной работе в Microsoft Word или интернет-«серфинге», а также в 3D-режиме, нагрузка в котором создавалась с помощью трёхкратного теста из игры Metro 2033: The Last Refuge в разрешении 2560х1600 при максимальных настройках качества графики.

Для сравнения мы включили на диаграмму результаты измерений энергопотребления систем с одной GeForce GTX 680, одной слегка разогнанной Radeon HD 7970 и пары таких видеокарт в CrossFireX-режиме. Вот какие результаты были нами получены:



Очевидно, что система с одной NVIDIA GeForce GTX 690 продемонстрировала более низкий уровень энергопотребления, нежели система с парой видеокарт Radeon HD 7970. Причём, разница довольно существенна и в номинальном режиме работы GeForce GTX 690 она составляет 112 Вт в пользу NVIDIA. Кроме того, отметим, что система с одной GeForce GTX 690 потребляет примерно на 150 ватт больше системы с одной GeForce GTX 680, а также тот факт, что при разгоне GTX 690 уровень её энергопотребления возрастает несущественно (+28 ватт).

Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

Системная плата: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0460 от 27.03.2012);
Центральный процессор: Intel Core i7-3960X Extreme Edition 3,3 ГГц (Sandy Bridge-E, C1, 1,2 В, 6x256 Kбайт L2, 15 Мбайт L3);
Система охлаждения CPU: Phanteks PH-TC14PЕ (2x135 мм, 900 об/мин);
Термоинтерфейс: ARCTIC MX-4 ;
Оперативная память: DDR3 4x4 Гбайт Mushkin Redline (2133 МГц, 9-11-10-28, 1,65 В);
Видеокарты:

NVIDIA GeForce GTX 690 2x2 Гбайт, 256 бит, GDDR5, 915/6008 МГц и 1085/7588 МГц;
NVIDIA GeForce GTX 680 2 Гбайт, 256 бит, GDDR5, 1006/6008 МГц;
Gigabyte Radeon HD 7970 Ultra Durable 3 Гбайт 384 бит, GDDR5, @1000/5800 МГц;
Sapphire Radeon HD 7970 OC Dual-X 3 Гбайт 384 бит, GDDR5, @1000/5800 МГц;

Системный диск: SSD 256 Гбайт Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Диск для программ и игр: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5";
Архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка – три Noiseblocker NB-Multiframe S-Series MF12-S2 на 1020 об/мин; задняя – два Noiseblocker NB-BlackSilentPRO PL-1 на 1020 об/мин; верхняя – штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC3 ;
Блок питания: Xigmatek «No Rules Power» NRP-HC1501 (1500 Вт), 140-мм вентилятор;
Монитор: 30" Samsung 305T Plus.

Оригинальные видеокарты Gigabyte и Sapphire Radeon HD 7970, о которых мы вам подробно расскажем в следующей статье, были протестированы в CrossFireX-режиме на одинаковых частотах 1000/5800 МГц. С одной стороны, это не совсем честно по отношению к GeForce GTX 690, так как ожидаемая всеми поклонниками AMD двухпроцессорная видеокарта Radeon HD 7990, вероятнее всего, будет иметь более низкие частоты, чем Radeon HD 7970 (925/5500 МГц). C другой стороны, сейчас подавляющее большинство Radeon HD 7970 и HD 7950 выпускаются уже с повышенными частотами, да и в случае победы GeForce GTX 690 над этой связкой, её ценность будет выше.

Для снижения зависимости производительности видеокарт от скорости платформы, 32-нм шестиядерный процессор при множителе 37, опорной частоте 125 МГц и активированной функции «Load-Line Calibration» был разогнан до 4,625 ГГц при повышении напряжения в BIOS материнской платы до 1,46 В:



Технология «Hyper-Threading» активирована. При этом 16 Гбайт оперативной памяти функционировали на частоте 2 ГГц с таймингами 9-11-10-28 при напряжении 1,65 В.

Тестирование, стартовавшее 1 мая 2012 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 SP1 со всеми критическими обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 9.3.0.1020 WHQL от 26.01.2012 ;
библиотеки DirectX End-User Runtimes, дата выпуска – 30 ноября 2010 года ;
драйверы видеокарт на графических процессорах AMD – Catalyst 12.3 от 28.03.2012 + Catalyst Application Profiles 12.3 (CAP1) от 29.03.2012;
драйверы видеокарт на графических процессорах NVIDIA – GeForce 301.33 beta.

Производительность видеокарт была проверена в двух разрешениях: 1920х1080 и 2560х1600 пикселей. Для тестов были использованы два режима качества графики: «Quality + AF16x» – качество текстур в драйверах по-умолчанию с включением анизотропной фильтрации уровня 16х, и «Quality + AF16x + MSAA 4х(8х)» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если данные настройки в играх отсутствовали, то параметры изменялись в панелях управления драйверов Catalyst и GeForce. Там же была отключена вертикальная синхронизация. Больше никаких изменений в настройки драйверов не вносились.

Cписок тестовых приложений состоит из двух полусинтетических пакетов, одного техно-демо и 15 игр:

3DMark Vantage (DirectX 10) – версия 1.0.2.1, профили настроек «Performance» и «Extreme» (тестировались только основные тесты);
3DMark 2011 (DirectX 11) – версия 1.0.3.0, профили настроек «Performance» и «Extreme»;
Unigine Heaven Demo (DirectX 11) – версия 3.0, максимальные настройки качества, тесселляция на уровне «extreme», AF16x, разрешение 1280х1024 без MSAA и 1920х1080 с MSAA 8x;
(DirectX 11) – версия 1.6.02, профиль настроек «Улучшенное динамическое освещение DX11» с дополнительным выставлением вручную всех параметров на максимум, тестировалась собственная демо-запись «cop03» на уровне «Затон»;
Left 4 Dead 2 (DirectX 9) – версия игры 2.1.0.0, максимальное качество, тестировалась собственная демо-запись «d98» (два цикла) на карте «Death Toll» этапе «Church»;
Metro 2033: The Last Refuge (DirectX 10/11) – версия 1.2, использовался официальный тест, настройки качества «Very High», тесселляция, DOF включено, использовалось ААА-сглаживание, двойной последовательный проход сцены «Frontline»;
Just Cause 2 (DirectX DX10.1) – версия 1.0.0.2, максимальные настройки качества, методики «Размытие фона» и Симуляция воды GPU» активированы, двойной последовательный проход демо-записи «Тёмная башня»;
Aliens vs. Predator (2010) (DirectX 11) – «Texture Quality» в режиме «Very High», «Shadow Quality» в режиме «High», технология SSAO включена, два цикла теста в каждом разрешении;
Lost Planet 2 (DirectX 11) – версия игры 1.0, максимальные настройки качества графики, размытие движения включено, использовался тест производительности «В»;
(DirectX 9) – версия игры 1.4.3, все настройки графики на уровень «Extreme», физика «Ультра», отражения включены, двукратный двухминутный тест собственного демо «bench2»;
Sid Meier"s Civilization V (DirectX 11) – версия игры 1.0.1.348, максимальные настройки качества графики, двойной прогон «дипломатического» теста из пяти самых тяжёлых сцен;
Tom Clancy"s H.A.W.X. 2 (DirectX 11) – версия 1.04, максимальные настройки качества графики, тени активированы, тесселляция включена, двойной прогон тестовой сцены;
Total War: Shogun 2 (DirectX 11) – версия 2.0, встроенный тест (битва при Sekigahara) на максимальных настройках качества графики и использовании в одном из режимов MSAA 4x;
Crysis 2 (DirectX 11) – версия 1.9, использовался Adrenaline Crysis 2 Benchmark Tool v1.0.1.13 BETA , профиль настроек качества графики «Ultra High», текстуры высокого разрешения активированы, двукратный цикл демо-записи на сцене «Times Square»;
DiRT 3 (DirectX 11) – версия 1.2, встроенный тест на трассе «Aspen» при максимальных настройках качества графики;
Hard Reset Demo (DirectX 9) – встроенный в демо-версию тест при Ultra-качестве графики, один проход тестовой сцены;
Batman: Arkham City (DirectX 11) – версия 1.2, максимальные настройки качества графики, физика отключена, двойной последовательный проход встроенного в игру теста;
Battlefield 3 (DirectX 11) – версия 1.3, все настройки качества графики на «Ultra», двойной последовательный проход заскриптованной сцены из начала миссии «На охоту» продолжительностью 110 секунд.

Более подробное описание методик тестирования видеокарт и графических настроек в некоторых из перечисленных играх вы можете найти в специально для этого созданной ветке нашей конференции , а также поучаствовать в обсуждении и совершенствовании этих методик.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё, как минимум, один раз, чтобы получить достоверный результат.

Результаты тестов производительности и их анализ

3DMark Vantage




3DMark 2011




Unigine Heaven Demo



В полусинтетических тестах 3DMark и демо Unigine Heaven новая GeForce GTX 690 бьёт все рекорды, демонстрируя высочайший уровень производительности, недостижимый даже для пары несильно разогнанных Radeon HD 7970.

S.T.A.L.K.E.R.: Call of Pripyat


Ничуть не хуже выступает новинка и в игре S.T.A.L.K.E.R.: Call of Pripyat, хотя в самом ресурсоёмком режиме CrossFireX-тандем из двух Radeon HD 7970 оказался чуть-чуть быстрее.

Left 4 Dead 2


Хоть как-то сравнить мощные видеокарты в Left 4 Dead 2 можно только в разрешении 2560х1600 при использовании MSAA степени 8x. И здесь немного быстрее оказывается пара Radeon HD 7970, хотя производительность даже одной GeForce GTX 680 уже явно избыточна.

Metro 2033: The Last Refuge


Более чем на 80% быстрее GeForce GTX 690 чем GeForce GTX 680 и в несгибаемой игре Metro 2033: The Last Refuge. Производительность двухпроцессорного флагмана NVIDIA находится на одном уровне с тандемом из двух разогнанных Radeon HD 7970.

Just Cause 2


Just Cause 2 также не является ресурсоёмкой игрой, но вполне позволяет сравнить новинку с GeForce GTX 680 и конкурентами из AMD и в сравнении этом вновь побеждает GeForce GTX 690, попутно еще и опережая GeForce GTX 680 примерно на 80%.

Aliens vs. Predator (2010)


Aliens vs. Predator (2010) оказалась одной из трёх игр тестового списка, где CrossFireX Radeon HD 7970 1000/5800 МГц одерживают победу над номинальной GeForce GTX 690. Тем не менее, производительность последней весьма высока, а преимущество над GeForce GTX 680 достигает 90%.

Lost Planet 2


В Lost Planet 2 производительность GeForce GTX 690 и разогнанных Radeon HD 7970 в CrossFireX-режиме примерно равна. Разве что, в самом ресурсоёмком режиме GeForce лидирует с отрывом в 6 средних кадров в секунду.

StarCraft II: Wings of Liberty


В StarCraft II: Wings of Liberty всё понятно и без комментариев – там где производительность видеокарт не ограничена скоростью платформы, GeForce GTX 690 одерживает лидерство, а масла в огонь AMD подливает пресловутый режим со сглаживанием, где производительность этих видеокарт крайне низка.

Sid Meier"s Civilization V

Зато Radeon очень уверенно выглядит в игре Sid Meier"s Civilization V:


Впрочем, и GeForce GTX 690 берёт своё, демонстрируя более чем 85-процентное преимущество над GeForce GTX 680.

Tom Clancy"s H.A.W.X. 2



Total War: Shogun 2


Третья ярко-выраженная победа CrossFireX Radeon HD 7970 состоялась в игре Total War: Shogun 2. Вместе с этим отметим существенное преимущество двухпроцессорной GeForce GTX 690 над однопроцессорной GeForce GTX 680.

Crysis 2


В Crysis 2 пара Radeon HD 7970 успешно сопротивляется безудержному натиску GeForce GTX 690 только в режимах без использования сглаживания. При его активации технология CrossFireX внезапно отключается и результаты тандема не выше результатов одиночной Radeon HD 7970. В свою очередь, GeForce GTX 690 опережает GeForce GTX 680 на 85 и более процентов.

DiRT 3


Сопротивление бесполезно и в игре DiRT 3. Производительность GeForce GTX 690 без оговорок впечатляет!

Hard Reset Demo


Процессорозависимая игра Hard Reset позволяет сравнить производительность видеокарт лишь в режимах со сглаживанием, и в них GeForce GTX 690 одерживает уверенную победу.

Batman: Arkham City

Нет альтернатив GeForce GTX 690 и в игре Batman: Arkham City:



Во всех играх и тестах прослеживается вполне закономерная тенденция, когда при росте нагрузки на графическую систему возрастает и преимущество двухпроцессорного флагмана NVIDIA. Почти везде жёлтые столбцы выше фиолетовых, то есть при активации сглаживания, а также при увеличении разрешения GeForce GTX 690 проявляет себя во всей красе, на много опережая свою теперь уже младшую «сестру». В среднем по всем тестам преимущество GeForce GTX 690 составляет 54-72% в разрешении 1920х1080 пикселей и 62-78% в разрешении 2560х1600 пикселей. Однако, если смотреть по наиболее ресурсоёмким играм, то там GeForce GTX 690 опережает GeForce GTX 680 на все 90-95%.

По следующей паре сводных диаграмм мы сравним производительность GeForce GTX 690 в номинальном режиме и CrossFireX Radeon HD 7970 на частотах 1000/5800 МГц:



Налицо борьба мультипроцессорных технологий. Об эффективности работы CrossFireX мы поговорим в следующей статье, а здесь стоит отметить, что там, где CrossFireX не работает, либо работает недостаточно эффективно (а таких приложений вполне хватает), то GeForce GTX 690 без труда одерживает победы. В их числе Battlefield 3, качественный режим Crysis 2 и Batman: Arkham City. Три игры, в которых слегка разогнанный CrossFireX-тандем быстрее двухпроцессорной GeForce GTX 690 – это Aliens vs. Predator (2010), Sid Meier"s Civilization V и Total War: Shogun 2 (в последней результаты NVIDIA GeForce заметно просели на новых версиях драйверов). В остальных играх и тестах производительность этих видеокарт очень близка друг к другу. Если брать среднее арифметическое по всем тестам (что не совсем верно), то номинальная GeForce GTX 690 опережает пару разогнанных до 1000/5800 МГц Radeon HD 7970 на 5-12% в разрешении 1920х1080 пикселей и на 1-15% в разрешении 2560х1600 пикселей.

Как мы с вами помним, AMD Radeon HD 79xx обладает не только превосходным оверклокерским потенциалом, но и практически линейным ростом производительности от повышения частот. Сегодня мы тоже разгоняли GeForce GTX 690 с 915/6008 МГц до 1085/7588 МГц (+18,6/26,3% без учета «буста»), поэтому давайте посмотрим на прирост производительности двухпроцессорной видеокарты при разгоне:



Если в целом сравнить диаграммы в разрешениях 1920х1080 и 2560х1600 пикселей, то очевидно, что в большом разрешении прирост производительности более ярко выраженный. Действительно, если в среднем производительность разогнанной GeForce GTX 690 в разрешении 1920х1080 пикселей выросла на 8-12%, то в 2560х1600 пикселей уже на 11-15%, и чем более ресурсоёмкое приложение, тем более ярко выражен прирост. В то же время отметим, что на AMD Radeon HD 79xx проценты прироста производительности всё же ближе к процентам роста частот, чем у NVIDIA GeForce GTX 690, что, в общем-то и понятно, ведь здесь на эффект от разгона накладывает свой отпечаток мультипроцессорная технология, чего не происходит у однопроцессорной AMD Radeon HD 7970. Подведём итоги.

Заключение

NVIDIA GeForce GTX 690 2х2 Гбайт является самой быстрой видеокартой, превосходящей на величину вплоть до 95% скорость однопроцессорного флагмана NVIDIA – GeForce GTX 680 2 Гбайт. Производительность нового творения компании NVIDIA ошеломительно высока, высока настолько, что для мониторов с максимальным разрешением 1920х1080 пикселей приобретать её нет никакого смысла. А в разрешении 2560х1600 пикселей, являющегося на сегодня максимально возможным (не считая мультимониторных конфигураций), GeForce GTX 690 способна обеспечить комфортный уровень производительности в любой современной игре, в том числе и при активации сглаживания. Причём, в таких играх, как Metro 2033: The Last Refuge или Total War: Shogun 2 «избыточной» эту производительность назвать нельзя.

Отдельно нам хотелось бы отметить высокую энергоэффективность GeForce GTX 690. Как мы с вами сегодня убедились, система с одной двухпроцессорной видеокартой NVIDIA в пике нагрузки потребляет примерно на 112 ватт меньше электроэнергии, чем система с парой несильно разогнанных AMD Radeon HD 7970. Вряд ли обладатели таких видеокарт обращают внимание на счета за электроэнергию, но сам факт преимущества NVIDIA налицо. Умеренный уровень шума также приятно порадует будущих обладателей таких видеокарт. Неизгладимое впечатление произвела и упаковка, в которой была запечатана GeForce GTX 690, а также прилагающийся к ней гвоздодёр. Смелый и оригинальный пиар-ход компании NVIDIA определённо удался. Почаще бы так.

Будем ждать двухпроцессорного ответа от компании AMD, ну а мечта каждого заядлого и весьма обеспеченного геймера теперь выглядит примерно так:



Что мы знаем о двухпроцессорных видеокартах? Они сильно греются, работают на меньших частотах, чем однопроцессорные, и плохо разгоняются. GeForce GTX 690 опровергает эти стереотипы. Никогда NVIDIA еще не выпускала «двухголовой» карты такого уровня.

Прошло немногим больше месяца с момента выхода GeForce GTX 680, и вот NVIDIA представляет карту на архитектуре Kepler с двумя процессорами GK104.

Подробный обзор этой архитектуры вы можете прочитать в статье про GTX 680. А если вкратце, Kepler представляет собой апгрейд архитектуры Fermi, которую NVIDIA использовала в сериях GeForce 400 и GeForce 500. В ядре произошел ряд оптимизаций, но главное изменение состоит в увеличении числа вычислительных блоков: в GK104 втрое больше ядер CUDA и вдвое больше текстурных модулей по сравнению с чипом GF110 (GeForce GTX 580). С другой стороны, GeForce GTX 680 в некоторых отношениях уступает GTX 580: шина памяти «сузилась» с 384 до 256 бит, количество ROP снизилось с 48 до 32, а планировщики потоковых мультипроцессоров перешли от динамического планирования к статическому, что существенно снизило производительность в неграфических вычислениях.

GK104 производится по техпроцессу 28 нм, и умеренное (по сравнению с оным в ядре Tahiti из Radeon HD 7950/7970) число транзисторов позволило установить базовую тактовую частоту GPU 1006 МГц. Память в GTX 680 работает на эффективной тактовой частоте 6008 МГц. Кроме того, NVIDIA внедрила технологию динамического разгона GPU Boost, которая автоматически повышает частоту GPU в зависимости от энергопотребления и температуры. В дополнение к базовой частоте в спецификациях GTX 680 и 690 указана Boost Clock – средняя частота, которой достигает автоматический разгон в большинстве приложений.

Технические характеристики

GeForce GTX 680 по совокупности тестов опережает основного конкурента, Radeon HD 7970, хотя полный триумф и не состоялся. Но, что не менее важно, GTX 680 потребляет значительно меньше энергии и обходится двумя шестиконтактными разъемами дополнительного питания. Очевидно, что на базе GK104 должна получиться хорошая двухпроцессорная видеокарта. GTX 690 было проще сделать, чем GTX 590, еще и по той причине, что на одной плате легче развести две 256-битные шины памяти вместе с микросхемами, чем две 384-битные. В свое время, чтобы GTX 590 не взрывался в компьютере, NVIDIA пришлось пойти на существенный компромисс в спецификациях. Если GPU и память в GTX 580 работают на частотах 770 и 4004 МГц, то в GTX 590 частоты снижены до 607 и 3414 МГц соответственно. Более того, в GTX 590 заблокировано управление напряжением питания GPU. Правда, отдельные производители преодолели эти ограничения, и в результате появились такие монстры, как ASUS MARS II с трехслотовой системой охлаждения.

На этот раз двухпроцессорная карта претендует на полноценную замену двух GeForce GTX 680. Да, базовая частота чипов уменьшена с 1006 до 915 МГц, но Boost Clock отличается не так сильно: 1058 и 1019 – разница меньше четырех процентов. Видеопамять работает на такой же частоте, 6008 МГц.

GTX 690 потребляет гораздо меньше энергии, чем пара GeForce GTX 680: 300 Вт против 195 Вт х 2. При этом два восьмиконтактных разъема вместе с питанием от шины PCI-E устанавливают предел энергопотребления в 375 Вт.

Как и GTX 680, GTX 690 работает с шиной PCI-E 3.0. И более того, справляется с этим лучше, чем GTX 680. Последний официально может работать в режиме PCI-E 3.0 только в системах с процессорами Ivy Bridge, и наиболее досадным исключением стала платформа Sandy Bridge-E с чипсетом X79. Без «хакерских» манипуляций с реестром GTX 680 работает на ней только в режиме PCI-E 2.0. Неизвестно, устранят ли эту проблему в будущем, а вот GTX 690 уже сейчас поддерживает PCI-E 3.0 на X79 благодаря мосту PLX PEX8747, заместившему чип NF200, который использовался в этом качестве на плате GTX 590. Он может одновременно работать с PCI-E 2-й и 3-й версий. Независимо от платформы, графические процессоры всегда общаются между собой по PCI-E 3.0

GTX 690 позиционируется как эквивалент двух GTX 680 не только по производительности, но и по цене. Рекомендованная розничная стоимость составляет $999 (у GTX 680 – $499). Это самый дорогой референсный GeForce в истории. Мировые продажи GTX 690 уже начались, но в российской рознице его пока не видно. Что и не удивительно: фабрика TSMC еще не наладила производство GK104 в достаточном объеме, и подавляющая часть чипов идет на GTX 680. Более того, NVIDIA будет распространять карты GTX 690 лишь через нескольких партнеров. И логично предположить, что, когда они проникнут в Россию, розничные продавцы задерут цены гораздо выше рекомендованной тысячи баксов.

Конструкция

Предыдущие двухпроцессорные карты NVIDIA по дизайну мало отличались от остальной линейки. В этот раз из флагманской модели сделали предмет компьютерной роскоши. Кожух системы охлаждения почти целиком выполнен из металла. Оправа кулера – магниевый сплав, радиаторы GPU покрыты хромированными алюминиевыми пластинами с плексигласовыми окошками. Только узкие пластины на продольных гранях карты пластиковые. В длину GTX 690 на один дюйм больше, чем GTX 680, – 11 дюймов.

На верхней грани красуется логотип GeForce, вырезанный лазером, да еще и в пластике с эффектом soft-touch. Он светится в темноте зеленым светом. Известно, что NVIDIA не разрешает партнерам клеить на корпус GTX 690 фирменные стикеры. Позволено только делать отметки на печатной плате.

Дизайн системы охлаждения в целом повторяет то, что мы видели на GeForce GTX 590: графические процессоры охлаждаются двумя отдельными радиаторами с медной испарительной камерой. В центре находится крупный вентилятор, разгоняющий воздух по сторонам. Как следствие, часть «выхлопа» из видеокарты попадает внутрь корпуса компьютера. NVIDIA утверждает, что материал крыльчатки кулера и угол наклона лепестков подобраны таким образом, чтобы минимизировать шум.

Микросхемы памяти и элементы питания платы охлаждаются с помощью массивной алюминиевой рамы. В отличие от GTX 590, на GTX 690 все навесные элементы платы уместились под рамой, нет никаких вырезов для высоких конденсаторов. От вентилятора к концам платы идут ребра, направляющие воздушный поток. Пластин на задней стороне платы нет.

Порты на задней панели тоже расположены немного не так, как у GTX 590: один из выходов DVI больше не стоит в середине планки, преграждая путь воздушному потоку, а смещен в сторону.

Плата

GTX 690 построен на 10-слойной плате. Все микросхемы памяти поместились на передней поверхности.

Как и GeForce GTX 590, GTX 690 комплектуется микросхемами памяти Samsung (GTX 680 – Hynix). Номинальная частота такая же, как и у GTX 680: 6 ГГц, маркировка - K4G20325FD-FC03.

Система питания платы включает пять фаз для каждого GPU. У GTX 680 только четыре фазы – еще одно неожиданное преимущество GTX 690. Питанием GPU управляют два контроллера ON Semiconductor NCP4206, доселе нам не встречавшиеся. Для памяти каждого GPU отведена одна фаза, управляется контроллером Anpec APL 3516C. Все конденсаторы на плате GTX 690 твердотельные (на GTX 680 имеются и стандартные «банки» с жидким электролитом).