Тест и обзор GeForce GTX TITAN

Выпустят ли видеокарту на базе GPU GK110? Ответ на этот вопрос мы больше всего хотели услышать от NVIDIA и тогда, когда флагманскую позицию в линейке GeForce 600 занял более простой чип GK104, и тогда, когда GK110 дебютировал в составе профессиональных ускорителей Tesla K20/K20X. Вся история с задержкой выхода «большого Кеплера», а затем и спецификации Tesla K20/K20X заставили было усомниться в перспективах GK110 как игрового GPU. Всем известно, что у NVIDIA были трудности с освоением техпроцесса 28 нм на TSMC, которых не избежал даже гораздо более простой чип GK104, что же говорить о монстре из семи миллиардов транзисторов, которым является GK110. И вот мы видим, что новые модели Tesla получили довольно-таки скромные частоты GPU, а из 15 потоковых мультипроцессоров (SMX) GK110 работоспособны 13 или 14. При этом TDP карточек уже достигает 225-235 Вт.

Подводя итоги 2012 года по дискретной графике, мы предположили два варианта развития событий. Либо NVIDIA все-таки решится попытать счастья с GK110, выпустив на его основе GeForce GTX 780, либо оправдается более скучная версия и в GTX 780 установят обновленную версию GK104. Однако NVIDIA опровергла все предположения о том, в каком качестве представят адаптер на GK110, когда и каков он будет вообще.

Технические характеристики, цена

Первая неожиданность состоит в том, что адаптер GeForce GTX TITAN на GK110 не относится к линейкам GeForce 600 или 700, он как бы сам по себе. И это значит, что место на плате GTX 780 все-таки зарезервировано для GK114. Второе — то, что TITAN вышел в свет уже сейчас, хотя первый продукт на базе архитектуры Kepler отмечает годовщину только в марте.

Но главное — это тот факт, что GK110 выбрался из производственных неурядиц с минимальными потерями. Из 15 SMX, как и у Tesla K20X, не работает лишь один. Остальные 14 SMX дают фантастическое число активных вычислительных блоков: 2688 ядер CUDA, 224 текстурных модуля, 28 ROP. Сравните с формулой GK104: 1536 ядер CUDA, 128 текстурников, 32 ROP.

GPU TITAN работает на базовой частоте 836 МГц, Boost Clock равняется 876 МГц.

NVIDIA GK104

NVIDIA GK104

NVIDIA GK110

NVIDIA GK110

Кроме того, GK110 в GTX TITAN не имеет того слабого места, коим у GK104 является 256-битная шина памяти. Здесь шесть работающих контроллеров дают разрядность 384 бит — как у GTX 580 и Radeon HD 7970. Объем набортной памяти — щедрые 6 Гбайт, эффективная частота — стандартные для старших карт Kepler 6008 МГц.

Вся эта роскошь, разумеется, далась ценой высокого энергопотребления. TDP GeForce GTX TITAN составляет 250 Вт против 195 Вт уGTX 680. TITAN также будет чрезвычайно дорогой картой. Рекомендованная цена в США составляет $999, в России — 34 990 руб. Столь дорогих видеоадаптеров с одним GPU свет еще не видел. Но скажем в защиту TITAN, что GTX 690 на момент релиза стоил дороже — 35 990 руб., а по производительности, судя по спецификациям TITAN, они вполне сопоставимы.

В розничной продаже TITAN будет доступен начиная с 4 марта. Первыми вендорами, которые представят видеокарты в нашем регионе, станут ASUS, Gigabyte, Palit и Zotac.

 GTX 680NVIDIA GeForce GTX TITAN
Основные компоненты
GPUGK104GK110
Число транзисторов3,54 млрд7,1 млрд
Техпроцесс, нм2828
Тактовая частота GPU, МГц: Base Clock / Boost Clock1006/1058836/876
Потоковые процессоры15362688
Текстурные блоки128224
ROPs3248
Видеопамять: тип, объем, МбайтGDDR5, 2048GDDR5, 6144
Тактовая частота памяти: реальная (эффективная), МГц1502 (6008)1502 (6008)
Ширина шины памяти, бит256384
ИнтерфейсPCI-Express 3.0 x16PCI-Express 3.0 x16
Вывод изображения
Интерфейсы1 х DL DVI-I,
1 x DL DVI-D,
1 x HDMI 1.4a,
1 x DisplayPort 1.2
1 х DL DVI-I,
1 x DL DVI-D,
1 x HDMI 1.4a,
1 x DisplayPort 1.2
Макс. разрешениеVGA: 2048×1536,
DVI: 2560×1600,
HDMI: 4096х2160,
DP: 4096х3112
VGA: 2048×1536,
DVI: 2560×1600,
HDMI: 4096х2160,
DP: 4096×2160
Макс. потребляемая мощность, Вт195250
Средняя розничная цена, руб.Средняя цена по даннымМаркет.3DNews: 19100 руб.
(Найти все предложения)
Средняя цена по даннымМаркет.3DNews: 42500 руб.
(Найти все предложения)

Архитектура GK110

GK110 сохранил все черты архитектуры Kepler, которую мы подробно рассматривали в обзоре GeForce GTX 680, за одним важным исключением, касающимся устройства потоковых мультипроцессоров. Как и у GK04, SMX содержит 192 ядра CUDA, 32 блока Load/Store и 32 блока специальных функций (SFU). Но в GK110 к этому прибавили 64 ядра двойной точности (FP64). Всего в TITAN получается 896 активных ядер с поддержкой FP64.

GK104 в каждом SMX также имеет восемь специальных ядер, способных выполнять инструкции FP64 за один такт. Но поскольку ядер CUDA, поддерживающих лишь FP32, там 192, то теоретическая производительность GK104 в задачах с двойной точностью составляет 1/24 от задач с одинарной точностью. Для сравнения: GPU Tahiti от AMD способен обрабатывать FP64 со скоростью 1/2 от FP32.

Так как число ядер FP64 и FP32 в кристалле GK110 соотносится как 1 к 3, то теоретически он в состоянии выполнять нагрузку FP64 на 1/3 от скорости FP32. Но на практике это может быть не совсем так. По умолчанию ядра FP64 работают на 1/8 частоты других компонентов SMX, что дает такую же скорость 1/24, как у GK104. Чтобы задействовать их на полной частоте, есть специальная опция в панели управления драйвера, но общая тактовая частота GPU при этом снижается.

Кстати, SMX в GK110 по-прежнему пользуется статическим планировщиком, представленным в GK104, что негативно сказывается на производительности в неграфических вычислениях, но если GeForce GTX 680 по этой причине уступал GTX 580 в задачах на GP-GPU, то GK110 наверняка компенсирует недостаток огромным числом вычислительных блоков. Неспроста за счет Tesla K20 укомплектован суперкомпьютер Titan в Oak Ridge National Laboratory (ORNL), который возглавил Top 500 прошедшей осенью. Отсюда, кстати, и гордое имя GeForce GTX TITAN.

GPU Boost 2.0

NVIDIA представила новую версию технологии динамического управления частотой и напряжением графического процессора. Первое изменение, которое произошло в алгоритме GPU Boost: в качестве переменной, от которой зависит частота и напряжение GPU, может быть не только лимит мощности (Power Target), как было раньше, но и температура процессора. Соответственно, в утилитах для разгона теперь появились два отдельных слайдера для того и другого критерия, и можно отдать приоритет одному из них.

  ASUS GeForce GTX Titan установил 4 рекорда в 3DMark

Что более интересно, NVIDIA, наконец, дала возможность повышать напряжение на GPU. Однако делается это не привычным способом, характерным для видеоадаптеров со статическим напряжением. В логике GPU Boost есть функция, связывающая значения частоты и напряжения. Если алгоритм решает, что лимит температуры или мощности позволяет поднять частоту, то устанавливается и соответствующее ей напряжение. И что нам позволяет сделать новоприобретенная функция OverVoltage, так это предоставить в распоряжение автоматики еще несколько ступенек частоты и напряжения. А вот доберется ли до них GPU под нагрузкой, уже зависит от температуры или мощности.

Кроме того, в экспериментах с разгоном TITAN замечено, что даже в пределах диапазона частот и напряжений, которые доступны видеокарте без помощи OverVoltage (до отметки Vrel на графике), активация этой опции заставляет более агрессивно задействовать частотный потенциал.

К примеру, предельная частота Boost Clock, которую мы зарегистрировали в бенчмарках, составляет 1006 МГц, а напряжение — 1,162 В. Если максимизировать уровни Power Target, Temp Target и OverVoltage, то частота может подниматься вплоть до 1032 МГц, а напряжение — до 1,2 В. С другой стороны, если при максимальных Power Target и Temp Target в определенной сцене мы наблюдали частоту и напряжение 992 МГц и 1,15 В, то максимальный OverVoltage превращает их в 1019 МГц и 1,187 В.

В функции GPU Boost 2.0 также входит возможность разгонять дисплей. Да-да, с помощью утилиты, поддерживающей эту опцию, можно попробовать увеличить частоту вертикальной развертки, скажем, с 60 до 80 Гц, дабы одновременно наслаждаться высоким фреймрейтом и вертикальной синхронизацией.

Конструкция

Физически GeForce GTX TITAN выполнен в стилистике GeForce GTX 690. Такой же цельнометаллический корпус системы охлаждения и пластиковое (простите, поликарбонатное) окошко, открывающее взору ребра радиатора, а через несколько месяцев эксплуатации — залежи пыли. TITAN даже ближе к совершенству, чем его двухпроцессорный собрат, потому что из металла у него изготовлены абсолютно все детали корпуса, включая п-образные пластины, идущие вдоль длинных сторон. А у GTX 690 они сделаны из скучного крашеного пластика.

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

На торце карты — знакомый логотип со светодиодной подсветкой и бархатистой поверхностью soft-touch, чтобы от изделия можно было получить одновременно как визуальное, так и тактильное удовольствие.

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

Система охлаждения включает радиатор с испарительной камерой в основании и массивную металлическую раму, которая целиком закрывает печатную плату и служит для отвода тепла от микросхем памяти и транзисторов системы питания. Чипы памяти на оборотной стороне PCB вынуждены охлаждаться «сами по себе». В хвосте платы за турбинкой к раме прикреплен дополнительный блок алюминиевых ребер, через который проходит часть забираемого турбинкой воздуха. Но основной выхлоп идет через прорези в крепежной планке, наружу из корпуса.

Как и у GTX 680 и GTX 690, крыльчатка кулера TITAN изготовлена из звукопоглощающего материала. Видеокарта действительно очень тихо работает в штатном режиме и даже на 100% оборотов система охлаждения еще не очень сильно действует на нервы.

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

Разводка портов на задней панели абсолютно такая же, как у старших представителей линейки GeForce 600. Есть два выхода Dual-Link DVI, а также полноформатные разъемы DisplayPort и HDMI с поддержкой 4K-разрешений.

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

Плата

Как и GK104 в GeForce GTX 680, процессор GK110 в GTX TITAN довольствуется шестью фазами питания. Контроллер — ON NCP4206. Еще две фазы достались видеопамяти. Видеопамять набрана микросхемами Samsung K4G20325FD-FC03 с номинальной эффективной тактовой частотой 6 ГГц.

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

NVIDIA GeForce GTX TITAN

Сам GPU, вопреки ожиданиям и сомнительным фотографиям, появление которых предшествовало официальному релизу, установлен без теплорассеивателя, благодаря чему открывается вид на колоссальный кристалл, размером примерно с пятирублевую монету.

NVIDIA GK104
 

NVIDIA GK104

NVIDIA GK110

NVIDIA GK110

 

Методика тестирования

Конфигурация тестового стенда
CPUIntel Core i7-3960X @ 4,6 ГГц (100×46)
Материнская платаASUS P9X79 Pro
Оперативная памятьDDR3 Kingston HyperX 4×2 Гбайт @ 1600 МГц, 9-9-9
ПЗУIntel SSD 520 240 Гбайт
Блок питанияIKONIK Vulcan, 1200 Вт
Охлаждение CPUThermalright Silver Arrow
КорпусCoolerMaster Test Bench V1.0
Операционная системаWindows 7 Ultimate X64 Service Pack 1
ПО для карт AMDAMD Catalyst 13.1 WHQL (13.2 Beta6 в Crysis 3) + Catalyst Application Profiles 12.11 CAP2
ПО для карт NVIDIA314.07 (GeForce GTX 500—600),
314.09 (GeForce GTX TITAN)
Настройки AMD Catalyst Control Center
AntialiasingUse application settings
Anisotropic FilteringUse application settings
TesselationUse application settings
Catalyst A.I., Texture Filtering QualityQuality, Enable Surface Format Optimization
Mipmap Detail LevelQuality
Wait for V-SyncOff, unless application specifies
Anti-Aliasing ModeMulti-sample AA
Direct3D Settings, Enable Geomery InstancingOn
Triple buffernigOff
Настройки NVIDIA Control Panel
Ambient OcclusionOff
Anisotropic FilteringApplication-controlled
Antialiasing — Gamma correctionOn
Antialiasing — ModeApplication-controlled
Antialiasing — SettingsApplication-controlled
Antialiasing — TransparencyOff
CUDA — GPUsAll
Maximum pre-rendered frames3
Multi-display/mixed-GPU accelerationMultiple display performance mode
Power management modeAdaptive
Texture filtering — Anisitropic sample optimizationOff
Texture filtering — Negative LOD biasAllow
Texture filtering — QualityQuality
Texture filtering — Trilinear optimizationOn
Threaded optimizationAuto
Triple bufferingOff
Vertical syncUse the 3D application settings
Набор бенчмарков
ПрограммаAPIНастройкиРежим тестированияРазрешение
3DMark 2011DirectX 11Профили Performance, Extreme
3DMarkDirectX 11Тест Fire Strike (не Extreme)
Unigine Heaven 2DirectX 11Макс. качество, DirectX 11, тесселяция в режиме ExtremeAF 16x, MSAA 4x1920х1080 / 2560х1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking ToolDirectX 10Frost flythrough. Макс. настройки, DirectX 10AF 16x, MSAA 4x1920х1080 / 2560х1440
Metro 2033 + Metro 2033 BenchmarkDirectX 11Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл.AF 16x, MSAA 4x1920х1080 / 2560х1440
Crysis 2 + Adrenaline Crysis 2 Benchmark ToolDirectX 11Central Park. Макс. качество, DirectX 11, текстуры высокого разрешенияAF 16x, Post MSAA + Edge AA1920х1080 / 2560х1440
Far Cry 3DirectX 11Начало миссии Secure the Outpos. Макс. качество, HBAOAF, MSAA 4x1920х1080 / 2560х1440
Battlefield 3 + FRAPSDirectX 11Начало миссии Going Hunting. Макс. качествоAF 16x, MSAA 4x1920х1080 / 2560х1440
Crysis 3DirectX 11Начало миссии Post-HumanAF 16x, MSAA 4x1920х1080 / 2560х1440
Batman: Arkham City. Встроенный бенчмаркDirectX 11Макс. качествоAF, MSAA 4x1920х1080 / 2560х1440
DiRT ShowdownDirectX 11Shibuya, 8 машин. Макс. качество, Global Illumination вкл.AF, AA 4х1920х1080 / 2560х1440
The Elder Scrolls 5: Skyrim + FRAPSDirectX 9Город Whiterun. Макс. качествоAF 16x, MSAA 4x1920х1080 / 2560х1440
Call of Duty: Modern Warfare 3 + FRAPSDirectX 9Миссия Return to Sender. Макс. качествоAF, MSAA 4x1920х1080 / 2560х1440
  Обзор Samsung Galaxy S4

Участники тестирования

В тестировании приняли участие следующие видеокарты:

  • NVIDIA GeForce GTX 690 (915/6008 МГц, 4 Гбайт)
  • NVIDIA GeForce GTX 680 (1006/6008 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • 2 x Radeon HD 7970 GHz Edition (1050/6000 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 GHz Edition (1050/6000 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)

Разгон, температура, энергопотребление

Базовая частота GPU составляет 836 МГц, а максимальное значение Boost Clock, зарегистрированное в бенчмарках, составило 1006 МГц (прибавка в 169 МГц). В разгоне базовую частоту удалось увеличить до 966 МГц.

Значения Power Target и Temp Target по умолчанию установлены на уровне 100% и 80 °C. Для начала мы увеличили их до максимума — 106% и 94 °C, с приоритетом мощности. В таком режиме Boost Clock достигала 1124 МГц (+157 МГц к базовой частоте). Если же отдать приоритет температуре и прибегнуть к помощи OverVoltage, задав смещение напряжения на максимально допустимые три шага (+37 мВ), то Boost Clock начинает подниматься и до 1150 МГц (+183 МГц), а напряжение — вплоть до 1,2 В.

 Base Clock, МГцМакс. Boost Clock, МГцBase Clock,
МГц (разгон)
Макс. зарегистрированная
Boost Clock, МГц (разгон)
GeForce GTX TITAN8361006 (+169)9661150 (+183)
GeForce GTX 6909151071 (+156)10851241 (+156)
GeForce GTX 68010061110 (+104)10861177 (+91)
GeForce GTX 6709151097 (+182)10351215 (+180)
GeForce GTX 660 Ti9151059 (+144)11161260 (+144)
GeForce GTX 6609801071 (+91)10931185 (+92)
GeForce GT 650 Ti925НД1158НД
GeForce GT 640900НД1062НД

По пиковому энергопотреблению TITAN значительно превосходит как GeForce GTX 680, так и Radeon HD 7970 GHz Edition. Он кушает почти ровно столько же, что и GTX 580, тем самым вновь утверждая подзабытую истину, что GTX — это ПЕЧ. GeForce GTX 690 расположился на диаграмме поблизости: разница с TITAN составляет единицы ватт.

В тесте также участвует наша «темная лошадка», условный Radeon HD 7990 GHz Edition — два GPU Tahiti XT2, расположенные на одной плате и работающие на стандартных для HD 7970 GHz Edition тактовых частотах. Пока мы не будем раскрывать название и штатные спецификации этой карты, так как в ближайшее время с ней состоится отдельное знакомство. Так вот, эта карта далеко не столь экономична, как GTX 690 или TITAN, и соперничает по максимальному энергопотреблению со знаменитыми своим аппетитом GTX 590 и HD 6990.

Примечательно также то, что разгон TITAN почти никак не отражается на энергопотреблении. Похоже, что GPU Boost и в штатном режиме исчерпывает резерв мощности.

Система охлаждения TITAN оправдала возложенные на нее ожидания. Под нагрузкой чип GK110 нагревается не больше, чем вдвое меньший GK104 в составе GTX 680. А запаса мощности кулера достаточно для того, чтобы при разгоне адаптера снизить температуру еще на 20 °С.

Производительность, синтетические тесты

3DMark 2011 (DirectX 11)

  • GeForce GTX TITAN так далеко ушел от однопроцессорных участников теста, что адекватными соперниками для него могут быть лишь флагманские видеокарты с двумя GPU.
  • GTX 590 и Radeon HD 6990 также легко покорились новинке.
  • TITAN, конечно отстает по показателю Graphics score как от GTX 690, так и от сдвоенного HD 7970 GHz Edition, но в результате разгона уже опасно приближается к ним.

3DMark

  • Сразу заметим, что драйверы AMD оказались не готовы к появлению нового бенчмарка от Futuremark, поэтому как Radeon HD 6990, так и пара Radeon HD 7970 GHz Edition получили оценку, неадекватную их реальной производительности.
  • И снова TITAN борется за первенство лишь с GTX 690, потому что остальные участники тестирования не годятся ему в соперники.
  • В штатном режиме GTX 690 сохраняет лидерство, но разгон TITAN способен поколебать его позиции.

Unigine Heaven 2 (DirectX 11)

  • Результат тот же. TITAN легко убрал всех соперников, кроме сдвоенного HD 7970 GHz Edition и GTX 690.
  • На штатных частотах он уступает последнему, но в результате разгона разрыв сокращается до минимума. Двухпроцессорный адаптер AMD по-прежнему немного впереди.

Производительность, игровые тесты

Crysis Warhead (DirectX 10)

  • В этом тесте правит бал тандем Radeon HD 7970 GHz Edition. Даже при разгоне у TITAN нет шансов с ним справиться.
  • Radeon HD 6990 и GeForce GTX 590 выступили более успешно, чем GTX 680 и HD 7970 GHz Edition, и все же TITAN оказался быстрее.
  • Разница между TITAN и GTX 690 невелика, а благодаря разгону сокращается до минимума.

Metro 2033 (DirectX 11)

  • Вновь с легкостью повержены GTX 680 и HD 7970 GHz Edition, вместе со старыми двухпроцессорными флагманами.
  • От GTX 690 новинка отстала совсем ненамного, а в разгоне даже оказалась чуть быстрее.
  • Пара Radeon HD 7970 GHz Edition все еще вне конкуренции.

Crysis 2 (DirectX 11)

  • От этого теста в сравнении столь мощных видеокарт оказалось мало пользы из-за злополучного ограничения в 100 FPS. При разрешении 1920х1080 оценки всех участников расположились около отметки 100 кадров в секунду.
  • Результаты при разрешении 2560х1440 более показательны. TITAN, наряду с GTX 690 и парой Radeon HD 7970 GHz Edition, также достиг предельного фреймрейта, что прочим соперникам оказалось не под силу.

Far Cry 3 (DirectX 11)

  • Конкурировать с TITAN могут лишь GTX 690 и тандем Radeon HD 7970 GHz Edition.
  • В режиме 1920×1080 TITAN немного опережает двухчиповую карту AMD, а в разгоне приближается и к GTX 690. При разрешении 2560х1440 позиции двойного HD 7970 GHz Edition более прочные.

Battlefield 3 (DirectX 11)

  • Преимущество TITAN перед остальными видеокартами с одним GPU, по-прежнему колоссально. То же относится и к GeForce GTX 590 и Radeon HD 6990.
  • А вот современные «двухголовые» системы здесь работают чрезвычайно эффективно, поэтому GeForce GTX 690 и сдвоенный Radeon HD 7970 GHz Edition демонстрируют уровень производительности, недостижимый для TITAN даже при разгоне.

Crysis 3 (DirectX 11)

  • TITAN на голову превосходит своих однопроцессорных конкурентов вместе с GTX 590 и HD 6990. И все же при разрешении 2560х1440 фреймрейт не достигает минимально приемлемой отметки в 30 FPS.
  • Производительность GTX 690 и тандема HD 7970 GHz Edition примерно одинакова и заметно выше, чем у TITAN.
  • Но благодаря разгону последний достигает заветных 30 FPS в 2560х1440, и отставание от двухпроцессорных лидеров сокращается до минимума.
  • Radeon HD 6990 в Crysis 3 пока что отказывается работать в режиме CrossFireX. Но и не беда, все равно конкуренцию TITAN он составить не смог бы.

Batman: Arkham City (DirectX 11)

  • К печали сторонников компании AMD, технология CrossFireX не работает в этой игре от слова «вообще». Поэтому результаты одиночного Radeon HD 7970 GHz Edition оказались даже лучше, чем у двух таких GPU, и единственным соперником TITAN остался GeForce GTX 690.
  • Но похоже, что и с SLI Batman не дружит, поэтому даже без разгона TITAN значительно опережает своего двухпроцессорного родственника, а с разгоном уходит еще дальше.

DiRT Showdown (DirectX 11)

  • Эта игра очень любит видеокарты AMD, поэтому GeForce GTX 680 и GTX 690 получили скромные оценки по сравнению с Radeon HD 7970 GHz Edition и двумя такими видеокартами соответственно.
  • TITAN также в первый раз уступил Radeon HD 7970 GHz Edition.
  • GTX 690 немного опережает новинку, но при разгоне последней их результаты практически выравниваются.

The Elder Scrolls 5: Skyrim (DirectX 9)

  • Skyrim — плохой тест для топовых видеокарт. Между большинством участников нет никакой значимой разницы, и только GTX 680 немного просел при разрешении 2560х1440. Да еще Radeon HD 6990 позорно отстал от основной группы в обоих режимах.

Call of Duty: Modern Warfare 3 (DirectX 9)

  • В CoD, с ее легкой по нынешним стандартам графикой, фреймрейт у столь мощных видеокарт уже зашкаливает.
  • TITAN легко расправился с другими однопроцессорными адаптерами, к которым примкнули и бывшие двухпроцессорные флагманы.
  • GTX 690 и двойной HD 7970 GHz Edition не теряют своего превосходства даже перед лицом разогнанного TITAN.

GeForce GTX TITAN vs GTX 690 vs 2xRadeon HD 7970 GHz Edition

  Обзор ноутбука ASUS VivoBook S300CA

Первое, что бросается в глаза при взгляде на сводную таблицу, это то, что разгон TITAN хотя и корректирует его положение по сравнению с соперниками, но в абсолютных значениях не всегда дает значимую прибавку FPS. На увеличение частот хорошо откликаются DiRT Showdown, Unigine Heaven 2 и Battlefield 3. В других же тестах эффект от разгона совсем невелик. В общем, как и в случае с другими видеокартами семейства Kepler с технологией GPU Boost, мегагерцы у GTX TITAN подчас имеют отчетливый привкус кукурузы.

Также видно, что TITAN всегда идет где-то рядом с GTX 690, а иногда даже опережает его. Вот двойной Radeon HD 7970 GHz Edition оказался более сильным соперником, TITAN догоняет его не так часто.

Выводы

Для NVIDIA TITAN стал ярким достижением и демонстрацией ее инженерного потенциала. Несмотря на все трудности, которые сопровождали GK110 и архитектуру Kepler в целом на пути от проектирования к коммерческим продуктам, мы все-таки получили этот технологический шедевр. Мир еще не видел такого огромного GPU, и производительность поражает воображение. TITAN просто уничтожил теперь уже бывших однопроцессорных фаворитов – GeForce GTX 680 и Radeon HD 7970 GHz Edition и небезуспешно соревнуется с двумя GPU в лице GeForce GTX 690 или условного Radeon HD 7990 GHz Edition.

В целом GTX 690 удерживает лидерство, но у TITAN есть другие преимущества, главное из которых — более предсказуемая производительность, которая не зависит от эффективности SLI в той или иной игре. А также поддержка вычислений с двойной точностью на скорости 1/3 от FP32 для тех, кому это необходимо. Кроме того, NVIDIA утверждает, что тройка «Титанов» в SLI имеет большую производительность, чем два GTX 690, во что мы охотно верим, зная, что при переходе от трех к четырем GPU скорость масштабируется не очень хорошо.

Тандем Radeon HD 7970 GHz Edition — более серьезный противник для TITAN. Но посмотрите, как много энергии потребляет эта парочка, даже если GPU находятся на одной плате. Для AMD сравнение даже единственного HD 7970 GHz Edition с TITAN очень обидно, потому что они находятся в абсолютно одинаковом энергетическом бюджете 250 Вт, а по производительности совершенно несопоставимы. С другой стороны, хотя NVIDIA и удалось добиться столь впечатляющего соотношения двух важнейших качеств дискретного видеоадаптера — производительности и энергопотребления, но третье качество — цена, отчасти зависимая от себестоимости и выхода годных чипов, совершенно упущено. Ведь тысяча долларов за видеокарту с одним GPU — это тоже своеобразный рекорд. В принципе, в рознице все выглядит справедливо: если TITAN сравним по производительности с адаптерами на двух GPU, то не грех и попросить за него такие же деньги. Но если взглянуть шире, то ситуация говорит о том, что хотя мастерство разработчиков и изысканные энергосберегающие технологии уже позволяют создать GPU с 7,1 миллиарда транзисторов, но производство (по крайней мере, для NVIDIA) еще не готово выпускать таких монстров в по-настоящему больших количествах. GK110 и TITAN ­— это в своем роде привет из будущего. GPU такого масштаба наверняка станут привычным делом для топовых видеоадаптеров через одно-два поколения.

Материал взят с ресурса  www.3dnews.ru

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here