ОБЗОР

Ускорение в среднем весе. Тестируем Radeon HD 7790 и GeForce GTX 650 Ti Boost на платформе AMD.

Аналитика. Фирменные технологии и инициативы.  

Удивительно, но необычно холодная весенняя погода никак не отразилась на способностях наших любимых AMD и NVIDIA к выпуску “горячих” новинок. Сначала NVIDIA и AMD ударили по рынку Hi-End. Зелёные через своих партнёров начали продажи эталонных версий GeForce GTX TITAN, а AMD, в свою очередь, с гордостью смотрела на величественное шествие ускорителя ASUS ARES II, демонстрирующего невероятную мощь пары GPU Tahiti XT вкупе с высочайшим качеством исполнения самой платы и её системы охлаждения. Каждое из этих решений, пожалуй, имеет свои плюсы и свои недостатки, но в целом, поставленные перед инженерами цели были достигнуты. Ускоритель GeForce GTX TITAN построен на основе самого мощного в мире GPU, в то время как ASUS ARES II является, пожалуй, самым производительным графическим ускорителем на момент написания этих строк. И вот, после небольшой передышки, театр боевых действий в который раз сместился. Теперь всё внимание маркетологов и инженеров обеих компаний обращено к более скромным решениям, которые, несмотря на свою “скромность” как раз приносят им основной доход. Первый залп был за AMD. Менее чем за сутки до анонса Radeon HD 7790 несколько журналистов были приглашены в московский офис AMD, где после подписания документов о неразглашении, нам были показаны слайды, демонстрирующие все возможности новых GPU компании. Спустя несколько дней пришла добрая весточка и от NVIDIA – мы увидели характеристики GeForce GTX 650 Ti BOOST – прямого конкурента Radeon HD 7790.  Что тут скажешь? Молодцы. И те и другие. Меня искренне радуют такие вот конкурентные баталии, поскольку в них, не на словах, а наделе проявляются все сильные и слабые стороны участников. Чем хороши новинки, каковы их характеристики и возможности, мы узнаем чуть позже, а пока, мой нетерпеливый читатель, перед тем, как я представлю свою версию подсчёта fps “По Чурову” (шутка-петросянка), хочу рассказать ещё кое о чём. Дело в том, что оба наших графических исполина ведут бои за покупателя не только при помощи классического оружия в виде видеокарт. И AMD и NVIDIA прикладывают свои усилия по взаимодействию с пользователями через игры и инструменты для игр. Приведу примеры. Начну по порядку.

Совсем недавно компанию AMD ругали за то, что она мало сотрудничает с разработчиками игр, которые, в свою очередь, при каждом удобном случае демонстрируют логотип “NVIDIA. The way it’s meant to be played”. Создавалось впечатление, что с разработчиками игр сотрудничает только NVIDIA, что, разумеется, было не так. В компании прислушались. И вот, во многих современных играх я вижу логотип “AMD Gaming Evolved”. Не буду утверждать насколько глубоко такое сотрудничество в плане инженерном, радует сам факт, что отныне светится не только NVIDIA. Кроме того, в рамках AMD Gaming Evolved проводится акция под названием “Never Settle / Never Settle Reloaded”. Суть проста. Покупаешь видеокарту(ы) AMD - получаешь лицензионную игру или даже игры в подарок. Как участник этой инициативы, скажу, что компания предлагает актуальные игры из ТОП-10 игровой индустрии, что весьма ценно.

Не осталась в стороне и компания NVIDIA. Чтобы далеко не уходить от предыдущего абзаца, скажу, что ответом на Never Settle Reloaded стала маркетинговая акция “зелёных” под названием “Gear Up. Load Up. Game On”. По условиям этой акции покупатели GeForce GTX 650 (Ti) и GeForce GTX 660, а также старших моделей GeForce  могли получить бонусы в виде игровой валюты в ряде популярных онлайн игр, например World of Tanks. К сожалению, я не участвовал, так что за подробностями сюда. Ещё одной фишкой от NVIDIA стала технология GeForce Experience. Эта технология будет интересна, прежде всего, людям не сильно замороченным на тонкой настройке графических параметров игр, проще говоря, обычным пользователям. Суть GeForce Experience в том, чтобы минимизировать количество действий, нужных для достижения баланса между производительностью и качеством картинки  для данной конфигурации ПК,  GFE – это своего рода попытка превратить ПК в консоль с точки зрения простоты настройки. По словам NVIDIA, при подборе оптимальных параметров используются данные о центральном процессоре, графическом ускорителе и используемом разрешении монитора. Все эти данные передаются в облако, после их обработки вы получаете ответ на вопрос “Как сделать быстро и красиво”. Позволю себе процитировать данные, полученные от российского представительства компании:

Как определяются оптимальные настройки? Это сочетание ручного и автоматизированного тестирования:

  •  - Специалисты NVIDIA проходят игры, чтобы составить общее впечатление об игре
  • - Определяют наиболее сложные сцены (не max сложности, где-то 80%).
  • - Назначается комфортный порог играбельности  - ориентируемся на вилку 40-60 кадров в секунду ( в зависимости от типа игры: для стратегий ~40, для шутеров >60).
  • - Далее вручную проверяют, как те или иные графические настройки влияют на качество картинки и производительность. Каждой настройке присваивается определенный вес
  • - Далее все загружаются в суперкомпьютер, который определяет оптимальную комбинацию графических настроек с учетом достижения наилучшего кач-ва картинки при заданном fps  
  • - Для каждой игры проверяется масса конфигураций GPU + CPU + разрешение дисплея и составляются таблицы с оптимальными настройками. Конечная цель GFE – обеспечить максимальное качество картинки при заданном fps на конкретной конфигурации ПК
  •  Получить настройки можно только для тех игр, которые были протестированы NVIDIA. Вот их текущий список (55 штук) - http://www.geforce.com/drivers/geforce-experience/supported-games
  • - Когда тебе приходят настройки, ты можешь их принять или отказаться. Без разрешения геймера, никто ничего оптимизировать в игре не будет. За геймером всегда остается право выбора.

На словах, разумеется, всё выглядит красиво. Вошёл в программу, нажал кнопку и получил результат. Я решил проверить GeForce Experience на практике, для этого я использовал следующую конфигурацию:

  • Intel Core i7 980X
  • ASUS Rampage III Black Edition
  • 16 Гбайт DDR-3 AMD Performance memory
  • ZOTAC GeForce GTX 680 AMP!
  • 2x 1 Тбайт Seagate ES.2 RAID0
  • Microsoft Windows 8 Professional

Скачал клиент GFE, установил его и запустил. После того, как закончился анализ конфигурации и был найден список поддерживаемых игр, я начал изучать разделы с текущими и оптимальными с точки зрения NVIDIA параметрами. Для того, чтобы GFE клиент смог определить текущие настройки, игра должна быть хоть раз запущена, поскольку программа берёт настройки игры из её файла конфигурации, а значит, если он пуст, то и брать нечего.

Технология NVIDIA GeForce Experience

Всё вроде бы верно, GFE нашёл на моём ПК несколько игр, для некоторых из них, Bioshock Infinite, например, были успешно определены текущие настройки и успешно установлены оптимальные, для других же, например Far Cry 3, не всё оказалось так просто. Несмотря на неоднократный запуск игры и наличие её в списке найденных, клиент GeForce Experience не видел текущих настроек игры и, что вполне логично, несмотря на наличие оптимального графического профиля, отказывался его применять.

Программа NVIDIA GeForce Experience

Программа NVIDIA GeForce Experience

Перезапуск GFE, системы, а также многократный вход и выход из игры с переменой внутренних настроек графики, результатов не принёс.  Уверен, что все текущие проблемы со временем будут устранены, однако пока рассматривать GeForce Experience в качестве волшебной пилюли, делающей мир вокруг прекрасным, не стоит.Тем не менее, GFE в некоторых случаях полезен. Помимо функции оптимизации игровых настроек, присутствует вкладка, через которую можно контролировать состояние драйверов и держать их в актуальном состоянии.

Программа NVIDIA GeForce Experience

Программа NVIDIA GeForce Experience

На мой взгляд, эта утилита скорее приятное дополнение, позволяющее без лишней возни запускать некоторые современные игры, а для остальных всё ещё придётся всё ковырять руками. Кому интересно, могут почитать FAQ, и попробовать в деле клиент GFE, ну а я, наконец, перехожу к описанию видеокарт Radeon HD 7790 и GeForce GTX 650 Ti BOOST, ради которых, ты, дорогой читатель, перешёл по ссылке на эту статью.

Sapphire Radeon HD 7790. Позиционирование, упаковка, технические особенности.

Не секрет,  что заклятый конкурент AMD, компания NVIDIA выпускает массу решений на базе архитектуры Kepler, причём не только самых дорогих, но и относительно дешёвых. Как известно, эти самые недорогие решения пользуются среди нас с вами максимальным спросом. В качестве примера возьмём видеокарты GeForce GTX 650 Ti. Эти продукты вполне можно считать сбалансированным и достаточно удачным выбором для недорогого игрового ПК. В разрешении 1680x1050 и 1920x1080 эти платы показывают приличную производительность при сохранении приличной детализации. У AMD, замечу, тоже есть такие продукты, однако до недавнего времени, прямого ответа на GeForce GTX 650 Ti у компании не было. И вот, наконец, свет увидел Radeon HD 7790, который и стал тем самым прямым ответом на GTX 650 Ti. Более того, несмотря на выход GeForce GTX 650 Ti BOOST, маркетинговый расчёт AMD никак  нельзя считать промахом, поскольку обычный GeForce GTX 650 Ti с прилавков никуда не уходит, да и стоит новый GTX 650 Ti BOOST примерно на 1000 рублей дороже, чем HD 7790. Так что, прямым конкурентом для Radeon HD 7790 нужно считать GeForce GTX 650 Ti без приставки BOOST!

Теперь о самой AMD Radeon HD 7790. Чтобы не повторяться несколько раз и не описывать те изменения, которые внесла AMD в архитектуру GPU, на котором построен данный ускоритель, я дам ссылочку на новость, опубликованную в день его анонса. Там вы найдёте данные о количестве активных функциональных блоков, тактовых частотах ядра и памяти, а также об изменениях в системе энергосбережения GPU Radeon HD 7790. Я же хочу представить вам Sapphire Radeon HD 7790 Dual-X 1 Гбайт.

Упакована плата в небольшую картонную коробку, все грани которой, особенно лицевая и обратная сторона, отданы под описание возможностей ускорителя HD 7790. Производитель сообщает нам о том, что карта разогнана, на ней установлен 1 Гбайт видеопамяти и крутая система охлаждения. Кроме того, множество пиктограмм рассказывают нам о прочих передовых технологиях, вроде 28-нм технологического процесса для GPU, поддержки PCI-Express 3.0 и так далее.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Как и ожидалось, сама видеокарта и прилагаемые к ней аксессуары тщательно упакованы и аккуратно разложены внутри коробки, с транспортировкой по морям и океанам проблем наверняка не возникнет.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Помимо самой видеокарты Radeon HD 7790, в комплекте удалось обнаружить:

  • Кабель HDMI длиной 1,8 м
  • Переходник с DVI на VGA
  • Гибкий CrossFire мостик
  • Компакт диск с драйверами
  • Набор бумажных инструкций и реклама
  • Фирменная наклейка Sapphire

На мой взгляд, комплект очень достойный. Есть всё,что необходимо и даже немного больше. HDMI кабель будет полезен многим, например мне.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Снимаю полупрозрачную наклейку с кулера Sapphire Radeon HD 7790 Dual-X, карта предстаёт во всей своей красе. Дизайн системы охлаждения, как мне кажется, чем-то напоминает современный дизайн некоторых решений ASUS, обратите внимание на “срезанные” углы и общий стиль исполнения аля-Stealth. В общем, красиво.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

На панели выводов четыре разъёма – на любой вкус, так сказать. Пара DVI(SL и DL), HDMI и полноразмерный выход DisplayPort. Считаю такой набор выходов самым оптимальным. Учитывая, что в комплекте идёт HDMI кабель и переходник DVI-VGA, всё становится ещё лучше. Если совсем обнаглеть, то остаётся ещё желать поставки с DP кабелем….

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Ладно, пора играть на раздевание… Снимаем систему охлаждения. Её демонтаж занимает порядка 20 секунд, поскольку вся конструкция держится на четырёх подпружиненных винтах. Сама система охлаждения выглядит очень достойно. С графическим процессором контактирует медная подошва, которую пронизывают две толстенные тепловые трубки, переносящие тепло на рёбра радиатора. Чипы видеопамяти, прошу заметить, контактируют с алюминиевой подложкой, зажимающей тепловые трубки и контактирующей, отчасти, с рёбрами системы охлаждения. Контакт осуществляется через специальные термопрокладки. Общее количество чипов видеопамяти – 4 шт.. Пара вентиляторов подключаются к общему разъёму, размещённому на печатной плате Sapphire Radeon HD 7790 Dual-X.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

А вот разводка PCB оставляет непонятное впечатление, сродни тому, которое появляется, когда в большом ресторане ты арендуешь лишь небольшой закуток, а всё остальное место остаётся “не для тебя”. Так и тут, основная часть PCB занята элементами поверхностного монтажа, местами установленными достаточно плотно, а вот хвост видеокарты пуст. Мне кажется, что для производства Radeon HD 7790 просто используется ранее созданная и уже использованная заготовка. Впрочем, плата не слишком велика. Это конечно не HTPC формат, однако в большинстве случаев владелец Sapphire Radeon HD 7790 во время установки дискомфорта не испытает. Приятной особенностью платы является наличие защитной пластиковой рамки вокруг кристалла GPU. По спецификации AMD графический процессор работает на частоте 1000 МГц, видеопамять на эффективной частоте 6000 МГц. Инженеры Sapphire немного разогнали свою версию 7790, её частотная формула составила 1075/6400 МГц для графического ядра и видеопамяти соответственно.

Sapphire Radeon HD 7790 Dual-X 1 Гбайт

На этом внешний осмотр Sapphire Radeon HD 7790 закончен. Перехожу к описанию особенностей GeForce GTX 650 Ti BOOST.

NVIDIA GeForce GTX 650 Ti BOOST

NVIDIA GeForce GTX 650 Ti BOOST

Поскольку я ещё не вёл подробных бесед на тему архитектуры и позиционирования GeForce GTX 650 Ti BOOST, придётся сделать это прямо сейчас. Сначала о позиционировании. Как известно, GeForce GTX 650 Ti BOOST вышел практически сразу за Radeon HD 7790, однако, вопреки ожиданиям многих, новый средневес от NVIDIA не является прямым конкурентом Radeon HD 7790, поскольку его стоимость примерно на 1000 рублей выше (в главе, посвящённой Radeon HD 7790, я уже об этом писал). А вот следующий по счёту за HD 7790 ускоритель - AMD Radeon HD 7850 как мне кажется, вполне может быть конкурентом “BOOST’ированного” GTX 650 Ti, поскольку стоимость этих ускорителей, хоть и с натяжкой, но достаточно близка.

Теперь давайте разбираться с архитектурой GeForce GTX 650 Ti BOOST. Перед вами сводная таблица с основными спецификациями GeForce GTX 650 Ti, 650 Ti BOOST и 660 без приставки Ti.

Спецификации графических ускорителей серии GeForce GTX 650 Ti, 650 Ti BOOST и 660

 

GTX 660 (GK106)

GTX 650 Ti BOOST (GK106)

GTX 650 Ti (GK106)

Базовая частота ядра, МГц

980

980

925

Турбо частота ядра, МГц

1033

1033

-/-

Ядра CUDA, шт

960

768

768

Текстурные модули, шт.

80

64

64

Блоки растеризации, шт.

24

24

16

Эффективная частота видеопамяти, МГц

6008

6008

5400

Ширина шины памяти, бит

192

192

128

Объём видеопамяти, Мбайт

2

2

1 или 2

ПСП видеопамяти, Гбайт/сек

144,2

144,2

86.4

Скорость выборки текстур, гигатекселей в секунду

78,4

62,7

59,2

TDP

140

140

110

 

А также скриншот из официальной документации NVIDIA для обозревателей:

Характеристики GeForce GTX 650 Ti BOOST

Так вот, согласно этим данным, лежащий в основе GeForce GTX 650 Ti BOOST чип GK106 может быть упрощён относительно полноценной версии этого GPU двумя способами. Первый – полное отключение одного из трёх GPC. При таком раскладе мы получаем классическую пару GPC, абсолютно симметричную по своему устройству.

Архитектура чипа GK106 - полная версия

Полная версия GK106

Архитектура чипа GK106 - вариант упрощения 1

GK106 без одного GPC

Второй вариант подразумевает исключение из состава любого GPC одного блока SMX. При таком раскладе у нас останутся активными все три GPC, однако один из них будет нести два блока SMX, а два других – по одному.

Архитектура чипа GK106 - вариант упрощения 2

GK106 с отключенным SMX, при всех активных GPC

Однозначно сказать какой из вариантов лучше вряд ли возможно, более того, я думаю, что разницу между парой по-разному усечённых GPU мы вряд ли заметим даже в точных бенчмарках. Поправьте, если ошибаюсь. Так вот, если рассматривать устройство GTX 650 Ti BOOST в сравнении с младшим и старшим аналогом, то по своим характеристикам GeForce GTX 650 Ti BOOST больше тяготеет к GTX 660, нежели к GTX 650 Ti. Так почему же новинка выпущена под номером 650 Ti, а не 660? Скорее всего, причины исключительно маркетинговые. Ускоренные карты продаются куда лучше, чем замедленные. Чисто с психологической точки зрения приятно осознавать, что у тебя ускоренные GTX 650 Ti, близкий по производительности к GTX 660, нежели замедленный GTX 660, близкий к GTX 650 Ti. Во как! Уже чувствую, как жадные до денег торговцы будут пользоваться неведением новичков, осуществляя разные хитрости поигрывая с приставкой BOOST себе во благо. Впрочем, это не проблема NVIDIA. И не наша. Давайте уже посмотрим на саму карточку.

Про упаковку и комплектацию, в этот раз, не скажу ни слова. Плата, которая приехала к нам в тестовую лабораторию, является эталонным образцом и поступила непосредственно из российского представительства компании NVIDIA.

Честно скажу, я в последнее время очень впечатлён внешним видом ускорителей NVIDIA. Что GeForce GTX 690, что GeForce GTX TITAN выглядят великолепно. Промышленный дизайн, скажу я вам, тоже искусство, тому на рынке масса примеров. Эталонная версия GeForce GTX 650 Ti BOOST также выглядит весьма достойно, конечно, не так как TITAN, но всё же, перед “пацанами” не стыдно.

Кожух системы охлаждения целиком выполнен из пластика, рельеф которого сильно напоминает рисунок брони и заклёпки на ней. И всё бы ничего, если не глядеть на плату с обратной стороны. Ситуация очень похожа на случай с Sapphire Radeon HD 7790, только здесь сама плата очень коротка, а размера плате прибавляет турбина системы охлаждения, которая всеми своими движущимися частями находится за пределами печатной платы.

NVIDIA GeForce GTX 650 Ti BOOST

NVIDIA GeForce GTX 650 Ti BOOST

NVIDIA GeForce GTX 650 Ti BOOST

Панель выводов по своей структуре сильно напоминает оную у Radeon HD 7790 от Sapphire. Та же пара DVI (Оба DL), HDMI, DP и вентиляционные вырезы.

Панель выводов GeForce GTX 650 Ti BOOST

Пока я не разобрал карту, давайте сравним её по длине с Radeon HD 7790 от Sapphire. Глядя на эту фотографию лично мне приходит только одна мысль – первое, что надо менять партнёрам NVIDIA у GTX 650 Ti BOOST – систему охлаждения, даже если PCB останется неизменной.

Сравнение размеров Sapphire Radeon HD 7790 Dual-X и NVIDIA GeForce GTX 650 Ti BOOST

Демонтирую кулер GTX 650 Ti BOOST. Сначала откручиваю целую кучу тоненьких и длинных винтиков, снимаю пластиковый кожух СО. Под ним обнаружился ребристый брусок, закреплённый на четырёх подпружиненных винтах с обратной стороны печатной платы. Своим медным основанием брусок касается поверхности GPU, не трогая при этом микросхемы памяти, охлаждение которых, как и охлаждение системы питания, возложено на поток воздуха, создаваемый турбиной.

Система охлаждения NVIDIA GeForce GTX 650 Ti BOOST

NVIDIA GeForce GTX 650 Ti BOOST

NVIDIA GeForce GTX 650 Ti BOOST

Система питания GPU и видеопамяти выполнена по схеме 4 (драйвер ON Semi. NCP5392G +1 (драйвер Anpec APL3516A). Плата несёт на борту 4 чипа памяти GDDR-5 производства Samsung K4G20325FD-FC03, номинальная эффективная частота которой составляет 6 ГГц

NVIDIA GeForce GTX 650 Ti BOOST

Память NVIDIA GeForce GTX 650 Ti BOOST

Вот и всё. Внешний осмотр закончен, пора действовать злодействовать!

Температуры. Разгон, тестирование в играх и синтетических пакетах. Выводы.

В этот раз я немного изменил конфигурацию тестового стенда. Наша станция переехала в новый корпус, а потому, сравнивать полученные сегодня результаты нагрева GPU с полученными ранее данными – не корректно, так что на графиках присутствуют только те ускорители, с которыми удалось провести повторные замеры температуры.

Тестовый стенд Modlabs

Обращаю ваше внимание, что сравнивать GTX 650 Ti BOOST и Radeon HD 7790 между собой не корректно, они не являются прямыми конкурентами друг другу, куда интереснее взглянуть на разницу температур с предполагаемыми “одноклассниками”. Конечно, нельзя сказать наверняка, как будет развиваться температурная битва в случае с другими парами ускорителей NVIDIA - AMD, однако в сегодняшнем поединке лидируют решения красных. Как ни крути, а карты NVIDIA в сравнении с аналогами AMD по-прежнему нагреваются больше, по крайней мере, в том ценовом сегменте, который рассматриваем мы. Что же касается уровня шума, то эталонный образец NVIDIA GeForce GTX 650 Ti BOOST лишь изредка напоминал о себе, в большинстве случаев не выделяясь на общем фоне системы, ну а Sapphire Radeon HD 7790 и вовсе показался мне тихоней, за что ему большое спасибо.

Результаты тестирования Radeon HD 7790 и GeForce GTX 650 Ti BOOST

Теперь я займусь разгоном. В качестве основного инструмента я использовал утилиту MSI Afterburner 3.0 beta 9. Защита в драйверах AMD была выключена, проверка стабильности проходила в три этапа: двойной цикл 3DMark Fire Strike Extreme, двойной цикл 3DMark 11 Extreme и двойной цикл 3DMark Vantage Extreme. Если ускоритель проходил такие испытания, начиналось игровое тестирование. В результате я зафиксировал следующие частотные показатели:

  • Sapphire Radeon HD 7790 @ 1200/6600
  • NVIDIA GeForce GTX 650 Ti BOOST @ 1155-1208/6400

Пора переходить к тестированию производительности. Вот на чём были проведены тесты:

 

 Конфигурация тестового стенда MODLABS 

Системная плата

MSI 990FXA-GD80 – спасибо, MSI!

Центральный процессор

AMD FX-8150 @ 4400 МГц – спасибо, AMD!

Оперативная память

8 Гбайт AMD Entertainment Memory @ 1600 МГц – спасибо, AMD!

Видеокарта

Sapphire Radeon HD 7790

NVIDIA GeForce GTX 650 Ti BOOST

Жёсткие диски

1 Тбайт Seagate ES.2

Операционная система

MS Windows 8 Professional x64 + upd

Блок питания

Seasonic SS-1250XM (80+ Gold)

 

Версия драйверов видеокарты

Для видеокарт NVIDIA 314.22 WHQL

Для видеокарт AMD – Catalyst 13.1

 

А вот где и как были проведены тесты:

 

Список тестовых приложений

Синтетические и полусинтетические тесты 

3DMark Vantage 1.1.0 (Performance, Extreme)

3DMark 11 1.0.3.0 (Performance, Extreme)

3DMark Professinal 1.0 (Cloud Gate, Fire Strike, Fire Strike Extreme)

Unigine Valley 1.0 Extreme HD

Unigine Heaven 4.0 Ultra + 4xMSAA

 Игры

Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум. (В том числе и тесселляция) Полноэкранное сглаживание устанавливалось в режим MSAA 4x во всех играх, где эта опция была доступна, в противном случае выставлялся максимально близкий по качеству режим AA, эквивалентный 4xMSAA. Режим PhysX, если был доступен, выключался!

Metro 2033 DX11

Batman Arkham City DX11

Lost Planet 2 DX11

Alien Versus Predator DX11

S.T.A.L.K.E.R CoP DX11

DIRT Showdown DX11

Sleeping Dogs DX11

Far Cry 3 DX11

Hitman. Absolution

Asassin’s Creed III

Crysis 3 версия 1.0.2

Tomb Raider (2013)

 

К сожалению, из-за постоянной ротации семплов в тестовой лаборатории, а также неутомимого желания постоянно пополнять списки тестовых пакетов, мне не всегда удаётся провести дополнительное тестирование во всех играх и бенчмарках, поэтому заранее извиняюсь за отсутствие ряда результатов в тестовых пакетах 3DMARK.

Результаты тестирования Radeon HD 7790 и GeForce GTX 650 Ti BOOST

Результаты тестирования Radeon HD 7790 и GeForce GTX 650 Ti BOOST

Результаты тестирования Radeon HD 7790 и GeForce GTX 650 Ti BOOST

Итак, вот что получилось. Ускоритель Radeon HD 7790 от Sapphire поборол старичка GTX 650 Ti в большинстве тестовых приложений. Конечно, в некоторых случаях разница была минимальной, а в некоторых случаях всё же чувствовался отрыв. Вы скажете, что Radeon HD 7790 от Sapphire разогнан производителем на заводе, на что я отвечу, что в случае с Radeon HD 7790 такое положение дел скорее всего будет сохраняться всегда, поскольку AMD, как было сказано на презентации, не планирует реализацию эталонных HD 7790, производство этого малыша целиком и полностью отдаётся в руки партнёров. Но, если хотите, вывод для этой парочки я могу перефразировать – Sapphire Radeon HD 7790 по всем характеристикам лучше эталонной версии GeForce GTX 650 Ti.

Что касается противостояния Radeon HD 7850 и новичка GeForce GTX 650 Ti BOOST,  то здесь ситуация весьма неоднозначная. Я бы охарактеризовал результат поединка одной фразой – примерный паритет. Где-то NVIDIA вырывается вперёд, где-то AMD. Не буду высказывать своих предпочтений, смотрите результаты и думайте, какие из игр вам нравятся больше.

В результате весеннего противостояния мы с вами получили два свежих и весьма достойных графических ускорителя. Поклонники AMD смогут приобрести ускоритель стоимостью примерно в 4600-4800 рублей, любители NVIDIA смогут порадовать себя новинкой стоимостью чуть меньшей, чем 6000 рублей, причём, если судить по результатам, то в своих ценовых нишах оба адаптера полностью оправдывают свою стоимость.

Предлагаю обсудить материал в этой ветке форума. либо в нашей группе Facebook и ВКонтакте.

Титан расправил крылья! Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD.

Рубрики: Видеокарты
Метки: | | | | | | | | | |
Дата: 12/03/2013 21:34:36
Подписаться на комментарии по RSS

Вступление. Архитектура GK110, новые возможности GeForce GTX TITAN.

Ещё несколько месяцев назад на страницах зарубежных новостных ресурсов стали появляться скудные данные о некоем мифическом 3D ускорителе от компании NVIDIA. Судя по первым слухам, которые, впоследствии подтвердились, новая видеокарта должна была получить гордое имя “TITAN”, а её сердцем должен был стать супермощный GPU с архитектурой Kepler. Скептики не верили в существование Титана, поклонники же, отнюдь, всем сердцем ждали новинку и пророчили флагманской графике AMD поражение в борьбе с зелёным монстром. Так бы и продолжались словесные перепалки, если бы, наконец, не произошёл долгожданный анонс, после которого все смогли оценить способности новоиспечённого одночипового флагмана. Ну а я, в свою очередь, после того, как эмоциональный накал от выхода GeForce GTX TITAN немного спал, хочу спокойно и без спешки посмотреть на производительность ускорителя GeForce GTX TITAN в самых современных играх вроде Tomb Raider и Crysis 3. Сделаю я это не так как большинство журналистов, поскольку в отличие от многих в нашей тестовой лаборатории используется платформа AMD.

Прежде всего, как мне кажется, нужно разобраться с архитектурой графического процессора GeForce GTX TITAN. Начнём.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Знаю наверняка, от чего не умрут маркетологи NVIDIA. От скромности :) Новый ускоритель GeForce GTX TITAN зовётся основой для игрового суперкомпьютера. Звучит, конечно, красиво, однако так можно назвать, пожалуй, любую игровую станцию на базе одной или нескольких флагманских видеокарт, по крайней мере, на стадии анонса или сразу после него. Впрочем, не буду придираться, продолжу.

Осознание способностей графического процессора GeForce GTX TITAN, лучше всего приходить после выставления точки отсчёта. В данном случае ей стал один из экстремальных процессоров Intel – Core i7 3960X Extreme Edition. По сравнению с этим чипом, GPU TITAN, действительно, является суперкомпьютером, жаль только, что вся эта вычислительная мощь актуальна для игроков лишь при наличии маленького кусочка кремния от Intel или AMD....

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Чтобы понять, откуда растут ноги, и благодаря чему удалось достичь столь впечатляющих вычислительных показателей, нужно немного углубиться в историю и покопаться в архитектуре GPU ускорителя GeForce GTX TITAN. Дело в том, что после анонса графических ускорителей поколения Kepler, стало ясно, что GeForce GTX 680 не состоялся как флагман в полном смысле этого слова. Этот ускоритель использовал GPU GK104, который, по своей топологии оказался больше похож на Middle-High продукт, нежели на флагманское решение. Чтобы убедится в этом, посмотрите на устройство чипов GF110 и GF114 на базе Fermi, поймёте о чём я. Судя по всему, технологические проблемы не позволили NVIDIA в разумные сроки наладить массовый выпуск полноценных GK110 и, чтобы даром время не терять, был найден компромисс. В общем-то, NVIDIA этого факта и не скрывала, GeForce GTX 680 был временным игроком, который должен был получить более мощного преемника как только удастся решить проблемы с 28-нм техпроцессом. Впрочем, при кажущейся простоте, GeForce GTX 680 обладал отличной производительностью и довольно неплохими характеристиками энергопотребления и тепловыделения. Теперь, с выпуском графического ускорителя GeForce GTX TITAN инженеры компании подвели некоторую технологическую черту, за которую одночиповые решения NVIDIA вряд ли выйдут в рамках архитектуры Kepler, поскольку настольная версия GK110 получила практически все заложенные в неё возможности.

Графический процессор GK110 содержит блок управления потоками, именуемый GigaThread Enginе, кеш память для инструкций и данных, контроллеры памяти, блоки растровых операций, а также Graphics Processing Clusters (GPC), который выполняет вычислительные операции и операции с текстурами. В составе GK110 находятся пять блоков GPC. Внутри каждого GPC, в свою очередь, находится по одному движку растеризации, а также по три так называемых SMX (SM – в терминологии NVIDIA для GPU Tesla и Fermi)  - потоковых мультипроцессора. В отличие от серверного Tesla K20/K20X, в составе которых трудится полноценная версия GK110 с 15-ю активными блоками SMX, настольный графический чип GK110 получил лишь 14 активных потоковых мультипроцессора. Количество текстурных блоков равно 224, а блоков растеризации – 48.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

В составе SMX трудятся 224 текстурных блока и 48 ROP (блоков растеризации), особого рассмотрения заслуживают блоки операций с двойной точностью. Общее количество блоков FP64 (те самые блоки операций с двойной точностью) составляет 896 штук, по 64 на каждый SMX, – это положительное отличие от GK104. Не очень хорошо то, что по умолчанию, ядра, предназначенные для работы с FP64, работают на 1/8 от частоты других блоков, размещённых в SMX. Правда стоит отметить, что в драйверах есть возможность поднять тактовую частоту FP64 блоков, переключив видеокарту в режим “CUDA двойная точность”, однако общая тактовая частота GPU снизится. Вот что получилось при запуске 3D приложения после включения вышеозначенной опции (значения Temp Target было сдвинуто до 90 градусов Цельсия):

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Отключаем режим двойной точности, получаем:

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Так вот, поскольку суммарное количество ядер CUDA в GK110 равно 2688 (по 192 штуки на один блок SMX), а количество FP64 блоков – 896, получаем, что соотношение FP64/FP32 блоков = 1/3. Если вспомнить, что FP64 блоки работают на 1/8 частоты GPU, получим, что эффективность выполнения операций с двойной точностью составляет 1/24 от FP32! Да, да, близкая ситуация в FP64 операциях была и у GeForce GTX 680, из за столь же низкой эффективности таких вычислений он “сливал” старине GTX 580. Вот только в данном случае низкая эффективность при работе с FP64 компенсируется за счёт колоссального увеличения количества самих вычислительных блоков. У AMD, кстати, при переходе к FP64 провал заметно меньше, скорость падает примерно вдвое. Это, конечно, на словах звучит страшно, на практике же, применительно к играм, всё не так плохо, скорее даже очень хорошо, поскольку архитектура Fermi, а теперь и Kepler имеет не так много слабых мест и решения на её основе более чем конкурентоспособны.

 Контроллер памяти у GK110 заметно подтянут относительно оного у GK104, теперь он 384 битный, против 256 битного, а суммарный объём локальной видеопамяти GeForce GTX TITAN составляет 6144 Мбайт = 6 Гбайт!  Здесь полный порядок.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

В итоге мы получаем, что настольная версия видеокарт, базирующихся на GPU GK110, обладает следующими характеристиками.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Ещё пару лет назад, снимок экрана с окном программы GPU-Z, отображающей характеристики GeForce TITAN, сочли бы как минимум поддельными, а как максимум, назвали бы автора этих снимков сумасшедшим. Нынче же ситуация иная, перед нами настоящий Титан, по крайней мере по формальным характеристикам. Согласитесь, тактовые частоты GPU 837/876 МГц, частота видеопамяти 6008 МГц, шина памяти 384 бит (ПСП памяти 288 Гбайт/с), 48 блоков растеризации и 224 текстурных блока, 2688 ядер CUDA и всё это при использовании 7,1 млрд. транзисторов! Даже сейчас это выглядит круто, при этом TDP платы GeForce GTX TITAN не пугает современного пользователя – всего 250 Вт.

Если по части архитектуры GPU и подсистемы памяти мы разобрались, то оверклокерские характеристики ещё требуют описания. Уж поверьте, есть на что обратить внимание. Эти данные, определённо, нужно будет учитывать при подходе к разгону.

Динамический разгон. Технология NVIDIA GPU Boost ver. 2.0

Итак, первая версия технологии форсирования частоты GPU от NVIDIA в своей работе учитывала только один параметр – предел мощности/напряжение GPU, который изменялся в определённых рамках. Сейчас же появился ещё один фактор – предельная температура, при которой GPU в состоянии функционировать без сбоев.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

По умолчанию значение предельной температуры выставлено на уровень 80 градусов Цельсия, однако пользователь вручную может изменить этот уровень до 94 градусов. Такое смещение позволит работать графическому процессору под нагрузкой при более высоких частотах. Судя по слайдам с презентации, именно рабочая температура GPU будет решающим фактором в достижении максимальной частоты при работе GPU Boost 2.0.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

На практике при разгоне видеокарты мы будем выставлять не только значение Power Target, но и Temperature Target. Кстати, отмечу, что в технической документации от NVIDIA написано о возможности регулировки напряжения как об опции, которая может быть выключена производителем посредствам VBIOS. Думаю, что вряд ли кто-то будет намеренно глушить эту возможность.

Одной из интересных возможностей ускорителей NVIDIA является технология адаптивной вертикальной синхронизации, суть которой заключается в нивелирование эффекта “разрыва кадра” и “подёргиваний“ картинки при резком изменении частоты смены кадров. Новизна Adaptive V-sync в случае с GeForce GTX TITAN заключается в том, что отныне ограничение частоты смены кадров при адаптивной вертикальной синхронизации можно увеличить до 120 Гц включительно.

Напоследок, хочу вспомнить о технологии NVIDIA SLI. Не секрет, что максимальное количество одновременно задействованных GPU в системе с видеокартами NVIDIA может достигать четырёх. Пара GeForce GTX 690 – отличный пример работы 4-Way SLI. Использование такого тандема, как мне кажется, оправдано довольно редко, поскольку помимо ограничений в вычислительной мощи центрального процессора, остро стоит проблема синхронизации четырёх чипов для работы над картинкой. Коэффициент полезного действия 4-Way SLI систем существенно ниже, чем у, скажем, 2-Way или 3-Way SLI. Зная об этом, NVIDIA с выходом GeForce TITAN активно продвигает тему 3-Way SLI, как самую оптимальную с точки зрения эффективности и самую высокопроизводительную. На мой взгляд, такое позиционирование оправдывает себя, особенно для видеосистемы класса TITAN. Вот только крайне рекомендую для “Титановых” SLI связок обзавестись мощнейшим процессором, да ещё и разогнать его.

На этом я заканчиваю теоретическую часть материала, пришла пора знакомиться с Титаном лично.

Ускоритель ZOTAC GeForce GTX TITAN. Внешний вид и особенности аппаратного оснащения.

Всё, как обычно, начинается с упаковки. Она, пожалуй, единственное, что отличает ZOTAC GeForce GTX TITAN от большинства выпущенных на данный момент “Титанов” других производителей. Перед нами красочный чехол из тонкого картона, который опоясывает достаточно увесистую коробку, в которой находится набор аксессуаров и сам ускоритель. Помимо основных технических данных, нам сходу сообщают о том, что на этот продукт действует расширенная гарантия от ZOTAC, а также о том, что внутри нас ждёт подарок – три игры из серии Assasin’s Creed. Те, кто любит эти игры, оценит, остальные же отнесутся спокойно, поскольку игры из подарочного комплекта уже не так свежи. как того хотелось бы.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Открываем картонный чемодан. Сверху, под крышкой из прозрачного пластика находится видеокарта ZOTAC GeForce GTX TITAN, она лежит в “кроватке” из пористого синтетического материала. Именно эта кроватка защищает Титана от повреждений при транспортировке.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Вытаскиваю видеокарту, залезаю глубже, нахожу аксессуары, заботливо уложенные на заводе в отдельный картонный бокс. Помимо бумажного сопровождения и диска с драйверами я обнаружил обещанные игры из серии Asassin’s Creed (серийники к которым я, с вашего позволения, замазал), пару переходников питания, переходник с DVI на VGA и фирменную наклейку ZOTAC. Уж не знаю, нужно ли что-то ещё покупателю такой вот видеокарты, а лично мне, как обозревателю, этого набора вполне хватает.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Бог с ними, с бумажками. Вот он, герой обзора. Честно сказать, вопреки своей привычке, я очень долго рассматривал GeForce GTX TITAN,  крутил плату в руках и никак не мог нарадоваться. На мой вкус, этот ускоритель можно назвать одним из самых правильных с эстетической точки зрения. Пару или даже тройку Титанов нужно ставить в корпус с прозрачной боковой стенкой, чтобы наблюдать всё это великолепие как можно чаще. Крышка системы охлаждения выполнена из алюминия, ближе к панели выводов выдавлена надпись TITAN, ближе к корме присутствует логотип NVIDIA.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

 

Через прозрачное стекло, изготовленное из полимера, видны рёбра радиатора системы охлаждения.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Кстати, при включении видеокарты надпись GeForce GTX светится зелёным цветом, оценить это свечение можно на фото, приведённом чуть ниже.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Панель выводов оснащается четырьмя выходами, два из которых – DVI-I и DVI-D, ещё пара – это полноразмерные HDMI и DisplayPort. Лично для меня такой набор выходов является идеальным, поскольку обычно я использую сразу два DVI разъёма для подключения монитора и плазменной панели. Как и положено флагману, GeForce GTX TITAN от ZOTAC поддерживает разрешение 4K.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Демонтирую систему охлаждения. Процесс проходит легко и непринуждённо. В отличие от первых плат на базе GPU Fermi, для демонтажа системы охлаждения которых предполагалось использование небольшого гранёного ключика, ускоритель GeForce GTX TITAN разбирается при помощи обычной отвёртки. Слава Богу, производитель не стал мудрить с креплением, винтов много, но процесс демонтажа прост как устройство молотка. Я сознательно не стал разбирать систему охлаждения до винтика, поскольку ничего принципиально нового в её устройстве нет. Кулер представляет собой конструкцию из испарительной камеры, радиатора и турбины, прокачивающей воздух сквозь рёбра радиатора, выводя потоки горячего воздуха за пределы корпуса. Подошва испарительной камеры через тонкий слой термопасты контактирует с кристаллом GK110, в то время как сильно греющиеся элементы системы питания, а также чипы памяти отдают тепло на металлическое основание кулера через специальные термопрокладки.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Полная маркировка GPU ускоритель ZOTAC GeForce GTX TITAN такова:

A TAIWAN 1251A1

NFF532.M3W

GK110-400-A1

Чип GK110 имеет ревизию A1 и изготовлен на 51 неделе 2012 года. Для оценки размеров кристалла GF110, взгляните на фото. Десятирублёвая монета помещается целиком, да ещё и остаётся достаточно много места. Как ни крути, а чип получился гигантский, его площадь составляет 561 кв. мм. Металлическая рамка вокруг GPU защищает кристалл от сколов, полезно при установке нестандартной системы охлаждения.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Без системы охлаждения плата GeForce GTX TITAN выглядит не так эффектно, тем не менее, вид флагмана плата сохраняет даже “голышом”. Двадцать четыре микросхемы памяти Samsung K4G20325FD-FC03 размещены по обе стороны печатной платы, микросхемы, расположенные на обратной стороне PCB никак не охлаждаются. Номинальная эффективная тактовая частота для этих чипов памяти составляет 6 ГГц.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

За питание графического процессора отвечают 6 фаз, управляемых микросхемой ON Semiconductor NCP4206. Питание памяти двухфазное, для питания PLL выделана одна фаза.  В системе питания использованы высококачественные компоненты Dr.Mos.

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

В общем-то, с описанием теории и аппаратного устройства GeForce GTX TITAN, пожалуй, всё, самое время переходить к практическим испытаниям.

Нагрев, уровень шума. Пара слов о необходимости разгона. Тесты.

Тестовый стенд Modlabs, на котором проводилась проверка акустических и температурных характеристик, а также тесты производительности GeForce GTX TITAN от ZOTAC, был собран в составе корпуса Cooler Master Cosmos 1000S, все посадочные места которого заняты 120 мм вентиляторами, вращающимися со скоростью 1200 об./мин. Боковая стенка корпуса во время тестирования открыта. Конфигурация тестового стенда такова:

 

 Конфигурация тестового стенда MODLABS 

Системная плата

MSI 990FXA-GD80 – спасибо, MSI!

Центральный процессор

AMD FX-8150 @ 4400 МГц – спасибо, AMD!

Оперативная память

16 Гбайт AMD Entertainment Memory @ 1600 МГц – спасибо, AMD!

Видеокарта

ZOTAC GeForce GTX TITAN 6 Гбайт (837/6008)

Жёсткие диски

4x1 Тбайт Seagate ES.2 @ RAID0

Операционная система

MS Windows 8 Professional x64 + upd

Версия драйверов видеокарты

314.09 WHQL

 

Как вы уже поняли, в качестве основы для тестового стенда использовалась система на базе AMD FX 8150, разогнанного до 4400 МГц. В таком виде эта машина весьма производительная и способна осилить любую из современных игр, однако в сравнении с флагманскими системами Intel, наш боец FX всё-таки проигрывает и местами достаточно заметно. Именно поэтому, для того, чтобы минимизировать влияние процессора на потенциал GeForce GTX TITAN, нужно нагрузить графическую систему по максимуму. Так я и сделал. Помимо стандартных настроек игр на максимальное качество при разрешении 1920x1080 с 4-х кратным полноэкранным сглаживанием MSAA и 16-ти кратной анизотропной фильтрации, я провёл дополнительное тестирование, при котором настройки полноэкранного сглаживания форсировались вручную через драйвер или выставлялись в опциях игр, разумеется, при наличии соответствующих опций, эквивалентных настройкам драйверов. Форсированные настройки драйверов 314.09 выглядят так:

Настройка драйверов GeForce GTX TITAN

Настройка драйверов GeForce GTX TITAN

В деле влияния CPU на результаты, не стоит также забывать, что не каждая современная игра способна “получать удовольствие” от наличия в системе 8-ми ядерного CPU. Об этом, кстати, мы уже писали и подкрепили наши слова результатами тестов. С этим фактом, как мне кажется, связан проигрыш процессоров AMD FX в играх, которые не могут использовать все активные ядра флагманских процессоров FX, в то время как камни Intel за счёт большей мощи отдельных ядер вырывались вперёд. К сожалению, мы не можем сравнить полученные нами результаты с оными на платформе Intel ввиду временного отсутствия соответствующего оборудования, так что пока оставим эту тему, до появления актуальной системы на базе чипов Intel.

Что же касается разгона, то для выяснения частотного потенциала моего образца ZOTAC GeForce GTX TITAN, была использована утилита EVGA Precision X. Обороты системы охлаждения были установлены на максимум, значение Power Target было увеличено до 106%, а Temp Target до 90 градусов Цельсия. Базовую частоту GPU удалось поднять до стабильного уровня в 980 МГц, а частоту памяти до 7230 МГц. Максимальная турбо частота при активации технологии GPU Boost составила 1142 МГц, отмечу, правда, что такой потолок был достижим далеко не во всех играх, а там, где достижим, на такой частоте видеокарта работала не долго. Как правило, карта работала на 1078 МГц.

Для тестирования уровня шума и исследования процесса нагрева GPU я отказался от использования теста MSI Kombustor и FurMark, вместо этого тесты проводились в игре Crysis 3, при этом настройки качества картинки были выставлены на максимум, использовалось разрешение 1920x1080, также был задействован режим сглаживания MSAA 8x.

Результаты тестирования ZOTAC GeForce GTX TITAN

Без разгона графический процессор ускорителя ZOTAC GeForce GTX TITAN разогрелся не более 82 градусов Цельсия, при этом  максимальная тактовая частота, которую удалось зафиксировать во время тестирования в играх, составила 1010 МГц. Что же касается уровня шума, то для столь быстрой видеокарты, я бы сказал, что ZOTAC GeForce GTX TITAN почти не шумит. В 2D карту не слышно, а в 3D, на фоне остальных компонентов из состава тестового стенда, этот ускоритель выделяется, но незначительно, долгой игре этот шум никак не мешает. Прямое сравнение температуры GPU GK110 до и после разгона вряд ли можно назвать справедливым, поскольку в момент разгона турбина ZOTAC GeForce GTX TITAN работает на 100% своей мощности.

Обращу ваше внимание на тот факт, что тестирование ускорителя GTX TITAN проводилось до фотосессии видеокарты, как следствие, использовалась термопаста, нанесённая производителем! После фотосессии, на очищенный кристалл GPU был нанесён слой Noctua NT-H1, на фото представлен не окончательный вариант (в реалии оставлен более тонкий слой):

Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD

Список тестовых приложений

Синтетические и полусинтетические тесты 

3DMark Vantage 1.1.0 (Performance, Extreme)

3DMark 11 1.0.3.0 (Performance, Extreme)

Unigine Valley 1.0

Unigine Heaven 4.0 (Все детали и тесселляция установлены на максимум, 4xAA)

 Игры

Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум, в том числе и тесселляция, полноэкранное сглаживание устанавливалось в режим 4x во всех играх. Режим PhysX, если был доступен, включался в режиме максимального качества. В драйверах PhysX не выключался нигде, кроме 3DMark Vantage.

Также был проведён цикл игровых тестов с форсированными настройками драйверов или эквивалентными им настройками в опциях игр, если такие были доступны. Более подробно читайте об этом чуть выше.

Десятые доли FPS отсекались, в силу неактуальности.

Metro 2033 DX11

Batman Arkham City DX11

Lost Planet 2 DX11

Alien Versus Predator DX11

S.T.A.L.K.E.R CoP DX11

DIRT Showdown DX11

Sleeping Dogs DX11

Far Cry 3 DX11

Hitman. Absolution

Asassin’s Creed III

Crysis 3 версия 1.0.2

 

Изначально я хотел включить в список тестов Tomb Raider 2013, однако игра отказалась запускаться и пока придётся обойтись без неё.

Ошибка при запуске Tomb Raider

Результаты тестирования ZOTAC GeForce GTX TITAN

Результаты тестирования ZOTAC GeForce GTX TITAN

Выводы.

Результаты тестов свидетельствуют о том, что NVIDIA проделала очень серьёзную работу по подготовке GeForce GTX TITAN. И действительно, на примере ZOTAC GeForce GTX TITAN видно, что карта удалась. Восхитительная производительность в тяжёлых режимах делает её незаменимым спутником для богатого игрока, который хочет выжать всё, что только можно из своей системы. Любители собирать компьютер “про запас” также не будут обделены. Если позволяют средства, можно собрать связку из трёх Титанов, благодаря чему, как мне кажется, в ближайшие полтора – два года можно забыть об апгрейде, разумеется, если не произойдёт неожиданного скачка в области требований к графической подсистеме со стороны актуальных на тот момент игр.  

Помимо высокой производительности, к достоинствам ZOTAC GeForce GTX TITAN можно отнести низкий уровень шума стандартной системы охлаждения, что тоже не маловажно в домашнем игровом ПК. Тем не менее, несмотря на столь выдающиеся возможности, я бы не стал торопиться с выводами и записывать GeForce GTX TITAN в однозначные лидеры среди всех одиночных видеокарт, ведь красному лагерю тоже есть чем ответить, например “залпом” из двух GPU видеокарты ASUS ARES II, но об этом в другой раз. А пока битва Богов и Титанов только готовится, я, пожалуй, выдам продукту ZOTAC награду.

Награда Editor's ChoiceГрафический ускоритель ZOTAC GeForce GTX TITAN удостоен награды "Выбор редактора" за март 2013 года.

 

 Предлагаю обсудить материал у нас в форуме.

P.S. Заранее отвечая на вопрос о целесообразности покупки трёх Титанов для объединения их в связку, скажу, что помимо обычных конфигураций, работающих с одним монитором, пусть даже и очень большим, есть ещё конфиги, например, с тремя мониторами, да ещё и с поддежкой 3D, а это значит, что столь мощные конфигурации оправданы уже сегодня!

Удачная замена. Обзор и тестирование процессоров AMD FX-4100 и FX-4130

Введение. Процессор AMD FX-4100.

Недавно мы детально ознакомились с флагманским процессором AMD серии FX основанном на ядре Vishera – AMD FX-8350. Так сложилось, что при обновлении линейки процессоров все внимание журналистов достается лишь самому производительному решению, в то же время младшие процессоры, как правило, остаются “за бортом”. А ведь в линейке AMD FX, помимо восьмиядерных, есть также четырёх- и шестиядерные модели. Сегодня мы отчасти исправим ситуацию, поговорим о двух очень похожих Quad-Core процессорах AMD FX-4100 и FX-4130. Итак, FX-4130 был анонсирован не так давно, позиционируется этот процессор как замена FX-4100. Представители AMD заявляют, что при неизменной, относительно FX-4100 цене, новинка обладает лучшими потребительскими характеристиками. Ну что же, проверим это утверждение, а заодно изучим оверклокерский потенциал новинки. Также, поговорим о том, насколько оправдано использование восьмиядерных процессоров для решения современных мультимедиа задач, быть может четырёх ядер AMD FX-4100/4130 вполне достаточно для комфортной работы?

Процессор AMD FX-4100 поставляется в небольшой коробке, оформленной в красно-белых тонах. В отличие от старших 8-ми ядерных моделей, которые поставляются в металлических упаковках, 4-х и 6-ти ядерные “камни” упаковываются в картон. Однако, так или иначе отмечу, что дизайнеры AMD не зря едят свой хлеб. Упаковки всех процессоров компании выполнены весьма качественно, оформлены ярко и стильно. Единственное, что сбивает с толку, так это надпись Black Edition на почти белой коробке J  Но, это, конечно, придирки.

Коробочная версия процессор AMD FX-4100

Внутри коробки, помимо самого процессора, находится кулер, инструкция по установке, гарантия производителя, а также наклейка на системный блок, подчёркивающая принадлежность компьютера к лагерю AMD.

 

Коробочная версия процессор AMD FX-4100

От незначительных механических повреждений при транспортировке процессор защищён пластиковой «оберткой». Наш экземпляр AMD FX-4100 имеет маркировку FD4100WMW4KGU и произведен в Малайзии.

 

Коробочная версия процессор AMD FX-4100

Коробочная система охлаждения рассчитана на крепление к стандартной рамке Socket AM3+. Радиатор охлаждается вентилятором, габариты которого составляют 70x70x15 мм, максимальная скорость вращения крыльчатки составляет 3500 об/мин.

 

Коробочная версия процессор AMD FX-4100

Ребра и основание радиатора изготовлены из алюминиевого сплава. Штатная термопаста нанесена на основание системы охлаждения и защищена пластиковой крышкой.

 

Коробочная версия процессор AMD FX-4100

На первый взгляд может показаться, что кулер оснащается одной тепловой трубкой, однако это не так. В основе радиатора имеются две тепловые трубки точечно припаянные к основанию в самом центре.

 

Коробочная версия процессор AMD FX-4130

Об эффективности штатной системы охлаждения AMD FX-4100 мы узнаем чуть позже, а сейчас давайте внимательно изучим характеристики самого процессора, в этом нам поможет утилита CPU-Z.

Процессор изготовлен по технологии 32-нм и строится на базе ядра Zambezi. Штатная частота составляет 3,6 ГГц, напряжение ядра 1,380 В. Заявленный уровень TDP равен 95 Вт. Суммарный объём кеш-памяти 2-го и 3-его уровня составляет 12 Мб. Кеш-память 3-го уровня имеет объем 8 МБайт.  Как и положено представителю серии FX, множитель процессора не заблокирован.

Благодаря технологии Turbo Core 2.0, которая осуществляет автоматический разгон процессора путем повышения множителя, частота FX-4100 может быть увеличена на 200 МГц. Учитывая небольшое завышение материнской платой частоты шины, а также постоянную работу функции авторазгона и энергосбережения, “поймать” на снимке экрана ровные 3600 МГц мне так и не удалось :)

Скриншот CPU-Z с AMD FX-41004130

Без нагрузки напряжение процессора снижается до 0.96 В, однако частота при этом остаётся неизменной, более того, даже под нагрузкой процессор работает на более высоких, чем номинальная, частотах. После включения технологии Cool'n'Quiet, которая на материнской плате ASUS SABERTOOTH 990FX по умолчанию отключена, ситуация не изменилась. В то же время при тестирования AMD FX-8350 множитель, как и положено, снижался до отметки x7.

Скриншот CPU-Z с AMD FX-41004130

В режиме Max Turbo Core частота одного ядра повышается до 3800 МГц, а напряжение до 1,392 В. «Поймать» процессор в таком состоянии было довольно сложно, почти все время он работал на частоте 3700 МГц.

Скриншот CPU-Z с AMD FX-41004130

Скорее всего, такое поведение системы связано с недоработками в BIOS материнской платы ASUS Sabertooth 990FX rev.1. Для особо придирчивых читателей, стоит отметить, что при тестировании использовалась последняя версия прошивки, доступная на официальном сайте производителя.

Примечание от редактора:

C сожалением отмечу, что за последние пол года – год, это уже не первый случай, когда техническая поддержка продуктов компании ASUS  даёт сбой. В частности, после выхода ОС Windows 8 пользователи ASUS Xonar Xense столкнулись с проблемой в работоспособности панели управления своей звуковой карты. Несмотря на обращения в техническую поддержку, официальных обновлений драйверов нет до сих пор! К счастью, решение этой проблемы есть, но какими усилиями?

 

Процессор AMD FX-4130.

Теперь поговорим об AMD FX-4130, вышедшем на замену FX-4100. Внешне упаковка процессора не претерпела никаких изменений, за исключением текстового описания упакованного процессора. После коробки с FX-4100, эта показалось мне более тяжёлой, появились надежды на супер комплект J

 

Коробочная версия процессор AMD FX-4130

Ан нет! Вскрытие показало, что внутри упаковки AMD FX-4130 находится идентичный комплект: процессор, кулер, инструкцию по установке и гарантия, а также наклейка на системный блок.

 

Коробочная версия процессор AMD FX-4130

Процессор FX-4130 так же защищен пластиковым боксом, имеет маркировку FD4130FRW4MGU и произведен в Малайзии.

Коробочная версия процессор AMD FX-4130

А вот после вскрытия коробки с кулером, стало ясно кто в ответе за увеличение массы. Базовая система охлаждения AMD FX-4130 заметно отличается от оной у AMD FX-4100.

 

Коробочная версия процессор AMD FX-4130

Радиатор имеет улучшенную конструкцию, производитель увеличил количества рассеивающих ребер, а также сделал основание из меди для более эффективной передачи тепла от крышки процессора. Габариты кулера AMD FX-4130 составляют 70х70х20 мм, а максимальная частота вращения вентилятора составляет 3200 об/мин. Стандартная термопаста уже нанесена тонким слоем на подошву системы охлаждения и закрыта пластиковой крышкой.

 

Коробочная версия процессор AMD FX-4130

Количество тепловых трубок так же возросло с двух до четырех. Они припаяны к специальным выемкам, что позволяет увеличить площадь контакта тепловых трубок с основанием.

 

Коробочная версия процессор AMD FX-4130

Процессор изготовлен по технологии 32-нм на микроархитектуре Zambezi. Штатная частота, в по сравнению с AMD FX-4100 выросла на 200 МГц и составила 3,8 ГГц, напряжение ядра 1,320 В. С повышением частоты уровень TDP был увеличен до 125W, что на 30 Вт больше, чем у FX-4100. А вот общий объём кеш-памяти уменьшился, теперь он составляет 8 Мбайт. Такие сокращения произошли благодаря уменьшению Кеш-памяти 3-го уровня до 4 Мбайт.  Множитель процессора также не заблокирован.

Интересно посмотреть как такая “переоснастка” процессора FX-4130 скажется на результатах производительности. Судя по всему, инженеры AMD посчитали дополнительный объём кеша лишней нагрузкой, за счёт уменьшения которой можно нарастить частоту и не вылезти при этом за 125 Вт тепловой пакет.

Скриншот CPU-Z с AMD FX-41004130

Во время простоя напряжение процессора снижается до уровня 0.92 В, снижение частоты так же, как и в случае с FX-4100 не наблюдалось. При первой возможности мы проверим в работе FX-4100 и FX-4130 на другой материнской плате.

Скриншот CPU-Z с AMD FX-41004130

Turbo Core 2.0 повышает частоту процессора до 3900 МГц во время выполнения однопоточных приложений, в данном режиме напряжение подаваемое на процессор увеличивается до 1.39 В.

Скриншот CPU-Z с AMD FX-41004130

Тестовый стенд. Разгон. Сравнение кулеров и измерение температур.

Для изучения разгонного потенциала и дальнейшего тестирования рассмотренных процессоров использовался следующий тестовый стенд:

  • Материнская плата: ASUS SABERTOOTH 990FX (AMD 990X, AM3+);
  • Процессор: AMD FX-8350, FX-4100, FX-8130;
  • Охлаждение CPU: Воздух, Вода;
  • Термоинтерфейс: Noctua NT-H1;
  • Видеокарта: AMD Radeon HD 7970;
  • Оперативная память: Kingmax Memory 2x2 Гбайт PC3- 10700H (DDR3-1600);
  • Накопитель: Seagate ST3250410AS 250 Гбайт;
  • Блок питания: Seasonic X-1250 GOLD (SS-1250XM);
  • Операционная система: Microsoft Windows 7 x64 Ultimate SP1;
  • Версия драйвера: Catalyst 13.1.

Перед тем как переходить к оценке результатов тестирования, хочется сказать об организации тестового стенда, который располагается на демонстрационной установке СВО компании ProModz. Данная конструкция подверглась доработке в полноценный стол для бенчинга.

В нижнем отделении стенда располагаются: полноценная система водяного охлаждения, блок питания и жесткий диск. Сверху на самодельные ножки устанавливается материнская плата со всеми устройствами на борту. Данный «столик» не идеален и всё ещё требует некоторых доработок, но уже сейчас позволяет очень быстро менять конфигурации тестового оборудования, а также переходить на разные виды охлаждения, вплоть до экстремального.

 

Тестовый стенд Modlabs - ASUS Sabertooth 990FX, вода, воздух и БП от Seasonic

Как и прежде все эксперименты с частотой производились непосредственно из BIOS материнской платы. В целях предотвращения ошибок, мы не используем программный разгон из Windows. Разгон осуществлялся путем повышения множителя и напряжения на ядрах CPU. Частота CPU/NB и HT Link Speed были зафиксированы на 2400 МГц и 2600 МГц соответственно. Значение параметра CPU Vcore Load Line Сalibration устанавливалось в значение High, именно в этом режиме напряжение в нагрузке было максимально близко к установленному. Система питания процессора постоянно охлаждалась одним 120 мм вентилятором. Стабильность процессора определялась с помощью программы OCCT Perestroika 4.3.1, температура процессора контролировалась утилитой ASUS Thermal Radar.

В качестве систем охлаждения выступали хорошо зарекомендовавшие себя Cooler Master Hyper 212 Plus и набор водяного охлаждения ProModz Cooled Silence состоящий из: водоблока CPU V3+, помпы Laing DDC-1plusT и резервуара R525, а также односекционного радиатора с двумя 120 мм кулерами.

Как и во время тестирования процессора AMD FX-8350, мы поставили перед собой цель получения “усреднённых” результатов разгона. Изучением максимальной частоты для конкретного экземпляра FX-4100 или FX-4130 вплоть до десятков МГц мы не занимались. 

 

Результаты тестирования AMD FX-410041308350

Общая динамика разгона у четырехядерных версий почти не изменилась в сравнении со старшим процессором AMD FX-8350. Судя по всему, количество активных ядер слабо влияет на потолок разгона. Увеличение напряжения на 0,5 В дает приблизительно 100 МГц прирост частоты. Отметим, что AMD FX-4100 имеет значительно меньший частотный потенциал нежели FX-4130, тут как раз и сказывается различие в размере кеша третьего уровня. К большому удивлению разница в разгоне на воздушным и водяным охлаждение почти всегда оказалась равной нулю, поэтому на графики отображена всего одна прямая для каждого процессора. Единственное исключение зафиксировано в случае с процессором AMD FX-4130, для этого процессора на линии FX-4130 мы сделали жёлтый отрезок, который отражает рост стабильной в работе частоты при использовании СВО. 

Сравнение штатных кулеров.

Так как в коробочных версиях процессоров имеются штатные системы охлаждения, пройти мимо них без сравнения эффективности просто не возможно. Давайте посмотрим на что они способны, а в качестве ориентира для сравнения выберем Cooler Master Hyper 212 Plus. Каждый из стандартных кулеров тестировался с тем процессором, в комплекте поставки которого он находился, использовалась штатная термопаста. Автоматическое управление оборотами кулеров с помощью материнской платы было отключено. Субъективно шум коробочных кулеров на максимальных оборотах явно выделялся на фоне остальных компонентов системы, при этом шум от коробочного кулера из комплекта FX-4130 был чуть-чуть меньше.

 

Коробочная версия процессор AMD FX-4130

 

Результаты тестирования AMD FX-410041308350

Процессор AMD FX-4130 оказался приблизительно на 5°C горячее FX-4100, сказалось увеличение TDP. Без разгона коробочные решения уверенно справились со своими процессорами, однако, как и следовало ожидать, частотный потенциал процессоров с их помощью не раскрыть. Разгон на коробочном охлаждении возможен только в том случае, если поднятие напряжения на ядре будет незначительным, во всех остальных случаях мы настоятельно рекомендуем перейти на использование среднего по стоимости башенного кулера.

 

Тестовые пакет, методика и результаты тестирования.

Для тестирования был подобран следующий список тестовых приложений:

  • 3DMark 2006 x86 – CPU тесты;
  • 3DMark 2011 x86 – Physics тест;
  • Cinebench R10 x64 – CPU;
  • Cinebench R11.5 x64 – CPU;
  • X264 HD Benchmark 5.01 x64;
  • Fritz Chess Benchmark 4.2 x86;
  • Super Pi mod. 1.5 XS;
  • wPrime 2.09 x86;
  • WinRAR 4.20 x64;
  • UCBench 2011 x86;
  • Modlabs Titan’s Benchmark v 1.1 Beta

Синтетические и полусинтетические тесты 3D:

  • 3DMark Vantage 1.1.0
  • 3DMark 11 1.0.3.0
  • 3DMark (2013)
  • HWBOT Unigine Heaven Benchmark

Игры:

  • Metro 2033 DX11
  • Batman Arkham City DX11
  • Lost Planet 2 DX11
  • Alien Versus Predator DX11
  • S.T.A.L.K.E.R CoP DX11
  • DIRT Showdown DX11
  • Sleeping Dogs DX11
  • Far Cry 3 DX11
  • Hitman. Absolution
  • Asassin’s Creed III

Во всех играх разрешение составило 1920x1080 пикселей, все детали, доступные в опциях игры или настройках бенчмарка (кроме 3DMark) были выставлены на максимум, в том числе тесселляция. В тестовых пакетах серии 3DMark использовались стандартные пресеты Performance и Extreme. Полноэкранное сглаживание в играх устанавливалось в режим 4x во всех случаях, кроме Far Cry 3, где AA был равен 2x. В играх Far Cry 3 и Asassin’s Creed III средний FPS замерялся с помощью программы Fraps 3.5.99.

Для проведения тестирования частоты устанавливались в ручную из BIOS, все энергосберегающие функции были отключены. В итоге процессоры работали в следующих режимах:

  • AMD FX-4100@3700 МГц 200х18.0 + Turbo Core 2.0 (номинальная для этого процессора);
  • AMD FX-4130@3800 МГц 200х21.0 + Turbo Core 2.0 (номинальная для этого процессора);
  • AMD FX-4130@3700 МГц 200х20.0 – Частота занижена относительно номинальной до уровня FX-4100. Цель - изучение влияния объема кеша L3 на производительность;
  • AMD FX-4130@4600 МГц 200х20.0 – Максимально стабильная частота после разгона;
  • AMD FX-8350@4200 МГц 200х21.0 +Turbo Core 3.0 (номинальная для этого процессора);

Для минимизации погрешности каждый тест запускался по три раза, в таблицах отображены среднеарифметические значения.

 

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Результаты тестирования AMD FX-410041308350

Выводы.

В первую очередь хотелось бы оценить шаг AMD по замене процессора FX-4100 на FX-4130. Уменьшение объёма кеш памяти третьего уровня практическим никак не сказалось на производительности новинки, в то время как немного увеличенная тактовая частота не только нивелирует факт уменьшения кеша, но и выводит FX-4130 слегка вперёд относительно своего предшественника. То есть, в случае с FX-4100 и FX-4130, при их равной стоимости, FX-4130 оказывается более выгодной покупкой.  Более того, если судить по полученным нами результатам разгона, FX-4130 всё-таки обладает чуть лучшим потенциалом разгона, что тоже надо учитывать.

Что касается сравнения FX-4100/4130 со старшим представителем семейства FX, то полученные нами результаты говорят о том, что во многих задачах 4-х ядер бывает вполне достаточно. Конечно, если бы так было всегда, AMD попросту не выпускала 8-ми ядерные решения. Смысл в них, безусловно, есть, однако преимущества старших процессоров FX проявляются лишь в тех приложениях, которые не просто активно используют многопоточность, но и умеют правильно работать с 8-мью ядрами процессоров FX. Если говорить об играх, то процессор FX-4130 очень хорошо показал себя в 3D приложениях. Учитывая его среднюю стоимость в 3 479р (По данным Яндекс-Маркета на момент публикации статьи) против 6 320р у FX-8350, этот камень кажется нам весьма выгодной покупкой. Перед покупкой CPU, мы очень советуем прикинуть какие задачи будут выполняться на вашей системе. Если в их списке не окажется длительных многопоточных вычислений, возможно, разницу в стоимости между FX-8350 и FX-4130 следует вложить в более производительную видеокарту?

P.S. И всё же, для формирования полного представления о линейке процессоров AMD FX в данной статье не хватает результатов шестиядерных процессоров, надеемся, что в скором времени мы изучим и их производительность.

Обсудить материал в нашем форуме.

Заполняя пробелы. Обзор GeForce GTX 670 от Inno3D.

В нашей тестовой лаборатории побывала почти вся линейка современных графических ускорителей NVIDIA. Из интересных вне нашего поля зрения остались разве только GeForce GTX 660 или GeForce Titan, не считая главного героя этого материала, конечно же. Сегодня я заполню ещё один пробел в нашей базе результатов и рассмотрю возможности GeForce GTX 670 на примере решения Inno3D.

Графический ускоритель Inno3D GeForce GTX 680 iChill

Графический ускоритель Inno3D GeForce GTX 680 iChill

Упакована видеокарта Inno3D GeForce GTX 670 iChill в роскошную "золотую" коробку. Такой бокс выделится среди прочих без особого труда. Обращу ваше внимание на тот факт, что аналогичным образом упакована в недавнем времени старшая одночиповая карта NVIDIA - GeForce GTX 680 производства Inno3D. Вообще, когда я разбирался с комплектацией и устройством этой карты, в голове постоянно всплывали ассоциации с героем предыдущего обзора, ускорителем Inno3D GeForce GTX 680 iChill. Судите сами, сходство налицо.

 

Комплектация Inno3D GeForce GTX 670 iChill

Комплект Inno3D GeForce GTX 670 iChill весьма неплох:

  • Переходник питания с Molex на PCI-Express
  • Переходник с DVI на D-SUB
  • Брошюра с описанием требований к блоку питания
  • Фирменная наклейка iChill
  • Серийный номер 3DMark 11
  • Коврик для мыши с логотипами Inno3D
  • Ключ для удобного демонтажа системы охлаждения
  • Разноцветные накладные панели

 

Inno3D GeForce GTX 670

Inno3D GeForce GTX 670

Inno3D GeForce GTX 670


Первый взгляд на собранную видеокарту говорит о почти полном сходстве с оной у старшей сестры - GTX 680 iChill. Кулер занимает три слота расширения и имеет модульную, если так можно выразиться, структуру. 

Как и в случае с Inno3D GeForce GTX 680 iChill, здесь используется система охлаждения,  разработанная инженерами Inno3D. Для повышения эффективности охлаждения используются тепловые трубки, выполненные из меди и покрытые слоем никеля. Из того же материала выполнены и рёбра радиатора, а также подошва охладителя, прилегающая непосредственно к GPU. Более подробно с устройством данной системы охлаждения вы можете ознакомиться в этом обзоре, здесь же хочется подвести небольшой итого в рассмотрении этого кулера, отметив его ключевые особенности:

  • Очень тихая работа
  • Масштабируемость (возможность демонтажа одного или даже двух вентиляторов, замена пластин из набора запасных)
  • Хорошая эффективность
При этом, конечно, есть и минусы, основной и, пожалуй, единственный - размер. А куда деваться? За тишину и эффективность приходится платить.

 

 

Inno3D GeForce GTX 670

На панели выводов, как и следовало ожидать, располагаются полноразмерные HDMI и DisplayPort, а также два DVI разъёма (DVI-D и DVI Single Link)

Графический ускоритель Inno3D GeForce GTX 680 iChill

Графический ускоритель Inno3D GeForce GTX 680 iChill

Графический ускоритель Inno3D GeForce GTX 680 iChill

Перед вами целый набор фотографий... Inno3D GeForce GTX 680 iChill. Я использовал их в этом обзоре по той простой причине, что GeForce GTX 670 iChill выполнена на той же самой PCB, что и её старшая сестра. Система питания и расположение элементов полностью совпадает, отличия заключаются лишь в GPU, часть функциональных блоков которого в случае с GTX 670 попросту отключены. 

Inno3D GeForce GTX 670

На плате установлены 2 Гбайт видеопамяти стандарта GDDR-5, все чипы распаяны на лицевой стороне PCB


Видеокарта Inno3D GeForce GTX 650 Ti

Память произведена компанией Hynix и имеет маркировку H5GQ2H24MRF.

Думаю, что смотреть здесь особо не на что. Пора переходить к тестированию. Ознакомьтесь с конфигурацией тестового стенда и настройками приложений.

 

 Конфигурация тестового стенда MODLABS 

Системная плата

ASUS M5A99X EVO

Центральный процессор

AMD FX-8150 @ 4400 МГц

Оперативная память

16 Гбайт AMD Entertainment Memory @ 1600 МГц

Видеокарта

Inno3D GeForce GTX 670 iChill

Жёсткие диски

4x1 Тбайт Seagate ES.2 @ RAID0

Операционная система

MS Windows 8 Professional x64 + upd

Версия драйверов видеокарты

306.97 WHQL

 

 

Конфигурация тестовой системы с видеокартой Inno3D GeForce GTX 680 iChill

 Скриншот GPU-Z для GeForce GTX 670 от Inno3D

Список тестовых приложений

Синтетические и полусинтетические тесты 

3DMark Vantage 1.1.0 (High)

3DMark 11 1.0.3.0 (Extreme)

Unigine Heaven 3.0 (Все детали и тесселляция установлены на максимум, 4xAA)

 Игры

Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум, в том числе и тесселляция, полноэкранное сглаживание устанавливалось в режим 4x во всех случаях, кроме Far Cry 3, где AA был равен 2x. Режим PhysX, если был доступен, включался в режиме максимального качества. В драйверах PhysX не выключался нигде, кроме 3DMark Vantage.

Metro 2033 DX11

Batman Arkham City DX11

Lost Planet 2 DX11

Alien Versus Predator DX11

S.T.A.L.K.E.R CoP DX11

DIRT Showdown DX11

Sleeping Dogs DX11

Far Cry 3 DX11

Hitman. Absolution

 

Результаты тестирования GeForce GTX 670

Обратите внимание, эффективность системы охлаждения Inno3D GeForce GTX 670 iChill находится на очень высоком уровне. Разумеется, если бы мы могли поставить данную СО на младшие модели видеокарт, температура их GPU была бы заметно ниже, однако, продукты надо рассматривать целиком и, поэтому, глядя на графики, не трудно понять, что GTX 670 iChill - лидер среди протестированных ранее ускорителей NVIDIA. По крайней мере в линейке Inno3D.

Результаты тестирования GeForce GTX 670

Результаты тестирования GeForce GTX 670


Выводы

Что тут сказать, протестированный нами ускоритель NVIDIA GeForce GTX 670 от Inno3D позволяет с комфортом играть в современные игры, о чём красноречиво свидетельствуют полученные результаты, при этом, используемая производителем система охлаждения очень радует своими характеристиками. Иначе говоря, инженеры Inno3D проделали хорошую работу, выпустив на рынок качественный продукт.

 

Обсуждение материала в нашем форуме ведётся здесь.

Дёшево и сердито. Мини-обзор GlacialTech Igloo S26

Не люблю бюджетное железо. Те задачи, которые я решаю на компьютере требуют высокой производительности от системы. Но за всё в этой жизни приходится платить. У мощных ПК почти всегда высокое энергопотребление и особые требования к организации охлаждения. Держать свой компьютер на уровне флагманов достаточно сложно, каждая покупка регулярно выливается в немалые затраты. Вот только не всё же время работать, правда? Нужно иногда отдыхать. В частности, смотреть кино или слушать любимую музыку. И для этих задач система должна обладать неким балансом между производительностью, эффективностью с точки зрения потребляемой энергии и тем уровнем шума, который генерирует её система охлаждения. Пора собирать отдельный компьютер. Но пока у меня в голове лишь идея такой “машинки” (хочется взвесить все плюсы и минусы платформ, протестировать разные, благо, возможность имеется….) Сегодня я решил начать с малого - заняться подбором будущего охлаждения. Хочу, чтобы была возможность сменить вентилятор на более тихий, чтобы было легко монтировать и, конечно, хочу, чтобы стоила недорого. Первый и, возможно не последний, претендент на роль кулера для процессора моего медиа-центра – GlacialTech Igloo S26.

Rekth GlacialTech S26

Rekth GlacialTech S26

Rekth GlacialTech S26

Rekth GlacialTech S26

Судя по информации с коробки, этот малыш способен эффективно рассеивать до 140 Вт тепла! При этом максимальный уровень шума со штатным вентилятором должен составлять порядка 17 дБ. Вот уж интересно, посмотрим. В комплекте есть крепления для разъёмов LGA775/1155/1156 в случае с решениями Intel и всеми современными и не очень современными разъёмами для процессоров AMD, включая FM1, AM2, AM2+, AM3+…. То, что надо. Вряд ли кто-то будет ставить такой кулер на LGA1366 или LGA2011, так что с нужными разъёмами  совместимость есть и это главное.

Rekth GlacialTech S26Кулер GlacialTech S26

 

Сам S26 упакован в картонный бокс, в котором также находятся и все прилагаемые аксессуары, коих не много.  Обратите внимание на элементы крепления. Все они работают максимально просто. В случае, если у вас система AMD, крепёж одевается на стандартную пластиковую рамку, к которой крепится боксовый кулер, ну а в случае с Intel вам нужно прикрутить две планочки с пластиковыми шпильками и закрепить с их помощью GlacialTech S26 так же, как вы крепите боксовый кулер Intel. Несомненным плюсом такого подхода, помимо простоты самого процесса, является отсутствие необходимости демонтировать материнскую плату.

Кулер GlacialTech S26

Кулер GlacialTech S26

Минус лично мне видится только один и он касается крепления Intel. Не люблю я его. Считаю ненадёжным.  

Кулер GlacialTech S26

Кулер GlacialTech S26

 

GlacialTech Igloo S26 является представителем кулеров башенного типа. Работает он по технологии прямого контакта – две тепловые трубки напрямую соприкасаются с основанием процессора. На эти самые тепловые трубки нанизаны алюминиевые рёбра, ширина которых подобрана аккурат под 80 мм вентилятор. На фото чётко видны достаточно большие зазоры между основанием и трубками. Зато недорого.

Кулер GlacialTech S26

Кулер GlacialTech S26

Термопаста нанесена на заводе. Достаточно ровный, аккуратный слой, заполняющий вышеозначенные щели в основании. Кстати, основание не полностью закрывало крышку подопытного камня.

Кулер GlacialTech S26

Кулер GlacialTech S26

Конструкция Igloo S26 допускает установку двух 80 мм вентиляторов. Я бы это сделал с удовольствием, но вот крепления в комплекте нету. Считаю это недостатком, на этом уж могли не экономить. Если захотите поставить ещё один кулер – придётся “колхозить” :)

Ладно, пожалуй, всё что было нужно, описано, пора переходить к экспресс-тесту. Для того, чтобы у моей будущей медиа-станции был запас для роста производительности, я выбрал камень погорячее – AMD A8-3850. По спецификации AMD он имеет TDP = 100 Вт. Да, это не FX 8150, но и такой нагрузки достаточно для этого малыша.

 

 Конфигурация тестового стенда MODLABS 

Системная плата

ASUS F1A75 Deluxe – спасибо, ASUS!

Центральный процессор

AMD A8-3850 без разгона

Оперативная память

8 Гбайт AMD Entertainment Memory @ 1600 МГц

Видеокарта

Встроенная в процессор Radeon HD 6550D

Жёсткие диски

1 Тбайт Seagate ES.2

Операционная система

MS Windows 8 Professional x64 + Media Center Update

Корпус

Открытый стенд

 

 К сожалению, подбор бюджетных вертушек я только начал, поэтому на графике вы не увидите конкурентов для S26 :)

Результаты тестирования кулера GlacialTech S26

 

Так или иначе, а протестированный сегодня GlacialTech Igloo S26 справляется с охлаждением достаточно горячего процессора, причём шум от штатного вентилятора не режет ухо. С таким кулером вполне возможно наслаждаться музыкой или фильмами не боясь того, что шум процессорного вентилятора в тихих паузах между треками или сценами будет доставлять неудобства. Тем не менее, чтобы система чувствовала себя комфортно, я бы не ставил Igloo S26 на процессоры с TDP 100+ Вт, а ограничился использованием энергоэффективных решений с лучшими характеристиками тепловыделения.

(с) Игорь Свадковский, Modlabs.net