архитектура
Титан расправил крылья! Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD.
Метки: AMD | ARES II | ASUS | DirectX 11 | GeForce GTX TITAN | NVIDIA | ZOTAC | архитектура | обзор | разгон | тестирование
Дата: 12/03/2013 21:34:36
Подписаться на комментарии по RSS
Вступление. Архитектура GK110, новые возможности GeForce GTX TITAN.
Ещё несколько месяцев назад на страницах зарубежных новостных ресурсов стали появляться скудные данные о некоем мифическом 3D ускорителе от компании NVIDIA. Судя по первым слухам, которые, впоследствии подтвердились, новая видеокарта должна была получить гордое имя “TITAN”, а её сердцем должен был стать супермощный GPU с архитектурой Kepler. Скептики не верили в существование Титана, поклонники же, отнюдь, всем сердцем ждали новинку и пророчили флагманской графике AMD поражение в борьбе с зелёным монстром. Так бы и продолжались словесные перепалки, если бы, наконец, не произошёл долгожданный анонс, после которого все смогли оценить способности новоиспечённого одночипового флагмана. Ну а я, в свою очередь, после того, как эмоциональный накал от выхода GeForce GTX TITAN немного спал, хочу спокойно и без спешки посмотреть на производительность ускорителя GeForce GTX TITAN в самых современных играх вроде Tomb Raider и Crysis 3. Сделаю я это не так как большинство журналистов, поскольку в отличие от многих в нашей тестовой лаборатории используется платформа AMD.
Прежде всего, как мне кажется, нужно разобраться с архитектурой графического процессора GeForce GTX TITAN. Начнём.
Знаю наверняка, от чего не умрут маркетологи NVIDIA. От скромности :) Новый ускоритель GeForce GTX TITAN зовётся основой для игрового суперкомпьютера. Звучит, конечно, красиво, однако так можно назвать, пожалуй, любую игровую станцию на базе одной или нескольких флагманских видеокарт, по крайней мере, на стадии анонса или сразу после него. Впрочем, не буду придираться, продолжу.
Осознание способностей графического процессора GeForce GTX TITAN, лучше всего приходить после выставления точки отсчёта. В данном случае ей стал один из экстремальных процессоров Intel – Core i7 3960X Extreme Edition. По сравнению с этим чипом, GPU TITAN, действительно, является суперкомпьютером, жаль только, что вся эта вычислительная мощь актуальна для игроков лишь при наличии маленького кусочка кремния от Intel или AMD....
Чтобы понять, откуда растут ноги, и благодаря чему удалось достичь столь впечатляющих вычислительных показателей, нужно немного углубиться в историю и покопаться в архитектуре GPU ускорителя GeForce GTX TITAN. Дело в том, что после анонса графических ускорителей поколения Kepler, стало ясно, что GeForce GTX 680 не состоялся как флагман в полном смысле этого слова. Этот ускоритель использовал GPU GK104, который, по своей топологии оказался больше похож на Middle-High продукт, нежели на флагманское решение. Чтобы убедится в этом, посмотрите на устройство чипов GF110 и GF114 на базе Fermi, поймёте о чём я. Судя по всему, технологические проблемы не позволили NVIDIA в разумные сроки наладить массовый выпуск полноценных GK110 и, чтобы даром время не терять, был найден компромисс. В общем-то, NVIDIA этого факта и не скрывала, GeForce GTX 680 был временным игроком, который должен был получить более мощного преемника как только удастся решить проблемы с 28-нм техпроцессом. Впрочем, при кажущейся простоте, GeForce GTX 680 обладал отличной производительностью и довольно неплохими характеристиками энергопотребления и тепловыделения. Теперь, с выпуском графического ускорителя GeForce GTX TITAN инженеры компании подвели некоторую технологическую черту, за которую одночиповые решения NVIDIA вряд ли выйдут в рамках архитектуры Kepler, поскольку настольная версия GK110 получила практически все заложенные в неё возможности.
Графический процессор GK110 содержит блок управления потоками, именуемый GigaThread Enginе, кеш память для инструкций и данных, контроллеры памяти, блоки растровых операций, а также Graphics Processing Clusters (GPC), который выполняет вычислительные операции и операции с текстурами. В составе GK110 находятся пять блоков GPC. Внутри каждого GPC, в свою очередь, находится по одному движку растеризации, а также по три так называемых SMX (SM – в терминологии NVIDIA для GPU Tesla и Fermi) - потоковых мультипроцессора. В отличие от серверного Tesla K20/K20X, в составе которых трудится полноценная версия GK110 с 15-ю активными блоками SMX, настольный графический чип GK110 получил лишь 14 активных потоковых мультипроцессора. Количество текстурных блоков равно 224, а блоков растеризации – 48.
В составе SMX трудятся 224 текстурных блока и 48 ROP (блоков растеризации), особого рассмотрения заслуживают блоки операций с двойной точностью. Общее количество блоков FP64 (те самые блоки операций с двойной точностью) составляет 896 штук, по 64 на каждый SMX, – это положительное отличие от GK104. Не очень хорошо то, что по умолчанию, ядра, предназначенные для работы с FP64, работают на 1/8 от частоты других блоков, размещённых в SMX. Правда стоит отметить, что в драйверах есть возможность поднять тактовую частоту FP64 блоков, переключив видеокарту в режим “CUDA двойная точность”, однако общая тактовая частота GPU снизится. Вот что получилось при запуске 3D приложения после включения вышеозначенной опции (значения Temp Target было сдвинуто до 90 градусов Цельсия):
Отключаем режим двойной точности, получаем:
Так вот, поскольку суммарное количество ядер CUDA в GK110 равно 2688 (по 192 штуки на один блок SMX), а количество FP64 блоков – 896, получаем, что соотношение FP64/FP32 блоков = 1/3. Если вспомнить, что FP64 блоки работают на 1/8 частоты GPU, получим, что эффективность выполнения операций с двойной точностью составляет 1/24 от FP32! Да, да, близкая ситуация в FP64 операциях была и у GeForce GTX 680, из за столь же низкой эффективности таких вычислений он “сливал” старине GTX 580. Вот только в данном случае низкая эффективность при работе с FP64 компенсируется за счёт колоссального увеличения количества самих вычислительных блоков. У AMD, кстати, при переходе к FP64 провал заметно меньше, скорость падает примерно вдвое. Это, конечно, на словах звучит страшно, на практике же, применительно к играм, всё не так плохо, скорее даже очень хорошо, поскольку архитектура Fermi, а теперь и Kepler имеет не так много слабых мест и решения на её основе более чем конкурентоспособны.
Контроллер памяти у GK110 заметно подтянут относительно оного у GK104, теперь он 384 битный, против 256 битного, а суммарный объём локальной видеопамяти GeForce GTX TITAN составляет 6144 Мбайт = 6 Гбайт! Здесь полный порядок.
В итоге мы получаем, что настольная версия видеокарт, базирующихся на GPU GK110, обладает следующими характеристиками.
Ещё пару лет назад, снимок экрана с окном программы GPU-Z, отображающей характеристики GeForce TITAN, сочли бы как минимум поддельными, а как максимум, назвали бы автора этих снимков сумасшедшим. Нынче же ситуация иная, перед нами настоящий Титан, по крайней мере по формальным характеристикам. Согласитесь, тактовые частоты GPU 837/876 МГц, частота видеопамяти 6008 МГц, шина памяти 384 бит (ПСП памяти 288 Гбайт/с), 48 блоков растеризации и 224 текстурных блока, 2688 ядер CUDA и всё это при использовании 7,1 млрд. транзисторов! Даже сейчас это выглядит круто, при этом TDP платы GeForce GTX TITAN не пугает современного пользователя – всего 250 Вт.
Если по части архитектуры GPU и подсистемы памяти мы разобрались, то оверклокерские характеристики ещё требуют описания. Уж поверьте, есть на что обратить внимание. Эти данные, определённо, нужно будет учитывать при подходе к разгону.
Динамический разгон. Технология NVIDIA GPU Boost ver. 2.0
Итак, первая версия технологии форсирования частоты GPU от NVIDIA в своей работе учитывала только один параметр – предел мощности/напряжение GPU, который изменялся в определённых рамках. Сейчас же появился ещё один фактор – предельная температура, при которой GPU в состоянии функционировать без сбоев.
По умолчанию значение предельной температуры выставлено на уровень 80 градусов Цельсия, однако пользователь вручную может изменить этот уровень до 94 градусов. Такое смещение позволит работать графическому процессору под нагрузкой при более высоких частотах. Судя по слайдам с презентации, именно рабочая температура GPU будет решающим фактором в достижении максимальной частоты при работе GPU Boost 2.0.
На практике при разгоне видеокарты мы будем выставлять не только значение Power Target, но и Temperature Target. Кстати, отмечу, что в технической документации от NVIDIA написано о возможности регулировки напряжения как об опции, которая может быть выключена производителем посредствам VBIOS. Думаю, что вряд ли кто-то будет намеренно глушить эту возможность.
Одной из интересных возможностей ускорителей NVIDIA является технология адаптивной вертикальной синхронизации, суть которой заключается в нивелирование эффекта “разрыва кадра” и “подёргиваний“ картинки при резком изменении частоты смены кадров. Новизна Adaptive V-sync в случае с GeForce GTX TITAN заключается в том, что отныне ограничение частоты смены кадров при адаптивной вертикальной синхронизации можно увеличить до 120 Гц включительно.
Напоследок, хочу вспомнить о технологии NVIDIA SLI. Не секрет, что максимальное количество одновременно задействованных GPU в системе с видеокартами NVIDIA может достигать четырёх. Пара GeForce GTX 690 – отличный пример работы 4-Way SLI. Использование такого тандема, как мне кажется, оправдано довольно редко, поскольку помимо ограничений в вычислительной мощи центрального процессора, остро стоит проблема синхронизации четырёх чипов для работы над картинкой. Коэффициент полезного действия 4-Way SLI систем существенно ниже, чем у, скажем, 2-Way или 3-Way SLI. Зная об этом, NVIDIA с выходом GeForce TITAN активно продвигает тему 3-Way SLI, как самую оптимальную с точки зрения эффективности и самую высокопроизводительную. На мой взгляд, такое позиционирование оправдывает себя, особенно для видеосистемы класса TITAN. Вот только крайне рекомендую для “Титановых” SLI связок обзавестись мощнейшим процессором, да ещё и разогнать его.
На этом я заканчиваю теоретическую часть материала, пришла пора знакомиться с Титаном лично.
Ускоритель ZOTAC GeForce GTX TITAN. Внешний вид и особенности аппаратного оснащения.
Всё, как обычно, начинается с упаковки. Она, пожалуй, единственное, что отличает ZOTAC GeForce GTX TITAN от большинства выпущенных на данный момент “Титанов” других производителей. Перед нами красочный чехол из тонкого картона, который опоясывает достаточно увесистую коробку, в которой находится набор аксессуаров и сам ускоритель. Помимо основных технических данных, нам сходу сообщают о том, что на этот продукт действует расширенная гарантия от ZOTAC, а также о том, что внутри нас ждёт подарок – три игры из серии Assasin’s Creed. Те, кто любит эти игры, оценит, остальные же отнесутся спокойно, поскольку игры из подарочного комплекта уже не так свежи. как того хотелось бы.
Открываем картонный чемодан. Сверху, под крышкой из прозрачного пластика находится видеокарта ZOTAC GeForce GTX TITAN, она лежит в “кроватке” из пористого синтетического материала. Именно эта кроватка защищает Титана от повреждений при транспортировке.
Вытаскиваю видеокарту, залезаю глубже, нахожу аксессуары, заботливо уложенные на заводе в отдельный картонный бокс. Помимо бумажного сопровождения и диска с драйверами я обнаружил обещанные игры из серии Asassin’s Creed (серийники к которым я, с вашего позволения, замазал), пару переходников питания, переходник с DVI на VGA и фирменную наклейку ZOTAC. Уж не знаю, нужно ли что-то ещё покупателю такой вот видеокарты, а лично мне, как обозревателю, этого набора вполне хватает.
Бог с ними, с бумажками. Вот он, герой обзора. Честно сказать, вопреки своей привычке, я очень долго рассматривал GeForce GTX TITAN, крутил плату в руках и никак не мог нарадоваться. На мой вкус, этот ускоритель можно назвать одним из самых правильных с эстетической точки зрения. Пару или даже тройку Титанов нужно ставить в корпус с прозрачной боковой стенкой, чтобы наблюдать всё это великолепие как можно чаще. Крышка системы охлаждения выполнена из алюминия, ближе к панели выводов выдавлена надпись TITAN, ближе к корме присутствует логотип NVIDIA.
Через прозрачное стекло, изготовленное из полимера, видны рёбра радиатора системы охлаждения.
Кстати, при включении видеокарты надпись GeForce GTX светится зелёным цветом, оценить это свечение можно на фото, приведённом чуть ниже.
Панель выводов оснащается четырьмя выходами, два из которых – DVI-I и DVI-D, ещё пара – это полноразмерные HDMI и DisplayPort. Лично для меня такой набор выходов является идеальным, поскольку обычно я использую сразу два DVI разъёма для подключения монитора и плазменной панели. Как и положено флагману, GeForce GTX TITAN от ZOTAC поддерживает разрешение 4K.
Демонтирую систему охлаждения. Процесс проходит легко и непринуждённо. В отличие от первых плат на базе GPU Fermi, для демонтажа системы охлаждения которых предполагалось использование небольшого гранёного ключика, ускоритель GeForce GTX TITAN разбирается при помощи обычной отвёртки. Слава Богу, производитель не стал мудрить с креплением, винтов много, но процесс демонтажа прост как устройство молотка. Я сознательно не стал разбирать систему охлаждения до винтика, поскольку ничего принципиально нового в её устройстве нет. Кулер представляет собой конструкцию из испарительной камеры, радиатора и турбины, прокачивающей воздух сквозь рёбра радиатора, выводя потоки горячего воздуха за пределы корпуса. Подошва испарительной камеры через тонкий слой термопасты контактирует с кристаллом GK110, в то время как сильно греющиеся элементы системы питания, а также чипы памяти отдают тепло на металлическое основание кулера через специальные термопрокладки.
Полная маркировка GPU ускоритель ZOTAC GeForce GTX TITAN такова:
A TAIWAN 1251A1
NFF532.M3W
GK110-400-A1
Чип GK110 имеет ревизию A1 и изготовлен на 51 неделе 2012 года. Для оценки размеров кристалла GF110, взгляните на фото. Десятирублёвая монета помещается целиком, да ещё и остаётся достаточно много места. Как ни крути, а чип получился гигантский, его площадь составляет 561 кв. мм. Металлическая рамка вокруг GPU защищает кристалл от сколов, полезно при установке нестандартной системы охлаждения.
Без системы охлаждения плата GeForce GTX TITAN выглядит не так эффектно, тем не менее, вид флагмана плата сохраняет даже “голышом”. Двадцать четыре микросхемы памяти Samsung K4G20325FD-FC03 размещены по обе стороны печатной платы, микросхемы, расположенные на обратной стороне PCB никак не охлаждаются. Номинальная эффективная тактовая частота для этих чипов памяти составляет 6 ГГц.
За питание графического процессора отвечают 6 фаз, управляемых микросхемой ON Semiconductor NCP4206. Питание памяти двухфазное, для питания PLL выделана одна фаза. В системе питания использованы высококачественные компоненты Dr.Mos.
В общем-то, с описанием теории и аппаратного устройства GeForce GTX TITAN, пожалуй, всё, самое время переходить к практическим испытаниям.
Нагрев, уровень шума. Пара слов о необходимости разгона. Тесты.
Тестовый стенд Modlabs, на котором проводилась проверка акустических и температурных характеристик, а также тесты производительности GeForce GTX TITAN от ZOTAC, был собран в составе корпуса Cooler Master Cosmos 1000S, все посадочные места которого заняты 120 мм вентиляторами, вращающимися со скоростью 1200 об./мин. Боковая стенка корпуса во время тестирования открыта. Конфигурация тестового стенда такова:
Конфигурация тестового стенда MODLABS |
|
Системная плата |
MSI 990FXA-GD80 – спасибо, MSI! |
Центральный процессор |
AMD FX-8150 @ 4400 МГц – спасибо, AMD! |
Оперативная память |
16 Гбайт AMD Entertainment Memory @ 1600 МГц – спасибо, AMD! |
Видеокарта |
ZOTAC GeForce GTX TITAN 6 Гбайт (837/6008) |
Жёсткие диски |
4x1 Тбайт Seagate ES.2 @ RAID0 |
Операционная система |
MS Windows 8 Professional x64 + upd |
Версия драйверов видеокарты |
314.09 WHQL |
Как вы уже поняли, в качестве основы для тестового стенда использовалась система на базе AMD FX 8150, разогнанного до 4400 МГц. В таком виде эта машина весьма производительная и способна осилить любую из современных игр, однако в сравнении с флагманскими системами Intel, наш боец FX всё-таки проигрывает и местами достаточно заметно. Именно поэтому, для того, чтобы минимизировать влияние процессора на потенциал GeForce GTX TITAN, нужно нагрузить графическую систему по максимуму. Так я и сделал. Помимо стандартных настроек игр на максимальное качество при разрешении 1920x1080 с 4-х кратным полноэкранным сглаживанием MSAA и 16-ти кратной анизотропной фильтрации, я провёл дополнительное тестирование, при котором настройки полноэкранного сглаживания форсировались вручную через драйвер или выставлялись в опциях игр, разумеется, при наличии соответствующих опций, эквивалентных настройкам драйверов. Форсированные настройки драйверов 314.09 выглядят так:
В деле влияния CPU на результаты, не стоит также забывать, что не каждая современная игра способна “получать удовольствие” от наличия в системе 8-ми ядерного CPU. Об этом, кстати, мы уже писали и подкрепили наши слова результатами тестов. С этим фактом, как мне кажется, связан проигрыш процессоров AMD FX в играх, которые не могут использовать все активные ядра флагманских процессоров FX, в то время как камни Intel за счёт большей мощи отдельных ядер вырывались вперёд. К сожалению, мы не можем сравнить полученные нами результаты с оными на платформе Intel ввиду временного отсутствия соответствующего оборудования, так что пока оставим эту тему, до появления актуальной системы на базе чипов Intel.
Что же касается разгона, то для выяснения частотного потенциала моего образца ZOTAC GeForce GTX TITAN, была использована утилита EVGA Precision X. Обороты системы охлаждения были установлены на максимум, значение Power Target было увеличено до 106%, а Temp Target до 90 градусов Цельсия. Базовую частоту GPU удалось поднять до стабильного уровня в 980 МГц, а частоту памяти до 7230 МГц. Максимальная турбо частота при активации технологии GPU Boost составила 1142 МГц, отмечу, правда, что такой потолок был достижим далеко не во всех играх, а там, где достижим, на такой частоте видеокарта работала не долго. Как правило, карта работала на 1078 МГц.
Для тестирования уровня шума и исследования процесса нагрева GPU я отказался от использования теста MSI Kombustor и FurMark, вместо этого тесты проводились в игре Crysis 3, при этом настройки качества картинки были выставлены на максимум, использовалось разрешение 1920x1080, также был задействован режим сглаживания MSAA 8x.
Без разгона графический процессор ускорителя ZOTAC GeForce GTX TITAN разогрелся не более 82 градусов Цельсия, при этом максимальная тактовая частота, которую удалось зафиксировать во время тестирования в играх, составила 1010 МГц. Что же касается уровня шума, то для столь быстрой видеокарты, я бы сказал, что ZOTAC GeForce GTX TITAN почти не шумит. В 2D карту не слышно, а в 3D, на фоне остальных компонентов из состава тестового стенда, этот ускоритель выделяется, но незначительно, долгой игре этот шум никак не мешает. Прямое сравнение температуры GPU GK110 до и после разгона вряд ли можно назвать справедливым, поскольку в момент разгона турбина ZOTAC GeForce GTX TITAN работает на 100% своей мощности.
Обращу ваше внимание на тот факт, что тестирование ускорителя GTX TITAN проводилось до фотосессии видеокарты, как следствие, использовалась термопаста, нанесённая производителем! После фотосессии, на очищенный кристалл GPU был нанесён слой Noctua NT-H1, на фото представлен не окончательный вариант (в реалии оставлен более тонкий слой):
Список тестовых приложений |
Синтетические и полусинтетические тесты |
3DMark Vantage 1.1.0 (Performance, Extreme) |
3DMark 11 1.0.3.0 (Performance, Extreme) |
Unigine Valley 1.0 |
Unigine Heaven 4.0 (Все детали и тесселляция установлены на максимум, 4xAA) |
Игры |
Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум, в том числе и тесселляция, полноэкранное сглаживание устанавливалось в режим 4x во всех играх. Режим PhysX, если был доступен, включался в режиме максимального качества. В драйверах PhysX не выключался нигде, кроме 3DMark Vantage. Также был проведён цикл игровых тестов с форсированными настройками драйверов или эквивалентными им настройками в опциях игр, если такие были доступны. Более подробно читайте об этом чуть выше. Десятые доли FPS отсекались, в силу неактуальности. |
Metro 2033 DX11 |
Batman Arkham City DX11 |
Lost Planet 2 DX11 |
Alien Versus Predator DX11 |
S.T.A.L.K.E.R CoP DX11 |
DIRT Showdown DX11 |
Sleeping Dogs DX11 |
Far Cry 3 DX11 |
Hitman. Absolution |
Asassin’s Creed III |
Crysis 3 версия 1.0.2 |
Изначально я хотел включить в список тестов Tomb Raider 2013, однако игра отказалась запускаться и пока придётся обойтись без неё.
Выводы.
Результаты тестов свидетельствуют о том, что NVIDIA проделала очень серьёзную работу по подготовке GeForce GTX TITAN. И действительно, на примере ZOTAC GeForce GTX TITAN видно, что карта удалась. Восхитительная производительность в тяжёлых режимах делает её незаменимым спутником для богатого игрока, который хочет выжать всё, что только можно из своей системы. Любители собирать компьютер “про запас” также не будут обделены. Если позволяют средства, можно собрать связку из трёх Титанов, благодаря чему, как мне кажется, в ближайшие полтора – два года можно забыть об апгрейде, разумеется, если не произойдёт неожиданного скачка в области требований к графической подсистеме со стороны актуальных на тот момент игр.
Помимо высокой производительности, к достоинствам ZOTAC GeForce GTX TITAN можно отнести низкий уровень шума стандартной системы охлаждения, что тоже не маловажно в домашнем игровом ПК. Тем не менее, несмотря на столь выдающиеся возможности, я бы не стал торопиться с выводами и записывать GeForce GTX TITAN в однозначные лидеры среди всех одиночных видеокарт, ведь красному лагерю тоже есть чем ответить, например “залпом” из двух GPU видеокарты ASUS ARES II, но об этом в другой раз. А пока битва Богов и Титанов только готовится, я, пожалуй, выдам продукту ZOTAC награду.
Графический ускоритель ZOTAC GeForce GTX TITAN удостоен награды "Выбор редактора" за март 2013 года.
Предлагаю обсудить материал у нас в форуме.
P.S. Заранее отвечая на вопрос о целесообразности покупки трёх Титанов для объединения их в связку, скажу, что помимо обычных конфигураций, работающих с одним монитором, пусть даже и очень большим, есть ещё конфиги, например, с тремя мониторами, да ещё и с поддежкой 3D, а это значит, что столь мощные конфигурации оправданы уже сегодня!
Первые образцы AMD Radeon HD 6950 можно разблокировать в HD 6970
Метки: 6950 | 6970 | AMD | Radeon HD | Архитектура
Дата: 27/12/2010 13:43:55
Подписаться на комментарии по RSS
Прекрасный новогодний подарок получили покупатели графических адаптеров AMD Radeon HD 6950, а точнее их первой партии. Как сообщают зарубежные источники, первые образцы данных ускорителей всего парой кликов мышки могут быть превращены в более дорогую и производительную модель HD 6970. Данную операцию можно произвести непосредственно из операционной системы Windows, а один из зарубежных источников уже приводит подробную инструкцию как это реализовать. Даже если при данном эксперименте возникнут какие-то проблемы, предусмотрена возможность отката к прежним настройкам и восстановлению всех дефолтных настроек.
В источнике уточняется, что ними были протестированы три разблокированных образца видеокарты HD 6950: один эталонный образец от AMD, еще один от компании HIS и вариант от ASUS. Все подопытные адаптеры полностью прошли испытания и функционируют как полноценный HD 6970. Итак, в результате несложных манипуляций включаются дополнительные 128 потоковых процессоров и 8 текстурных блоков, правда, из-за применения в картах на ядре Barts Pro микросхем памяти, с расчетной скоростью работы до 6 ГГц, их разгонные возможности будут ограничены.