Теоретические статьи

Подписаться на эту рубрику по RSS

Технологии изготовления и секреты производства архитектур



Современные микропроцессоры – это самые быстрые и умные микросхемы в мире. Они могут совершать до 4 млрд. операций в секунду и производятся с использованием множества различных технологий. С начала 90-х годов ХХ века, когда процессоры пошли в массовое использование, они пережили несколько ступеней развития. Апогеем развития микпроцессорных структур, использующих существующие технологии микропроцессоров 6-го поколения, считается 2002 год, когда стало доступным использование всех основных свойств кремния для получения больших частот при наименьших потерях при производстве и создании логических схем. Сейчас же эффективность новых процессоров несколько падает несмотря на постоянный рост частоты работы кристаллов, поскольку кремниевые технологии близятся к пределу своих возможностей.

Микропроцессор - это интегральная схема, сформированная на маленьком кристалле кремния. Кремний применяется в микросхемах в силу того, что он обладает полупроводниковыми свойствами: его электрическая проводимость больше, чем у диэлектриков, но меньше, чем у металлов. Кремний можно сделать как изолятором, препятствующим движению электрических зарядов, так и проводником - тогда электрические заряды будут свободно проходить через него. Проводимостью полупроводника можно управлять путем введения примесей.

Микропроцессор содержит миллионы транзисторов, соединенных между собой тончайшими проводниками из алюминия или меди и используемых для обработки данных. Так формируются внутренние шины. В результате микропроцессор выполняет множество функций – от математических и логических операций до управления работой других микросхем и всего компьютера.

Один из главных параметров работы процессора – частота работы кристалла, определяющая количество операций за единицу времени, частота работы системной шины, объем внутренней кэш-памяти SRAM. По частоте работы кристалла маркируют процессор. Частота работы кристалла определяется скоростью переключений транзисторов из закрытого состояния в открытое. Возможность транзистора переключаться быстрее определяется технологией производства кремниевых пластин, из которых делаются чипы. Технологический процесс определяет размеры транзистора (его толщину и длину затвора). Например, при использовании 90-нм техпроцесса, который был введен в начале 2004 года, размер транзистора составляет 90 нм, а длина затвора – 50 нм.

Все современные процессоры используют полевые транзисторы. Переход к новому техпроцессу позволяет создавать транзисторы с большей частотой переключения, меньшими токами утечки, меньших размеров. Снижение размеров позволяет одновременно уменьшить площадь кристалла, а значит и тепловыделение, а более тонкий затвор позволяет подавать меньшее напряжение для переключения, что также снижает энергопотребление и тепловыделение.

Технологии и рынок


Сейчас на рынке наблюдается интересная тенденция: с одной стороны, компании-производители стараются как можно быстрее внедрить новые техпроцессы и технологии в свои новинки, с другой же, наблюдается искусственное сдерживание роста частот процессоров. Во-первых, сказывается ощущение маркетологами неполной готовности рынка к очередной смене семейств процессоров, а фирмы еще не получили достаточно прибыли с объема продаж производящихся сейчас CPU – запас еще не иссяк. Достаточно заметно превалирование значимости цены готового изделия над всеми остальными интересами компаний. Во-вторых, значительное снижение темпов «гонки частот» связано с пониманием необходимости внедрения новых технологий, которые реально увеличивают производительность при минимальном объеме технологических затрат. Как уже было замечено, производители столкнулись с проблемами при переходе на новые техпроцессы.

Технологическая норма 90 нм оказалась достаточно серьезным технологическим барьером для многих производителей чипов. Это подтверждает и компания TSMC, которая занимается производством чипов для многих гигантов рынка, таких как компании AMD, nVidia, ATI, VIA. Долгое время ей не удавалось наладить производство чипов по технологии 0,09 мкм, что привело к низкому выходу годных кристаллов. Это одна из причин, по которой AMD долгое время переносила выпуск своих процессоров с технологией SOI (Silicon-on-Insulator). Задержки связаны с тем, что именно на этой размерности элементов стали сильно проявляться всевозможные ранее не столь сильно ощутимые негативные факторы: токи утечки, большой разброс параметров и экспоненциальное повышение тепловыделения. Разберемся по порядку.

Как известно, существует два тока утечки: ток утечки затвора и подпороговая утечка. Первая вызвана самопроизвольным перемещением электронов между кремниевым субстратом канала и поликремневым затвором. Вторая – самопроизвольным перемещением электронов из истока транзистора в сток. Оба эти эффекта приводят к тому, что приходится поднимать напряжение питания для управления токами в транзисторе, а это негативно сказывается на тепловыделении. Так вот, уменьшая размеры транзистора, мы прежде всего уменьшаем его затвор и слой диоксида кремния (SiO2), который является естественным барьером между затвором и каналом. С одной стороны, это улучшает скоростные показатели транзистора (время переключения), но с другой – увеличивает утечку. То есть, получается своеобразный замкнутый круг. Так вот переход на 90 нм – это очередное уменьшение толщины слоя диоксида, и одновременно увеличение утечек. Борьба с утечками – это опять же, увеличение управляющих напряжений, и, соответственно, значительное повышение тепловыделения. Все это привело к задержке внедрения нового техпроцесса со стороны конкурентов рынка микропроцессоров – Intel и AMD.

Один из альтернативных выходов – это применение технологии SOI (кремний на изоляторе), которое недавно внедрила компания AMD в своих 64-разрядных процессорах. Впрочем, это стоило ей немало усилий и преодоление большого количества попутных трудностей. Зато сама технология предоставляет громадное количество преимуществ при сравнительно малом количестве недостатков. Суть технологии, в общем-то, вполне логична - транзистор отделяется от кремневой подложки еще одним тонким слоем изолятора. Плюсов - масса. Никакого неконтролируемого движения электронов под каналом транзистора, сказывающегося на его электрических характеристиках - это раз. После подачи отпирающего тока на затвор, время ионизации канала до рабочего состояния (до момента, пока по нему пойдет рабочий ток) сокращается, то есть, улучшается второй ключевой параметр производительности транзистора, время его включения/выключения - это два. Или же, при той же скорости, можно просто понизить отпирающий ток - это три. Или найти какой-то компромисс между увеличением скорости работы и уменьшением напряжения. При сохранении того же отпирающего тока, увеличение производительности транзистора может составить вплоть до 30%, если оставить частоту той же, делая упор на энергосбережение, то там плюс может быть и большим - до 50 %. Наконец, характеристики канала становятся более предсказуемыми, а сам транзистор - более устойчивым к спорадическим ошибкам, вроде тех, что вызывают космические частицы, попадая в субстрат канала, и непредвиденно ионизируя его. Теперь, попадая в подложку, расположенную под слоем изолятора, они никак не сказываются на работе транзистора. Единственным минусом SOI является то, что приходится уменьшать глубину области эмиттер/коллектор, что прямо и непосредственно сказывается на увеличении ее сопротивления по мере сокращения толщины.

И наконец, третья причина, которая способствовала замедлению темпов роста частот – это низкая активность конкурентов на рынке. Можно сказать, каждый был занят своими делами. AMD занималась повсеместным внедрением 64-битных процессоров, для Intel это был период усовершенствования нового техпроцесса, отладки для увеличенная выхода годных кристаллов.

Начавшийся год должен принести нам большое количество новостей из области технологий, ведь именно в этом году обе компании должны перейти на технологические нормы 90 нм. Но это вовсе не означает нового стремительного роста частот процессоров, скорее наоборот. Сначала на рынке будет наблюдаться затишье: конкуренты начнут выпускать CPU по новым техпроцессам, но со старыми частотами. По мере освоения процесса производства начнется некоторый рост частоты чипов. Скорее всего, он будет не столь заметен как ранее. К концу 2004 года, когда выход годных кристаллов по 90-нм техпроцессу значительно повысится, компания Intel ожидает покорение вершины в 4 ГГц, а то и более. Процессоры компании AMD будут идти с некоторым традиционным отставанием по частоте, которое, в общем-то, не так сильно сказывается на производительности, как особенности микроархитектуры.

Итак, необходимость перехода на новые техпроцессы очевидна, но технологам это дается каждый раз все с большим трудом. Первые микропроцессоры Pentium (1993 г.) производились по техпроцессу 0,8 мкм, затем по 0,6 мкм. В 1995 году впервые для процессоров 6-го поколения был применен техпроцесс 0,35 мкм. В 1997 году он сменился на 0,25 мкм, а в 1999 – на 0,18 мкм. Современные процессоры выполняются по технологии 0,13 и 0,09 мкм, причем последняя была введена в 2004 году. Как видно, для этих техпроцессов соблюдается закон Мура, который гласит, что каждые два года частота кристаллов удваивается при увеличении количества транзисторов с них. С такими же темпами сменяется и техпроцесс. Правда, в дальнейшем «гонка частот» опередит этот закон. К 2006 году компания Intel планирует освоение 65-нм техпроцесса, а 2009 – 32-нм.


Здесь пора вспомнить структуру транзистора, а именно - тонкий слой диоксида кремния, изолятора, находящегося между затвором и каналом, и выполняющего вполне понятную функцию - барьера для электронов, предотвращающего утечку тока затвора. Очевидно, что чем толще этот слой, тем лучше он выполняет свои изоляционные функции. Но он является составной частью канала, и не менее очевидно, что если мы собираемся уменьшать длину канала (размер транзистора), то нам надо уменьшать его толщину, причем, весьма быстрыми темпами. К слову, за последние несколько десятилетий толщина этого слоя составляет в среднем порядка 1/45 от всей длины канала. Но у этого процесса есть свой конец - как утверждал пять лет назад все тот же Intel, при продолжении использования SiO2, как это было на протяжении последних 30 лет, минимальная толщина слоя будет составлять 2.3 нм, иначе ток утечка тока затвора приобретет просто нереальные величины.

Для снижения подканальной утечки до последнего времени ничего не предпринималось. Сейчас ситуация начинает меняться, поскольку рабочий ток, наряду со временем срабатывания затвора, является одним из двух основных параметров, характеризующих скорость работы транзистора, а утечка в выключенном состоянии на нем непосредственно сказывается - для сохранения требуемой эффективности транзистора приходится, соответственно, поднимать рабочий ток, со всеми вытекающими условиями.

Производство микропроцессоров


Изготовление микропроцессора - это сложнейший процесс, включающий более 300 этапов. Микропроцессоры формируются на поверхности тонких круговых пластин кремния - подложках, в результате определенной последовательности различных процессов обработки с использованием химических препаратов, газов и ультрафиолетового излучения.

Подложки обычно имеют диаметр 200 миллиметров, или 8 дюймов. Однако, корпорация Intel уже перешла на пластины диаметром 300 мм, или 12 дюймов. Новые пластины позволяют получить почти в 4 раза больше кристаллов, и выход годных значительно выше. Пластины изготавливают из кремния, который очищают, плавят и выращивают из него длинные цилиндрические кристаллы. Затем кристаллы разрезают на тонкие пластины и полируют их до тех пор, пока их поверхности не станут зеркально гладкими и свободными от дефектов. Далее последовательно, циклически повторяясь, производят термическое оксидирование (формирование пленки SiO2), фотолитографию, диффузию примеси (фосфор), эпитаксию (наращивание слоя).

В процессе изготовления микросхем на пластины-заготовки наносят в виде тщательно рассчитанных рисунков тончайшие слои материалов. На одной пластине помещается до нескольких сотен микропроцессоров, для изготовления которых требуется совершить более 300 операций. Весь процесс производства процессоров можно разделить на несколько этапов: выращивание диоксида кремния и создание проводящих областей, тестирование, изготовление корпуса и доставка.

Выращивание диоксида кремния и создание проводящих областей. Процесс производства микропроцессора начинается с "выращивания" на поверхности отполированной пластины изоляционного слоя диоксида кремния. Осуществляется этот этап в электрической печи при очень высокой температуре. Толщина оксидного слоя зависит от температуры и времени, которое пластина проводит в печи.

Затем следует фотолитография - процесс, в ходе которого на поверхности пластины формируется рисунок-схема. Сначала на пластину наносят временный слой светочувствительного материала – фоторезист, на который с помощью ультрафиолетового излучения проецируют изображение прозрачных участков шаблона, или фотомаски. Маски изготавливают при проектировании процессора и используют для формирования рисунков схем в каждом слое процессора. Под воздействием излучения засвеченные участки фотослоя становятся растворимыми, и их удаляют с помощью растворителя (плавиковая кислота), открывая находящийся под ними диоксид кремния.

Открытый диоксид кремния удаляют с помощью процесса, который называется "травлением". Затем убирают оставшийся фотослой, в результате чего на полупроводниковой пластине остается рисунок из диоксида кремния. С помощью ряда дополнительных операций фотолитографии и травления на пластину наносят также поликристаллический кремний, обладающий свойствами проводника. В ходе следующей операции, называемой "легированием", открытые участки кремниевой пластины бомбардируют ионами различных химических элементов, которые формируют в кремнии отрицательные и положительные заряды, изменяющие электрическую проводимость этих участков.

Наложение новых слоев с последующим травлением схемы осуществляется несколько раз, при этом для межслойных соединений в слоях оставляются "окна", которые заполняют металлом, формируя электрические соединения между слоями. В своем 0.13-микронном технологическом процессе корпорация Intel применила медные проводники. В 0.18-микронном производственном процессе и процессах предыдущих поколений Intel применяла алюминий. И медь, и алюминий - отличные проводники электричества. При использовании 0,18-мкм техпроцесса использовалось 6 слоев, при внедрении 90 нм техпроцесса в 2004 году применили 7 слоев кремния.

Каждый слой процессора имеет свой собственный рисунок, в совокупности все эти слои образуют трехмерную электронную схему. Нанесение слоев повторяют 20 - 25 раз в течение нескольких недель.

Тестирование. Чтобы выдержать воздействия, которым подвергаются подложки в процессе нанесения слоев, кремниевые пластины изначально должны быть достаточно толстыми. Поэтому, прежде чем разрезать пластину на отдельные микропроцессоры, ее толщину с помощью специальных процессов уменьшают на 33% и удаляют загрязнения с обратной стороны. Затем на обратную сторону "похудевшей" пластины наносят слой специального материала, который улучшает последующее крепление кристалла к корпусу. Кроме того, этот слой обеспечивает электрический контакт между задней поверхностью интегральной схемы и корпусом после сборки.

После этого пластины тестируют, чтобы проверить качество выполнения всех операций обработки. Чтобы определить, правильно ли работают процессоры, проверяют их отдельные компоненты. Если обнаруживаются неисправности, данные о них анализируют, чтобы понять, на каком этапе обработки возник сбой.

Затем к каждому процессору подключают электрические зонды и подают питание. Процессоры тестируются компьютером, который определяет, удовлетворяют ли характеристики изготовленных процессоров заданным требованиям.

Изготовление корпуса. После тестирования пластины отправляются в сборочное производство, где их разрезают на маленькие прямоугольники, каждый из которых содержит интегральную схему. Для разделения пластины используют специальную прецизионную пилу. Неработающие кристаллы отбраковываются.

Затем каждый кристалл помещают в индивидуальный корпус. Корпус защищает кристалл от внешних воздействий и обеспечивает его электрическое соединение с платой, на которую он будет впоследствии установлен. Крошечные шарики припоя, расположенные в определенных точках кристалла, припаивают к электрическим выводам корпуса. Теперь электрические сигналы могут поступать с платы на кристалл и обратно.

В будущих процессорах компания Intel применит технологию BBUL, которая позволит создавать принципиально новые корпуса с меньшим тепловыделением и емкостью между ножками CPU.

После установки кристалла в корпус процессор снова тестируют, чтобы определить, работоспособен ли он. Неисправные процессоры отбраковывают, а исправные подвергают нагрузочным испытаниям: воздействию различных температурных и влажностных режимов, а также электростатических разрядов. После каждого нагрузочного испытания процессор тестируют для определения его функционального состояния. Затем процессоры сортируют в зависимости от их поведения при различных тактовых частотах и напряжениях питания.

Доставка. Процессоры, прошедшие тестирование, поступают на выходной контроль, задача которого - подтвердить, что результаты всех предыдущих тестов были корректными, а параметры интегральной схемы соответствуют установленным стандартам или даже превосходят их. Все процессоры, прошедшие выходной контроль, маркируют и упаковывают для доставки заказчикам.

Будущие технологии производства микропроцессоров


Известно, что существующие КМОП-транзисторы имеют много ограничений и не позволят в ближайшем будущем поднимать частоты процессоров также безболезненно. В конце 2003 года на Токийской конференции специалисты Intel сделали очень важное заявление о разработке новых материалов для полупроводниковых транзисторов будущего. Прежде всего, речь идет о новом диэлектрике затвора транзистора с высокой диэлектрической проницаемостью (так называемый «high-k»-материал), который будет применяться взамен используемого сегодня диоксида кремния (SiO2), а также о новых металлических сплавах, совместимых с новым диэлектриком затвора. Решение, предложенное исследователями, снижает ток утечки в 100 раз, что позволяет вплотную подойти к внедрению производственного процесса с проектной нормой 45 нанометров. Оно рассматривается экспертами как маленькая революция в мире микроэлектронных технологий.

Чтобы понять, о чем идет речь, взглянем сначала на обычный МОП-транзистор, на базе которого делаются сложнейшие CPU.


В нем затвор из проводящего поликремния отделен от канала транзистора тончайшим (толщиной всего 1,2 нм или 5 атомов) слоем диоксида кремния (материала, десятилетиями используемого в качестве подзатворного диэлектрика).

Столь малая толщина диэлектрика необходима для получения не только малых габаритов транзистора в целом, но и для его высочайшего быстродействия (заряженные частицы передвигаются быстрее через затвор, в результате чего такой VT может переключаться до 10 миллиардов раз в секунду). Упрощенно - чем ближе затвор к каналу транзистора (то есть, чем тоньше диэлектрик), тем «большее влияние» в плане быстродействия он будет оказывать на электроны и дырки в канале транзистора.


Но с другой стороны, такой тонкий диэлектрик пропускает большие паразитные токи электронов утечки из затвора в канал (идеальный МОП-транзистор должен пропускать ток от истока к стоку и не пропускать - от затвора к истоку и стоку). И в современных высокоинтегрированных микросхемах с сотнями миллионов транзисторов на одном кристалле токи утечки затворов становятся одной из фатальных проблем, препятствующих дальнейшему наращиванию количества транзисторов на кристалле. Более того, чем меньше по размерам мы делаем транзистор, тем тоньше нужно делать подзатворный диэлектрик. Но при его толщинах менее 1 нм резко (по экспоненте) возрастают туннельные токи утечки, что делает принципиально невозможным создание традиционных транзисторов менее определенных «горизонтальных» размеров (если при этом мы хотим получить от них хорошие скоростные характеристики). По оценкам экспертов, в современных чипах почти 40% энергии может теряться из-за утечек.

Поэтому важность открытия ученых Intel нельзя недооценивать. После пяти лет исследований в лабораториях корпорации разработали специальный материал, позволяющий заменить традиционный диоксид кремния в обычном маршруте производства микросхем. Требования к такому материалу весьма серьезны: высокая химическая и механическая (на атомарном уровне) совместимость с кремнием, удобство производства в едином цикле традиционного кремниевого техпроцесса, но главное - низкие утечки и высокая диэлектрическая проницаемость.


Если мы боремся с утечками, то толщину диэлектрика нужно повысить хотя бы до 2-3 нм (см. рисунок выше). Чтобы при этом сохранить прежнюю крутизну транзистора (зависимость тока от напряжения) необходимо пропорционально увеличить диэлектрическую проницаемость материала диэлектрика. Если проницаемость объемного диоксида кремния равна 4 (или чуть меньше в сверхтонких слоях), то разумной величиной диэлектрической проницаемости нового «интеловского» диэлектрика можно считать величину в районе 10-12. Несмотря на то, что материалов с такой диэлектрической проницаемостью немало (конденсаторные керамики или монокристалл кремния), тут не менее важны факторы технологической совместимости материалов. Поэтому для нового high-k-материала был разработан свой высокоточный процесс нанесения, во время которого формируется один молекулярный слой этого материала за один цикл.


Исходя из этой картинки можно предположить, что новый материал - это тоже оксид. Причем монооксид, что означает применение материалов преимущественно второй группы, например, магния, цинка или даже меди.

Но диэлектриком дело не ограничилось. Потребовалось сменить и материал самого затвора - привычный поликристаллического кремния. Дело в том, что замена диоксида кремния на high-k-диэлектрик ведет к проблемам взаимодействия с поликристаллическим кремнием (ширина запрещенной зоны транзистора определяет минимально возможные для него апряжения). Эти проблемы удается устранить, если использовать специальные металлы для затворов транзисторов обоих типов (n-МОП и p-МОП) в сочетании с особым технологическим процессом. Благодаря этой комбинации материалов удается достичь рекордной производительности транзисторов и уникально низких токов утечки, в 100 раз меньших, чем при использовании нынешних материалов (см. график). В этом случае уже не возникает искушения использовать для борьбы с утечками значительно более дорогую технологию SOI (кремний на изоляторе), как это делают некоторые крупные производители микропроцессоров.


Отметим также еще одно технологическое новшество Intel - технологию напряженного (strained) кремния, которая впервые используется в 90-нанометровых процессорах Prescott и Dothan. Наконец-то, компания Intel в подробностях рассказала, каким именно образом происходит формирование слоев напряженного кремния в ее КМОП-структурах. КМОП-ячейка состоит из двух транзисторов - n-МОП и p-МОП (см. рисунок).


В первом (n-MOS) канал транзистора (n-канал) проводит ток при помощи электронов (отрицательно заряженных частиц), а во втором (p-MOS) - при помощи дырок (условно положительно заряженных частиц). Соответственно, и механизмы формирования напряженного кремния у этих двух случаев различны. Для n-MOS-транзистора используется внешнее покрытие слоем нитрида кремния (Si3N4), который за счет механических напряжений немного (на доли процента) растягивает (в направлении протекания тока) кристаллическую решетку кремния под затвором, в результате чего рабочий ток канала возрастает на 10% (условно говоря, электронам становится более просторно двигаться в направлении канала). В p-MOS-транзисторах все наоборот: в качестве материала подложки (точнее - только областей стока и истока) используется соединение кремния с германием (SiGe), что немного сжимает кристаллическую решетку кремния под затвором в направлении канала. Поэтому дыркам становится «легче» «передвигаться» сквозь акцепторные атомы примеси, и рабочий ток канала возрастает на 25%. Сочетание же обеих технологий дает 20-30-процентное усиление тока. Таким образом, применение технологии «напряженного кремния» в обоих типах устройств (n-MOS и p-MOS) приводит к значительному повышению производительности транзисторов при повышении себестоимости их производства всего лишь на ~2% и позволяет создавать более миниатюрные транзисторы следующих поколений. В планах Intel - использовать напряженный кремний для всех будущих техпроцессов вплоть до 22-нанометрового.



Материал с низкой диэлектрической проницаемостью используется в качестве диэлектрика медных соединений (см. рисунок) во всех техпроцессах Intel, начиная с 0,13-микронного.


Он уменьшает величину паразитной емкости, которая возникает между медными соединениями на кристалле, что повышает скорость передачи внутренних сигналов и уменьшает энергопотребление. Intel - первая и пока единственная компания, которая использует этот low-k-материал для изоляции межсоединений.



Введение


Александр Дудкин, автор этого материала, является членом экспертного совета Intel (IA-Expert) и много общается с московским офисом компании. Вопрос маркетинговой политики Intel в России является одним из наиболее важных для тех, кто пытается понять – почему бизнес Intel на российском и смежных рынках столь успешен. От себя могу добавить, что в Украине ситуация абсолютно аналогична и наш, киевский, офис компании прилагает не меньше усилий к созданию позитивного имиджа и продвижения продукции Intel.

Наша жизнь становится все более насыщенной новейшими техническими приспособлениями, причем эта тенденция ускоряется. Немалую роль в этом процессе играют и сами фирмы-производители новинок. Как правило, это способствует не только увеличению продаж конкретной компании, но и «подстегивает» национальную экономику стран к развитию. Более того, подобная здоровая конкуренция вызывает спрос в отрасли и приводит к улучшению качества товара и повышения общей конкурентоспособности.

Основой создания товара и рынка сбыта для него стал уже привычный нам всем маркетинг. Это очень сложное понятие, включающее в себя целый ряд комплексов: товарную, ценовую политику, а также политику продвижения товара и продаж. Совокупность инструментов представляет собой комплекс «четырех P»: product (товар), price (цена), place (распространение товара) и promotion (продвижение товара).

Компьютерных гигантов на мировом рынке не мало, но лишь единицы из них заканчивают сезоны с прибылью. О чем это говорит? Такой факт указывает или на специфику рынка, на котором работает компания или на плохую маркетинговую политику. Такова специфика России, что приходится бороться за каждого клиента, иначе не проживешь. На слуху в нашей стране несколько компьютерных технологических гигантов, которые составляют серьезную конкуренцию друг другу, среди них и компания Intel. В этой статье мы попытаемся рассмотреть, что собой представляет маркетинговая политика ведущих фирм и что за ней реально стоит.

Вы наверняка замечали усилившуюся в последние годы активность технологических гигантов на нашем рынке – это связано с ростом перспективности российского рынка сбыта и взросшей технической грамотностью и разборчивостью граждан. Изначально, российский рынок был более удобовыгоден для компании AMD в связи с менталитетом российских граждан, среди которых немало умельцев-самоделкиных и любителей экстремального разгона. Её «камни» полностью соответствовали их требованиям и позволяли конфигурировать систему по желанию владельца. Правда, счастьем своим компания не особенно-то воспользовалась, но об этом чуть позже. Российский рынок для Intel изначально был не самым благоприятным, ее микросхемы и кристаллы стоили достаточно дорого и не позволяли осуществлять модернизацию, произвольную настройку системы и разгон. Из желающих делать чипсеты под процессоры Intel была лишь VIA, которая и то не имела лицензии. Несмотря на достаточно высокий уровень продаж, такое положение дел компанию-гиганта не очень-то устраивало. С выпуском ядер K7 и Thunderbird начался стремительный рост славы AMD, а вместе с этим и увеличение числа продаж, медленное, но верное. Все же народ мало что знал об этой компании, и поэтому недоверие уходило с трудом. Долгое время им репутацию портили чипсеты, которые то приводили к несовместимости, то к нестабильности системы. И все же выпуск Thunderbird стал апогеем славы компании AMD.

О технологиях и инвестициях


В то время Intel потеряла позицию безусловного лидера. Выпуск ядра Willamette также не стал для компании особенно удачным: процессор стоил дорого (и платы под него тоже), а лидерство по производительности было очень сомнительным. Создавалось ощущение, что компания тогда вела политику «максимальной выгоды» не взирая на трудности пользователей. Видимо, это было навеяно большим количеством продаж и доминированием на рынке в целом. Intel воплощала в жизнь «искусственную смену поколений»: частая смена референс дизайн-гайдов (design-guides) приводила к неразберихе и несовместимостям. Это и понятно: надо было продвигать новинки, а чтобы дать им путевку в жизнь искусственно снимались старые линейки процессоров, причем каждому CPU соответствовал свой набор микросхем. Более того, младшие модели в каждой линейке серьезно урезались, чтобы не пересекать путь старших моделей предыдущих поколений и держать их для соответствующего сегмента рынка.
Пользователи были недовольны: ведь при апгрейде им приходилось менять не только CPU, но материнскую плату с памятью, системы охлаждения и т.п. До сих пор многие вспоминают эпопею с разбросом плат по совместимости. Некоторые материнские платы под Coppermine были несовместимы с процессорным ядром Mendocino, а под Tualatin – с Coppermine. А чего стоил скандал с выпуском бракованных Pentium III? Да еще и постоянная смена форм-факторов разъемов под процессор. Вы помните, сколько прожил Socket 423? Некоторые нераспроданные платы под него до сих пор лежат на складах дистрибьюторов.

Подкачала и ставка Intel на «RDRAM – память будущего» (сейчас уже прошлого). Изначально было известно, что производство этой памяти сопряжено с рядом значительных трудностей, в том числе большой ценой самой памяти и производством плат с контроллерами RDRAM. Похоже, такое решение было принято в пику компании AMD, системная шина которой строилась на шине EV6 с технологией DDR и предполагала использование памяти DDR. Да, RDRAM на тот момент была быстрее, но с улучшением техпроцессов появилась поднять частоту на памяти DDR до 400 МГц, а то и выше, и, соответственно, обеспечить большую производительность. А если вспомнить, сколько за тот период должно было быть выпущено чипсетов, которые так и остались в разработке?

В итоге, Intel решила пустить в ход свой былой технологический запас, которого ее соперник, как правило, не имел. После продолжительной доработки и отладки был рожден кристалл Northwood, который имел перед предшественниками неоспоримые преимущества: мощный блок SSE2 и кэш L2 объемом 512Кb. Новинка получилась удачной впервые за последние годы неудач. И надо заметить, это было достигнуто не только путем введения технологических новшеств, но грамотной маркетинговой политикой. В этом безусловная заслуга московского офиса компании Intel. Как можно заметить, этот кристалл имел огромный технологический запас, который будет использоваться аж до выпуска ядра Prescott. Кроме того, Intel последовала политике AMD по сохранению форм-фактора разъема под CPU Socket 478, которое будет жить до середины 2004 года. Да и вообще Intel пошла навстречу пользователям.

Во-первых, компания перешла к использованию памяти DDR в своих чипсетах (правда, поздновато, но лучше поздно, чем никогда). Во-вторых, выпуск чипсета i875P, действительно ознаменовал выпуск самого быстрого в мире чипсета с наименьшими задержками контроллера памяти – слова подкрепились делом. Появились всевозможные модификации чипсетов и плат под процессор Pentium 4 Northwood на любой вкус и финансовые возможности. В БИОСе оригинальных материнских плат от Intel теперь даже предусмотрена возможность своеобразного разгона, чем компания неофициально признала пользу разгона, как доказательство технологичности, надежности и технологического запаса своих изделий. В целом, отношение к всевозможным модификациям у компании улучшилось. Конечно, некоторое навязывание все же осталось, но тем не менее, степень его значительно снизилась. Вспомним, хотя бы, встроенный контроллер Gigabit Ethernet Intel PRO/1000 CT, который был весьма дорог в исполнении и поэтому на некоторых материнских стал заменяться аналогом от 3Com. Надо сказать, что я не вижу в этом ничего предосудительного, просто Intel предлагает свои технологические решения во многих сферах. Вот если бы возможности выбора не было…

Еще одним аргументом в пользу Intel стала технология Hyper-Threading, которая стала выводом на арену издавна припасенной технической мощи, не требующей особых технологических новшеств для получения дополнительной производительности. Но надо сказать, что, по отзывам большинства тестовых лабораторий, использование этой технологии явилось необходимой мерой, и только она позволила соперничать наравне с процессорами AMD Athlon XP (особенно Barton). Правда, были и небольшие заморочки с поддержкой некоторыми чипсетами этой технологии, но они, как правило, решались обновлением кода BIOS. Кстати, в этом Intel помогли производители материнских плат, которые быстро обновили ревизии своих плат.

Ну а в высоком уровне технологий Intel сомневаться не приходится. Понимая философию современного развития компьютерной отрасли, компания совершенно справедливо полагает, что невозможно поддерживать высокий уровень производства без обновления технологий, перехода на новые техпроцессы, инвестиций в развитие инфраструктуры и технологий. Поэтому, маркетологи сделали ставку на интеграцию и инвестиции в будущее. В течение всей своей истории Intel продолжала, а то и увеличивала инвестиции в исследовательские работы. Со временем это принесло свои плоды в виде лидерства во многих вопросах технологий и производственных процессах. На основе развития и расширения границ применения полупроводниковых технологий много лет назад был сформирован Закон Мура. Сейчас он не только не устарел, но и обрел новую силу в инновационных отраслях компьютерной и коммуникационной промышленности. Теперь он распространяется даже на беспроводные технологии телекоммуникаций. Сильной стороной Intel является умение воплотить в жизнь большинство своих технологических разработок.

Недавно специалистами Intel на базе 90-нм техпроцесса была создана рекордно малая ячейка кэш-памяти – менее 1 квадратного микрона. А как известно, именно кэш-память процессора имеет большое тепловыделение, поэтому такая ячейка может быть использована в будущих процессорах с большой частотой при сравнительно небольшой выделяемой мощности. Применена технология напряженного кремния, повышающая быстродействие транзисторов. Вводятся в использование интегральные элементы, произведенные по кремниево-германиевой технологии на базе 90-нм техпроцесса. Будущее современного процессора – терагерцевый процессор с тремя затворами, способный переключаться более триллиона раз в секунду. Производство таких процессоров планируется начать во второй половине текущего десятилетия. Сейчас вкладываются средства для использования новой EUV-литографии, которая позволит создавать рисунки на полупроводниковой пластине с размером элементов менее 50 нм, опять же расширяя рамки закона Мура. К 2005 году планируется достичь 65-нанометрового технологического процесса, а к 2009 году – 32-нанометрового (затвор транзистора 15 нм). Схемотехники компании придумали способ управления характеристиками электронных микросхем через использование динамически регулируемого смещения кристаллов. Введены в эксплуатацию новые 300-милиметровые пластины, которые теперь производятся на заводах, построенных по концепции Copy Exactly! Эта концепция подразумевает точное перенесение всех параметров микросхем при производстве их на разных заводах. Разрабатываются ультратонкие энергосберегающие корпуса процессоров, по технологии Build-Up Layer (BBUL). Специалисты полагают, что закон Мура будет действовать еще как минимум десятилетие.

Большие средства вкладываются в реализацию концепции Intel “total connectivity” (всеобщая коммуникация). Есть проект создания решения для беспроводного доступа в Интернет на одном кристалле (интеграция процессора, флэш-памяти и коммуникационных микросхем на одном чипе), создания радио на миниатюрной КМОП-микросхеме и самонастраивающихся беспроводных сетей на базе mote-датчиков размером с пылинку.

В целом, за последнее время Intel еще раз на деле подтвердила тезис о качестве и надежности своей продукции. И если раньше её можно было обвинить в форсировании темпов развития отрасли и постоянной смене поколений, то сейчас это стало вынужденной мерой в борьбе с конкурентами, да и степень этого явления сейчас заметно меньше. Кроме того, отрадным фактом стало более лояльное отношение к конкурентам, производящим наборы микросхем под процессоры Pentium 4. Вообще-то, Intel должна быть благодарна компании SIS за качественные, быстрые, и к тому же, более дешёвые чипсеты, успешно дополняющие линейку от самой Intel. В 2003 году было лицензировано производство чипсетов компанией VIA, вскоре после чего VIA представили новые чипсеты PT800 и PT880 под платформу Socket 478. Да и оригинальные разработки ATI – серия Radeon IGP укрепляет позиции Pentium 4 и Celeron в сегменте систем с интегрированной графикой. Становится заметна еще одна тенденция: компания Intel все больше заботится о своей репутации и качестве своих брэндов, стараясь не допустить ляпов с выпуском новинок и не подпортить себе авторитет какой-нибудь мелочью, связанной с особенностью их работы. Ну что ж, это показатель лидерских качеств одной из ведущих индустриальных компаний. И не зря вот уже 17 лет Intel заканчивает год с прибылью.

Но первая часть нашего «хорового пения» на самом деле включает только лишь четвертую часть маркетинга – product and brand management (товар и управление торговой маркой). А вот большее внимание сейчас заслуженно уделяется другим сферам маркетинга, и тут более подробно следует рассмотреть общие вопросы политики Intel.

О promotion и честности


Многие, наверное, заметили, что компания Intel ведет политику максимального присутствия на рынке, стремясь проникнуть во все сферы высоких технологий, и во всех областях у нее встречаются серьезные конкуренты. В области технологий – IBM, Sun, Compaq и немалое количество более мелких игроков рынка, в области продукции – AMD, VIA и другие. Надо сказать, что расширение присутствия на рынке получается у компании весьма удачно – помимо уже привычных desktop и серверных технологий это проникновение и в стандарты связи, передачи данных, мобильные решения, в новые микросхемы и их технологии производства, программное обеспечение. Ведь именно Intel является инициатором появления многих промышленных стандартов, таких как PCI и AGP, а сейчас это продвижение стандартов передачи данных серии 802.11. При такой активности соблюдается строгий внутренний устав и политика фирмы, направленная на поддержание репутации, в чем мне не раз приходилось убеждаться при общении с сотрудниками московского офиса. Это и правильно: сейчас компрометирование имени компании равноценно потере половины клиентов и резким выпадам со стороны соперников. Это и неучастие в политических играх и независимость от СМИ (по крайней мере видимая). Но в то же время еще недавно на некоторых сайтах по аппаратному обеспечению можно было встретить такие фразы как «Раздел спонсируется компанией Intel», что может негативно повлиять на интерпретацию результатов тестов. Короче говоря, здесь необходимо с одной стороны не создать прецедент, после которого появятся слухи о купленности СМИ, а с другой – широко распространять о себе информацию. Именно это Intel и делает особенно успешно. Таким образом, все остальные части нашей саги и проистекают из вот этой самой политики.

Итак, что же собой представляют оставшиеся составляющие маркетинга в сольном исполнении Intel? По этому поводу наш главный герой имеет свою отдельную философию. Итак, это, прежде всего инвестиции в отрасль и развитие инфраструктуры, так сказать, “работа на будущее”. В 2002 году инвестиции компании достигли 5 млрд. долларов (первое место в компьютерной отрасли). Все производственные этапы компании четко продуманы: из каждой предыдущей ступени производства выжимается максимум, так чтобы вложенные средства окупились высоким уровнем продаж. Совершенно ясно, что использование старого, но налаженного техпроцесса выгодно отсутствием необходимости в инвестициях, но приводит к итоговому удорожанию производства товара и понижению его конкурентоспособности. В то же время новый техпроцесс требует осваивания и первоначальных инвестиций, которые приводят к временному удорожанию продукта (в том числе из-за высокого количества брака), но после наладки новой технологии выливается в значительных экономиях при массовом производстве. С другой стороны ставка только на гигантские шаги в технологиях грозит фиаско, поэтому грамотное сочетание использования имеющихся технологий и запас технологий на будущее дают свой положительный эффект. При том, важно делать ставку на интеграцию и коммуникации, которые в последние годы стали самыми перспективными сферами развития технологической мысли.

Следующим немаловажным моментом является соответствие маркетинговых акций практике. Не многие компании могут похвастаться выпуском реальных продуктов на рынок в день их официального запуска. Это определенно сильная сторона Intel. Кроме того, Intel всегда старается обеспечить необходимое количество новинок заранее как для своих партнеров, так и в розничную продажу. А это, как правило, является следствием грамотного рассмотрения перспективы и долгосрочных планов. Главный соперник же, AMD, страдает тем, что в Европе называется «short-termism» - недальновидность в отношении её брэндовых торговых марок, их репутации, работа на максимальное «срубание» прибыли и использовании «политики цен», а не комплекса маркетинговой политики.

Сейчас все больше компания Intel ориентируется на потребности покупателя, учитывая его уровень материального благосостояния. Это важный момент корпоративной политики. Сейчас в корне изменился подход к технике – теперь ее особенности и возможности подстраиваются под нас, а не навязываются по принципу «за неимением другого». Да и ценовая политика претерпела изменения в положительную сторону: общий уровень цен стал значительно ниже, но все же желающие собрать бюджетную конфигурацию все же обратятся к конкуренту. Ведь искусственно созданные слухи о ненадежности AMD уже не действуют, так что Intel очень грамотно заняла позицию технологического лидера, предлагающего передовые решения, при том нет былого напора на low-end рынок. Таким образом, происходит очень выгодный передел рынка.

Очень интересно понаблюдать, как в последнее время Intel все более грамотно реализует продвижение своих товаров. Начнем с рекламы. Разве кто-то не видел рекламу про достаточно милых инопланетян и Pentium 4? Этим все сказано, а вот реклам конкурентов вы не видели точно: их просто нет! Здесь любая преуспевающая компания должна вести политику «открытой игры» и не искать «обходных путей», чтобы не испортить себе имидж. Для этого следует распространять как можно больше информации о своей продукции, в том числе технической – для специалистов, не делая из этого особой тайны. Именно так в последнюю пару лет Intel завоевала доверие. Если есть информация, то есть и о чем писать журналистам. Здесь можно и слухами грамотно пользоваться, но никогда не сообщать ложную информацию – просто подавать не всю правду. Более того, следует забыть о привычке «кормить» СМИ одними только обещаниями – они, как правило, тяжело реализуются и долго припоминаются. С этим у Intel вроде все нормально, а вот российское представительство AMD ведет себя совершенно нелогично: не выходит на контакт с прессой, не распространяет никакой технической или маркетинговой информации о своих продуктах… Складывается впечатление, что это целенаправленная кампания по дискредитации имиджа AMD в России. Кстати, в российском представительстве AMD работает немало бывших сотрудников Intel! Сама же Intel, наоборот, резко сменила политику в отношении. Российское представительство Intel теперь регулярно проводит семинары и пресс-конференции по своим технологиям, таким образом создавая почву и готовя рынок к своим будущим продуктам. Каждому становится очевидна схема активных действий, направленных на развитие всех областей компьютеров и телекоммуникаций – это не может не приветствоваться.

На данный момент Россия входи в число 5 наиболее растущих рыков Intel, притом, что наша страна – лидер по темпам роста рынка ПК в EMEA. Теперь становится ясно, почему Россия остается приоритетной страной для инвестиций Intel. В 2002 году состоялся первый IDF (Intel Developer Forum) в России, крупнейшее мероприятие для специалистов-разработчиков в году. К счастью, эта традиция нашла продолжение, и в конце октября 2003 года был проведен второй форум. Вообще за 2002 год на территории России было проведено около 250 мероприятий. Среди них Дни компьютерных знаний, открытие Центров компетенции. Академическая программа Intel включает программу для обучения учителей «Обучение для будущего»; ISEF – поддержка выступлений школьников на международных соревнованиях; спонсорство всероссийского конкурса «Учитель года»; поддержка образования в странах СНГ и открытие Центра семейного компьютерного творчества. В 2002 году 7500 преподавателей прошли подготовку в региональных центрах «Обучение для будущего», еще 20000 учителей и студентов должны пройти обучение в этом году. В университетах Нижнего Новгорода открыты 3 научные и учебно-исследовательские лаборатории, которые уже разработали серьезное ПО для управления ПК.

В начале октября компания Intel провела фестиваль во всероссийском детском центре «Орленок» под названием «Цифровое перо» для юных журналистов, которые приехали на смену в журналистский отряд в «Орленок» из всех уголков России. После фестиваля цифровая студия, в которой проходил фестиваль, оснащенная новейшей техникой для журналистской деятельности, была передана лагерю «Орленок». Теперь каждый отдыхающий в лагере сможет иметь доступ к новейшим компьютерным технологиям.

Активная деятельность компании сейчас направлена на разворачивание беспроводной инфраструктуры стандарта 802.11 на территории России и утверждения ее новых протоколов (например, 802.11a и 802.11g). Распространение Wi-Fi (802.11b) усиливается в рамках конвергенции. В России открывается все больше точек горячего доступа (hot-spots) к беспроводной сети Wi-Fi. Все это осуществляется в тесном сотрудничестве с российским правительством и российскими фирмами, занимающимися услугами доступа к сетям.

Получается, что Intel формирует рынок так, что каждый новый продукт является логическим продолжением общей направленности деятельности компании и удачно вписывается в рыночные условия. Так грамотно обеспечивается всесторонняя поддержка продукции как до выхода на рынок, так и после официального запуска. Может возникнуть вопрос: «Если Intel так много делает, значит, ее продукция лучшая?» Ответ прост: «Вполне возможно, но вовсе не обязательно». Если бы не было достойной конкуренции, так зачем же все это делать? Значит, компании есть к чему стремиться. Просто достойная похвалы маркетинговая политика Intel в России гарантирует высочайшее качество и поддержку их продукции, а также создание благоприятных условий для ее распространения и использования.

Введение


Недавно мы опубликовали результаты тестирования новейших процессоров от Intel, в том числе – топовой на сегодня модели с новым ядром Prescott. Основное внимание мы уделили вопросам реальной производительности новых процессоров в штатном и экстремальном режиме, а также разгонному потенциалу, лишь слегка коснувшись значительных изменений в ядре. В этом материале автор исследует именно теоретические основы новой архитектуры, так что два материала прекрасно дополняют друг друга.

Как известно, нет ничего более постоянного, чем изменения в нашем мире. Этот афоризм справедлив и для компьютерной индустрии. Последняя развивается витками, от одной революции к другой, между которыми поддерживается определенное равновесие. Как правило, крупнейшие производители аппаратного обеспечения стараются, чтобы переходные периоды в их продуктах, предназначенные для разных сегментов рынка, не совпадали. Так на рынке мобильных технологий мы пережили революцию Centrino в марте прошлого года, а второе полугодие было полностью посвящено анонсам в серверном сегменте. Рынок настольных процессоров давно уже не переживал революционных изменений, уже более двух лет на рынке держится нынешний процессор компании Intel - Pentium 4, выполненный по архитектуре NetBurst. При этом поддерживался определенный паритет с конкурентом от AMD, который плавно переходил от одного ядра к другому. Эти ядра различались лишь отдельными спецификациями.

Долгое время компания Intel кормила слухами о выходе нового ядра, которое в СМИ уже успели наречь Pentium 5. Выпуск процессора с кодовым названием Prescott переносился сначала с осени 2003 года на декабрь, а затем и вовсе на первый квартал 2004 года.

Линейка процессоров на ядре Prescott была представлена 2 февраля вместе с последним Pentium 4 на ядре Northwood с частотой 3,40 ГГц и Pentium 4 Extreme Edition аналогичной частоты. Ну что ж, посмотрим, стал ли новый Pentium 4 революционным?

Новые технологии или «латание дыр»?


Традиционно, каждый принципиально новый процессор ассоциируется с новым техпроцессом. И действительно, все с нетерпением ожидали появления продуктов, изготовленных по новой технологической норме 90 нм, которые были обещаны компанией еще в 2003 году. И наконец, Prescott, выполненный по техпроцессу 90 нм появился. Каждый новый техпроцесс предполагает увеличение выгодности производства путем получения большего количества кристаллов с одной пластины, уменьшение размеров кристалла вместе с уменьшением его тепловыделения и, наконец, большие частоты работы самих кристаллов. Только вот с проектной нормой 90 нм ситуация оказалась гораздо сложнее.

Во-первых, транзисторы такого размера достаточно сложно производить одинаковыми. При таких размерах и многослойной металлизации возникает несовпадение напыленных и окисленных областей, которые образуют затворы и исток со стоком, в результате чего возникает большой разброс параметров транзисторов. По этой причине все новые процессоры, особенно работающие на больших частотах имеют большой разбор параметров и разное тепловыделение. Именно поэтому сейчас доступны модели с младшими частотами, а модель с частотой 3,40 ГГц практически отсутствует на рынке. И похоже, что в ближайшее время она и не появится в достаточном количестве.

Во-вторых, из-за маленькой длины затвора сложно управлять параметрами транзистора. С одной стороны это улучшает скоростные показатели транзистора (переключение происходит быстрее), но с другой - увеличивает токи утечки транзистора. Это заставляет поднимать напряжение для управления током через затвор для гарантированного переключения транзистора, что в свою очередь увеличивает тепловыделение. Так вот, технология 90 нм неожиданно привела производителей к большим рабочим температурам кристалла. Это и есть одна из главных причин, по которой выпуск нового Prescott постоянно откладывался.

Спецификации Prescott


Итак, новая линейка Prescott, представленная 2 февраля, состоит из моделей с частотами от 2,80 до 3,40E ГГц. Все модели выпущены с частотой шины 800 МГц и для отличия от аналогичных моделей на ядре Northwood маркируются постфиксом E. Кроме того, модель 2,80 также выпущена с шиной 533 МГц и маркируется как 2,80А. Якобы она выпущена потому, что накопилось большое количество кристаллов, выполненных на шине 533 МГц и их нужно было тоже куда-то деть. Поскольку из-за технических особенностей нового кристалла старшие модели практически не доступны, то в качестве высокочастотной модели пока будет использоваться обычный Northwood с частотой 3,40 ГГц, который был выпущен, чтобы прикрыть тылы топовых моделей.

Все представленные модели имеют разъем Socket 478. Используется традиционный корпус FC-mPGA4, который подразумевает расстояние шаг между контактами в 1,27 мм. На данный момент на рынке циркулируют Prescott'ы с тестовыми степпингами А0, В0, С0. Будущий степпинг D0 уже будет иметь другие параметры по питанию и тепловыделению и потребует другого VRM 11.0. Видимо все модели, начиная с 3600 МГц, будут иметь разъем Socket T (Socket LGA 775), который, благодаря большему количеству контактов на обратной стороне и конденсаторов, будет обеспечивать необходимый ток. Таким образом, могут возникнуть проблемы только с моделью 3,40Е, которая, имея старый корпус, особо требовательна к питанию.

Из-за такой дифференциации старших и младших моделей технологи Intel приняли решение использовать гибкую систему параметров TDP (Thermal Design Power). В ее рамках каждой модели, имеющей свою частоту, соответствует свое напряжение питания, потребляемый ток и выделяемая мощность. В соответствии с этой схемой модели 2,80А/Е и 3Е имеют мощность рассеивания 89 Вт, а 3,20Е и 3,40Е - 103 Вт. При такой мощности температура корпуса кристалла TC достигает 73,5 градусов! При этом диапазон напряжений питания ядра по VID колеблется от 1,250 до 1,400 В. Для каждой конкретной модели напряжение питания ядра VCC высчитывается по следующей формуле: VID-ICC(max)*1.45 m?. Соответственно, для этих моделей потребляемый ток ICC колеблется от 78 до 91 А. Естественно, это максимальные величины, которые при работе в многих стандартных приложениях не возникают, но все же заставляют хорошенько призадуматься о надежности охлаждения процессора.

Как обеспечиваются такие токи? Для этого используется 85 ножек питания (VCC) и 179 ножек земли (VSS). Таким образом, из 478 контактов 264 используется для обеспечения соответствия требований кристалла по питанию. Интересно, какие же будут проходить токи через процессор, если он будет иметь 775 выводов, даже учитывая его возможное 64-разрядное расширение?

Таким образом, большая часть изменений вместе с переходом на новый техпроцесс коснулась режимов питания и энергопотребления нового процессора. Prescott содержит 125 млн. транзисторов, при том, что площадь кристалла даже немного уменьшилась и стала 112 мм2. Учитывая, что дополнительная кэш-память второго уровня объемом 512К содержит около 30 млн. транзисторов, то на что тогда пошли еще 40 млн. транзисторов по сравнению с Northwood, который состоит из 55 млн.? Похоже, там много всевозможных улучшений архитектуры. Косвенно резкое увеличение количества транзисторов также наводит на мысли о поддержке 64-битных расширений в процессоре, поддержку технологии аппаратной защиты LaGrande, технологии Vanderpool и шины для связи с кэш-памятью третьего уровня.

Для достижения такой плотности и особенностей микроархитектуры при производстве использовался техпроцесс 90 нм и технология напряженного кремния. Суть этой технологии состоит в том, что кремниевая решетка «растягивается» в подзатворной области для ускорения потока электронов через затвор. Это стало чрезвычайно необходимым для увеличения частоты работы кристаллов, так как бесконтрольное увеличение частоты работы кристалла сказывается почти на всех блоках процессора. Сигнал порой просто не успевает дойти от одного блока до другого. С одной стороны, эта технология не только увеличила скорость переключения самого транзистора, но и передачу информации между блоками. С другой же, она еще больше усилила и так немалые утечки тока в транзисторах, так как электроны стали более свободны, и их движение менее направленно, ими стало труднее управлять.

Помимо технологии напряженного кремния в Prescott появилось большое количество нововведений. Среди них - использование семислойной медной металлизации между транзисторами, применение диэлектрика CDO (Carbon Doped Oxide) с низким диэлектрическим коэффициентом вместо прежнего SIOF в межсоединениях. Этот low-k материал уменьшает паразитные емкости между слоями медных соединений и повышает скорость передачи сигнала. В самом затворе используется силицид никеля вместо силицида кобальта. Использование 193-нм фотолитографии и 300-мм кремниевых пластин позволило получить ячейку кэш-памяти SRAM площадью 1,15 мкм2. Использование 300 мм подложек уже внедрено на 3 фабриках Intel (D1C в Орегоне, F11X в Мексике и F24 в Ирландии) и количество получаемых подложек растет все быстрее.

Так какие же параметры в итоге отличают Prescott от Northwood? Первое, что бросается в глаза - это увеличенный объем кэша данных L1 до 16 КБ и L2 до 1 МБ. Новинка также отличается оптимизированной архитектурой NetBurst, дополнительными буферами, поддержкой SSE3, усовершенствованной технологией Hyper-Threading.

Микроархитектура


Все новые микроархитектурные улучшения позволили сократить задержки передачи сигнала между блоками процессора. Главной особенностью новой архитектуры NetBurst стало удлинение конвейера с 20 до 31 стадии. Конвейер стал длиннее, но сами стадии сократились по времени. Соответственно, изменилось и прохождение инструкций по конвейеру. Увеличение количества стадий позволило поднять тактовую частоту. Также это стало необходимым из-за задействования большего числа блоков и необходимости их развязки по времени выполнения.

Как известно, увеличение стадий конвейера грозит потерями тактов при перезагрузке конвейера в случае неправильного предсказания ветвления. Поэтому, была улучшена схема предсказания ветвлений. Теперь процессор может анализировать возможную длину перехода и наличие цикла, а также распознавать его тип. Кроме того, разработчики решили проанализировать несколько готовых алгоритмов и эффективность их предсказания. Впрочем, это обоюдоострое решение. Регулярные ветвления, которые легко предсказать, будут предсказываться лучше, но случайные ветвления при удлинении конвейера, скорее всего, принесут еще больше ошибок предсказания. Так что эта оптимизация больше зависит от исходного кода и частоты появления в нем случайных переходов. Таким образом, для оптимизации приложений под Prescott, их следует перекомпилировать.

Для усовершенствования архитектуры также было увеличено число всевозможных буферов. Прежде всего, это WC-буферы, которые отвечают за сбрасывание данных в оперативную память при переполнении кэша L2. Их количество пришлось увеличить примерно до 4000, видимо, из-за удвоения кэша L2.

Остальное осталось по-прежнему. Кэш второго уровня связан с буфером TLB 64-битной шиной, а с L1 - 256 битной с пропускной способностью 108 ГБ/с. Вопреки слухам trace-кэш не увеличился: он все также отслеживает 12 тысяч микроопераций. Поскольку каждая микрооперация вовсе не обязательно равна 1 КБ, то было бы некорректно говорить об объеме trace-кэша. Он содержит уже предсказанные с учетом условных переходов инструкции в порядке их поступления на исполнительные блоки и выдает по 3 инструкции за такт. Поскольку количество исполнительных блоков не изменилось, то особого смысла увеличивать trace-кэш нет.

Prescott имеет 2 блока ALU, работающих на удвоенной частоте для простых инструкций, один для сложных, FPU с поддержкой SSE3, блок для сдвиговых операций с плавающей точкой и 2 AGU - вычислительных блока, которые высчитывают адрес хранимых и загружаемых команд. Итого 7 вычислительных блоков.

Зато удалось доработать ALU, которое состоит из 2 блоков, работающих на удвоенной частоте и одного на обычной. Так вот, первые два блока умеют совершать операции только с простыми инструкциями. Операции сдвига естественно считаются сложными операциями и поэтому выполняются на втором блоке с обычной частотой. В Prescott был добавлен специальный блок, который позволяет исполнять функции shift и rotate на «двухскоростном» блоке ALU. Кроме того, ускорена операция целочисленного умножения, которая позволила уменьшить imul latency. Для этого выделен специальный блок в FPU.

Более удачной компоновки ядра по сравнению с Northwood компании Intel удалось достичь за счет применения автоматической трассировки блоков ядра. Теперь ядро немного вытянулось в длину и не имеет четких граней отдельных блоков. Это характерный пример автоматического дизайна ядра, когда соединения между блоками очень хитро переплетаются. Такой метод позволил разместить схожие и работающие одновременно или последовательно блоки разместить вместе, чтобы не было задержки передачи сигнала из одного блока в другой.

Кэш-память


Кэш-память Prescott претерпела достаточно много изменений по сравнению с другими блоками. Кэш-память, как известно, может достаточно сильно влиять на производительность процессора в зависимости от типа исполняемых операций, однако ее увеличение вовсе не обязательно принесет увеличение общей производительности работы процессора. Все зависит от того, насколько приложение оптимизировано под данную структуру и использует кэш, а также от того, помещаются ли различные сегменты программы в кэш целиком или кусками.

Впервые за долгое время, был изменен кэш первого уровня. L1 для данных «разросся» до 16 КБ. Это оказалось весьма кстати, ведь размер исполняемых команд увеличился. L1 уменьшает задержки в работе блока быстрого исполнения благодаря применению новейших технологий доступа. Вместе с увеличением объема увеличилась ассоциативность L1 до 8 каналов (путей). Это усложняет кэш, но позволяет более оптимально его использовать. Для сохранения размера блоков по 2 Кбайта в кэше вместе с удвоением объема следует увеличить и ассоциативность.

Размер L2 также увеличился вдвое и стал равен 1 МБ. В принципе, эта мера может немного поднять общую производительность. При увеличении объема кэш-памяти увеличивается и процент попаданий в кэш, но даже в случае непопадания это приносит не такие уж большие потери. Для некоторых мультимедийных приложений эта мера может поднять производительность до 10-15 % с учетом оптимизации приложений.

«Обратной стороной медали» стало значительное увеличение латентности кэш-памяти при увеличении ее объема. И если латентность L1 выросла незначительно (на единицы тактов), поскольку объем L1 очень мал, то латентность L2 выросла с 7 тактов до 18, при том, что ассоциативность осталась равна 8! В случае, если выборка будет производиться только из L2 (данные будут целиком помещаться в L2), то ее латентность значительно повлияет на производительность, естественно, в худшую сторону.

Одна из причин удвоения объема кэшей - это необходимость согласовать работу удлиненного конвейера с кэш-памятью. Поскольку L1 и L2 синхронны, то для увеличения частоты ее также нужно «поделить» на большее число квадрантов. Немного скрасить значительно увеличившуюся латентность L2 позволяет улучшенная предварительная выборка данных в L1. Теперь блок Prefetch не только выбирает нужную страницу с данными, но и может обновлять страницы памяти в TLB.

Усовершенствования и HT


Помимо всего выше перечисленного, в Prescott была улучшена технология Hyper-Threading. И похоже это удалось компании Intel без огрехов - понижения производительности из-за нововведений быть не может. Зато при должной оптимизации приложений возможен неплохой прирост. Тем более, что предпосылки для этого есть: увеличенная кэш-память второго уровня будет эффективнее снабжать несколько потоков данных, а латентность L2 при много поточности будет не так заметна.

При оптимизации HT были использованы несколько новых инструкций, таких как monitor и mwait. Они позволяют лучше контролировать активные потоки и «усыплять» ненужные. Конвейер Prescott был специально изменен для большего параллелизма. Разработчики ввели понятие асинхронных потоков, которые делятся на главный и виртуальные (вспомогательные). Главный поток выполняется с наибольшим приоритетом, а виртуальные меж собой переключаются и чередуются. Таким образом, можно добиться наибольшего распараллеливания. Кроме того, разработчики добавили несколько межстадийных буферов для оптимизации потоков.

Ну и наконец, кроме всех этих усовершенствований изменилось и управление питанием в новом Prescott. Видимо повлияла общая тенденция конвергенции мобильных и сетевых возможностей в настольные процессоры. В принципе эта новая возможность Prescott очень напоминает Pentium M. Теперь процессор имеет 4 режима пониженного энергопотребления, когда «засыпает» разное количество функций. Первый режим - AutoHALT - это стандартное приостановление работы с экономией энергии на синхронизации всяких служебных сигналов. Для этого традиционно используется SMI (System Management Interrupt). При подаче SMI# процессор входит в режим системного управления SMM. В этом режиме при подаче асинхронного сигнала STPCLK# (не влияет на FSB) процессор может войти в Stop-Grant State - режим, когда приостанавливает тактирование всех блоков процессора сигналом BCLK, кроме самой FSB и APIC, за счет чего экономится энергия. При этом продолжается слежение за FSB и разрешены прерывания. Тем не менее BINIT# (инициализация FSB) не обслуживается, вызовы по шине не способны вывести процессор из режима пониженного энергопотребления, они буферизуются и исполняются по «просыпании» - переходе в режим HALT/Grant Snoop State. В этом режиме может прийти сигнал SLP#, который переводит процессор в «спящее» состояние (Sleep State). В этом режиме разрешены только сигналы SLP и RESET#, и хотя BCLK активен, никакие транзакции, выставления сигналов и слежение за шиной не разрешены. Инициализацию сигнала SLP# для выхода из спящего режима может вызвать только другой асинхронный сигнал на шине.

Для уменьшения шума при охлаждении кулером процессора разработаны новые спецификации теплового профиля. В его рамках был определен параметр Tcasemax для различных уровней рассеивания энергии. Так для мощности рассеивания 2 Вт должна соответствовать температура корпуса - 44°С, а для 104 Вт - 73,5°С. Суть этого метода в том, что был определен новый параметр TCONTROL, опираясь на значение которого можно управлять скоростью вращения вентилятора и, соответственно, влиять на шум, производимый кулером. Данные сообщаются термодиодом на термодатчик, который находится на материнской плате. Если параметр TCASE в пределах спецификаций (от TCONTROL и до TCASEMAX) профиля, то скорость работы вентилятора не отличается от обычной. Если же значение температуры корпуса ниже TCONTROL, то число оборотов вентилятора можно снизить.

Процессоры Pentium 4 всегда славились хорошей защитой от сгорания. Для этого в Prescott используется сигнал THERMTRIP#. Когда он становится активным (температура превышает TCASEMAX на 20 градусов), то VCC убирается. Также был введен новый сигнал PROCHOT#, который позволяет контролировать достижение максимальной рабочей температуры кристаллом процессора. Это значение откалибровано для каждого блока процессора отдельно в зависимости от их мощности рассеивания. Поскольку увеличение температуры всегда связано с увеличением потребления тока, то при большой загрузке процессора в пиковых режимах он может повредить VRM, заставляя его выдавать непредназначенные для того напряжения. Для защиты VRM как раз можно использовать сигнал PROCHOT#. Что отрадно, для удовлетворения новых требований по тепловыделению не потребуется использовать новые системы охлаждения - со своей задачей вполне справляются и старые боксовые кулеры.

Набор команд SSE3


Немаловажной деталью в Prescott стало применение расширенного набора команд SSE3, ранее известного как PNI (Prescott New Instructions). Естественно, преимущества этого набора команд будут очевидны только после перекомпиляции программ под SSE3. Этот набор SIMD-расширений позволяет сразу более удобно оперировать 4 парами операндов, особенно при работе с комплексными числами. Есть команды для преобразования чисел с плавающей точкой с десятичный формат (fisttp), кодирования видео (lddqu), новые команды, предназначенные для обработки графической информации (массивов вершин), а также две инструкции, предназначенные для синхронизации потоков в HT (mwait и monitor). В принципе, все эти команды совместимы с существующим ПО и ОС, но после перекомпиляции этих приложений ожидается 5%-ный прирост производительности. Среди таких приложений - MainConcept, xMPEG, Ligos, Real (RV9), On2 (VP5/VP6), Pegasys TMPGEnc 3.0, Adobe Premier, Pinnacle, Sony DVD Source Creator, Ulead (MediaStudio & Video Studio), Intervideo и другие, использующие кодек DivX 5.1.1, скоро будет перекомпилирован Unreal Tournament II.

Чипсеты


Уже сейчас новый процессор не может пожаловаться на плохую поддержку со стороны чипсетов. Возможно это плюс для нового процессора, что первоначально он вышел с поддержкой уже давно имеющего разъема и унаследовал много особенностей от своего предшественника. Вот чипсеты, которые по своим характеристикам поддерживают Prescott:

  • ATI Radeon 9100IGP
  • Intel 848P, 865P, 865G, 865PE, 875P
  • SiS 655FX, 655TX
  • VIA PT800, PT880.

Тем не менее, поддержка чипсетами вовсе не означает, что все существующие материнские платы будут нормально работать с новинкой. Далеко не все производители плат следовали спецификациям Intel по VRM, пытаясь сэкономить то на трехфазных выпрямителях, то используя более дешевые компоненты, за счет чего пиковый ток в 91 A для топовых моделей может просто не выдерживаться. I875 все также остается самым мощным и быстрым. Гарантирована совместимость с платами ASUS P4C800 и P4P800, остальные платы могут «завестись» после обновления BIOS.

В скором будущем планируется выход чипсетов, поддерживающих Prescott нового степпинга. Это Alterwood и Grantsdale с поддержкой памяти DDRII, PCI Express, южного моста ICH6 и системной шины 1066 МГц. В апреле предполагается появление i915.

Революция или эволюция?


Ну что ж, настало время подвести кое-какие итоги и определить, оправдал ли ожидания Prescott. Скоре всего, большинство он разочаровал. Процессор, которому прочили звание процессора нового поколения - Pentium 5 - оказался лишь технологическим развитием старой линейки Northwood. Тем более, что стартовал он на тех же частотах, что и его предшественник, выполненный по техпроцессу 0,13 мкм. Но неужели все так плохо? Нет, на самом же деле, Prescott просто получился очень неоднозначным процессором. Прогрессивная архитектура, новые технологии производства, оптимизированные функциональные блоки, невысокая цена сочетаются с производительностью, примерно равной или даже меньшей, чем у аналога Northwood. В чем же причина такого странного позиционирования новинки?

Все очень просто - практически все особенности Prescott, которые неблагоприятно влияют на его производительность, связаны с одной единственной необходимостью поднимать частоты процессора. Если с «проблемой 90 нанометров» компания достаточно успешно справилась, используя новые разработки и материалы, то для получения больших частот Intel пошла по старому проторенному пути - удлинению конвейера и одновременно увеличению кэш-памяти L2, что и привело к многим отрицательным эффектам. Практически все остальные усовершенствования призваны как-то нивелировать те проблемы, которые принесло данное решение. Так, увеличение кэш-памяти первого уровня вместе с улучшением предвыборки в кэш следует записать в несомненный плюс, а увеличение кэша L2, повлекшее значительный рост его латентности может как негативно сказываться на производительности, так и порой давать некоторый выигрыш. В приложениях, критичных с объему кэш-памяти (вычисления типа Spec, большие базы данных, CAD/CAM-системы), объем будет превалировать над производительностью, а в играх, которые также очень критичны к памяти, содержится большое количество ветвлений, которые мешают хорошей предвыборке в L1 и тормозят из-за латентности L2. В то же время, увеличение L2 стало важным шагом, позволившим поднять эффективность HT. Множественные микроархитектурные улучшения позволяют выигрывать в ряде задач, но реально разница в производительности будет заметна, к сожалению, только после перекомпиляции большинства программ с учетом нового кэша, улучшенного предсказания ветвлений, оптимизированного HT и использования инструкций SSE3. Сейчас же Prescott показывает себя лучше Northwood, к примеру, в приложениях, использующих видеокодирование, 3D-моделирование, а такжев архиваторах. И тут Intel постаралась: уже вышел новый Intel C++ Compiler 8, который предоставит новые возможности по оптимизации процессоров.

Пока же в некоторых мультимедийных приложениях и вычислениях с плавающей точкой прирост производительности может достигать 10-12%, а в некоторых играх - отставание до 5% от Northwood или паритет со старым ядром. Несмотря на все это, можно считать, что новая линейка удалась - наконец, осуществлен переход на новый техпроцесс, создана платформа для интегрирования новых технологий (в Prescott встроена поддержка LaGrande, а может быть и Vanderpool), существующие усовершенствования при должной оптимизации себя проявят, но только в будущем.

Зачем было создавать такой неоднозначный CPU - похоже «для продолжения рода», создания 90-нм плацдарма. Многие ассоциировали переход на новый техпроцесс с новыми горизонтами масштабируемости и разгона новых кристаллов, но здесь пока все не так просто. По собираемой статистике, разгонный потенциал нынешних Prescott (степпинг C0) лишь на 100-200 МГц больше Northwood, 4ГГц на воздушном охлаждении остаются пока несбыточной мечтой. Это означает, что существующее ядро Prescott вовсе не окончательное, а переходное. И служит оно для создания временного запаса для технологов Intel, которые за это время успеют справиться с «детскими болезнями» нового ядра. С переходом на новый разъем LGA775 нас ждет очередная премьера, которая официально не будут такой яркой, как 2 февраля, но в технологическом плане значить будет гораздо больше.

Несмотря на цены, идентичные Northwood, Prescott пока не представляется оптимальной покупкой, в то время как Northwood 3.40С и его "экстремальный" вариант, похоже, останутся лучшими процессорами для Socket 478. Ну а будущее технологий так или иначе за Prescott…

Введение


Подготавливая большой обзор модулей DDR500, я осознал, что "не все так просто" с оперативной памятью. И, начав в процессе раздумий делать некоторые заметки для себя лично, понял, что тема теоретической базы разгона памяти (в первую очередь оперативной, но также и видео) достойна более полного раскрытия, нежели пара скупых строк в описании методики тестирования... Так и появился, совершенно неожиданно и в течение одного дня, этот материал. Кроме собственно информации об основах разгона памяти, в тексте сообщаются некоторые полезные (надеюсь) факты относительно поведения тех или иных продуктов, с которыми мне хотелось бы поделиться с читателями, но ранее не находилось повода...

Однако боюсь, что тема, так ненарочно мною затронутая, оказалась весьма обширной и сложной. Я предполагаю, что по многим пунктам материал вызовет дискуссию. Поэтому сразу приглашаю в соответствующую ветку форума всех желающих высказаться по теме. Мой e-mail также открыт для Ваших писем.


Почему чипы памяти при одинаковых стандартных характеристиках так сильно различаются в работе (сравните, например, поведение Winbond BH-5 и Hynix 43!) - на это сложно найти ответ, даже на неделю углубившись в изучение datasheet'ов...

А вот если отвечать на вопрос "как разгоняется память" с точки зрения простого оверклокера, то картина будет попроще. Наверное, материал можно было бы назвать по аналогии "Разогнать все, или память глазами шамана, непосвященного в инженерные тонкости" - я попробую объяснить максимально простыми словами и кое-где не самыми научными методами, но доказавшими свою практическую эффективность, в чем заключается сложность в вопросе разгона памяти и как можно улучшить потенциал модулей. Иными словами, "кто виноват и что делать"... Рассуждения будут с многочисленными и кое-где пространными примерами, поэтому для экономящих время в конце каждого подпункта имеется его тезисное изложение.
Заранее прошу ценителей чисто инженерного подхода меня простить. Конструктивную критику (с рекомендациями по улучшению) с благодарностью приму на e-mail.

На мой взгляд, есть семь основных параметров, которые отвечают за разгонный потенциал конкретной планки:

  • производитель и модель чипов,
  • тайминги,
  • напряжения,
  • качество РСВ,
  • содержимое микросхемы SPD,
  • используемый контроллер памяти,
  • охлаждение.

Ниже мы разберем подробно каждый из них.

Кстати, наше большое счастье в том, что оперативная память и видеопамять работают немного по-разному, и разброс результатов для оперативной памяти хотя бы в пределах модулей с одинаковыми чипами все же не такой большой... Зато видеопамять легче использовать в качестве примеров, так как они выходят ярче :) В любом случае, общий принцип работы у видео- и оперативной памяти одинаков и шесть из семи параметров (кроме контроллера памяти), о которых пойдет речь, влияют на оба типа памяти. Поэтому я посчитал нерациональным обсуждать разгон только оперативной, или только видеопамяти, и сгреб все в одну кучу... Я не затрагивал вообще Rambus RDRAM по причине малораспространенности и небольшого личного опыта работы с ней, а также поведение DDR-II в модулях оперативной памяти в связи с почти полным отсутствием информации по этому вопросу. На видеокартах же DDR-II (GeForce FX 5700Ultra/5800/Ultra, Radeon 9800 Pro 256Mb) и GDDR-II (XGI Volari Duo V8 Ultra) ничем особенным, кроме повышенного нагрева, себя не проявила.

Небольшое примечание. Все данные о частотах работы модулей оперативной памяти, если нет особого указания на обратное, приводятся для самого жесткого варианта - платформы Intel при двухканальном доступе к памяти.

Производитель и модель используемых чипов


Первым у нас идет самый страшный из семи параметров, ибо итог выходит совсем антинаучным...

Разные чипы имеют разный потенциал, это очевидно. Конечно, в первую очередь это зависит от показателя времени доступа, выражаемого в наносекундах (нс) и являющегося одним из ключевых параметров микросхемы памяти. Но! Зависимость, так сказать, "нановости" и рабочей частоты весьма жесткая, по принципу обратной пропорции.
А вот подобного единодушия среди чипов памяти нет и в помине.

Взять, к примеру, "икону" оверклокерской памяти под названием Winbond BH-5 и очень популярные у нас Hynix 43. Оба чипа по стандарту являются DDR400, то есть время доступа составляет 5 нс. Кратко сравним их поведение. Winbond отличаются способностью держать минимальные тайминги 2-5-2-2 до частот около 230МГц при напряжении 2.8-2.9В; а с дальнейшим ростом напряжений продолжают адекватно расти, будучи способными дойти до 260-270МГц на все тех же таймингах! Зато разница между максимальной частотой, достижимой на 2-5-2-2, и максимальной частотой на любых более высоких таймингах составляет всего пару мегагерц. Между прочим, только на винбондовских чипах можно настолько не задумываться о напряжениях - они выдерживают даже экстремальные 4В. Теперь что касается Hynix 43: с таймингами у них "все в порядке", то есть 2-5-2-2 не держат даже на DDR400, зато с ростом таймингов и максимальная частота растет значительно. И в ней и кроется аномалия - с "плохими" таймингами Hynix 43 начинают успешно заменять DDR500, стабильно работая на частотах 250-270МГц при напряжении 2.8-2.9В, и еще немного выше при дальнейшем росте. Прошу отметить, что это штатные частоты для 4 нс памяти, но никак не 5 нс!

Приведу другой характерный пример с видеопамятью: чипы Infineon 3.6 нс практически невозможно заставить работать свыше 300(600)МГц никакими ухищрениями в виде диких напряжений, в то время как Hynix с таким же временем доступа и на карте с идентичным дизайном PCB показывают результаты в среднем на 25(50)МГц выше!

Некоторые чипы любят низкие тайминги (и снова BH-5), в то время как большинство не способно на них работать, зато хорошо масштабируются по тактовой частоте... К сожалению, энтузиастам приходится оперировать только данными, полученными эмпирическим путем (для примера приведу статью "Статистика разгона видеопамяти" на нашем сайте). Впрочем, тут же я могу сразу же внести и поправку, прилично портящую всю идею сбора подобной статистики, просто дав ссылку на собственный материал о разгоне 16 карт Radeon 9800 Pro. Дело в том, что при абсолютно идентичных микросхемах Samsung с временем доступа 2.86 нс (маркировка 2A, используемые в GF4Ti 2B это 2.94нс-чипы), минимальной частотой оказались 347(695)МГц, максимальной - 405(810)МГц. Как вам такая "средняя температура по больнице"? Еще хуже вышло с показателями 2.8 нс микросхем от другого корейского производителя, Hynix. Пока что мы встречались с тремя картами на идентичных РСВ (GeForce FX 5900XT), использующими эти чипы. При штатной (по спецификациям) частоте 357(714)МГц, реальными частотами оказались... 415(830), 435(870) и 480(960)МГц, соответственно, то есть в третьем случае аж на СОРОК процентов выше нормы! Точность предсказания поведения конкретной карты по такому разбросу будет похожа на наведение ядерных ракет с точностью прицела "плюс-минус страна"... К счастью, с оперативной памятью все немного проще и зачастую разброс очень скромен, однако принципиально вопрос от этого не снимается аж никак.
В качестве иллюстрации приведу пример с чипами Hynix. Так называемые Hynix 43, чипы стандарта DDR400, как правило имеют бОльший потенциал разгона по частоте, чем пришедшие им на смену Hynix D5, "настоящие" DDR500. Неудивительно, что Corsair в своих модулях XMS4000 использует более надежные старые Hynix 43, несмотря на значительное превышение официальных спецификаций.

Кстати, есть еще такое понятие, как отбор чипов. К примеру, GeiL для модулей DDR500 и DDR533 использует одни и те же 3.5нс чипы собственного производства, но на старшую модель чипы отбираются вручную. В итоге по статистике DDR533 действительно работает на более высоких частотах, нежели DDR500. Поэтому указание вроде "hand-picked" в спецификации должно являться исключительно положительным моментом.

Итого: ответ на вопрос о причинах разного потенциала идентичных по характеристикам чипов от разных производителей покрыт мраком тайны... Точнее на уровне учителя начальной школы ("Курица переходит дорогу для того, чтобы перейти на другую сторону") ответ как раз очевиден: "Каждый производитель использует свои алгоритмы работы чипа, так что все приходят к одному стандарту разными путями". Ответ абсолютно верен, но и не менее бесполезен в реальной ситуации - не существует никакого, по крайней мере доступного простым смертным, метода определить эти самые "внутренние алгоритмы работы", чтобы решить наконец, чьи чипы объективно лучше по своему потенциалу.
Посему мы вынуждены смириться с тем, что руководствоваться в выборе чипов возможно только статистическими данными. Составить представление о поведении тех или иных чипов памяти в разгоне можно, лишь изучив несколько источников.


Тайминги


Таймингами называют временные характеристики чипа памяти, определяющие задержки при проведении определенных действий. Кроме четырех ключевых и привычных для пользователей CAS Latency, RAS Active Time, RAS Precharge Time и RAS to CAS Delay (те самые сакраментальные 3-8-4-4 или 2-5-2-2), в характеристики чипов памяти входят еще очень немалое их количество. Платы на платформе AMD64, вызывающие восторг пользователей возможностью "подкрутить" с десяток таймингов, резко блекнут на фоне все одной цифры: реальное количество только основных таймингов около 30 штук.

Уменьшая тайминги, мы увеличиваем производительность подсистемы памяти, но снижаем потенциал разгона чипов.

И в данном случае самое важное - найти баланс между максимальной частотой и минимальными таймингами, тот идеальный режим работы, который позволяет достичь наилучших результатов.

Как хрестоматийный антипример связи частоты и таймингов, еще раз приведу культовые Winbond BH-5: работая почти до предела частот на 2-5-2-2, они не реагируют должным образом (увеличением разгона по частоте) при повышении таймингов. Практически все остальные чипы на 2-5-2-2 работать не способны вообще, зато с повышением таймингов и по частоте масштабируются успешнее.

Немного упрощает ситуацию одна тенденция - даже при солидных колебаниях рабочей частоты в зависимости от экземпляра, у модулей на идентичных чипах обычно всегда одинаковы минимальные тайминги.

Кстати, давно замечено, что из четырех таймингов два ведут себя более "капризно", при низких значениях ограничивая разгон или делая невозможным даже прохождение POST. Причина сильного влияния на разгон параметра CAS Latency очевидна, как-никак ключевой показатель. Но RAS to CAS Delay оказался еще более придирчивым - именно из-за него практически все модули неспособны запускаться на заветных 2-5-2-2 даже на DDR400, требуя выставления RAS to CAS на "3", а при дальнейшем разгоне - на "4". RAS Active Time, наоборот, самый непритязательный тайминг и зачастую даже при работе на предельно возможной частоте его можно снизить с "8" или "7" до "6" и даже "5".

Вопрос баланса производительности "тайминги/частота" очень комплексный, достойный подробнейшего изучения в отдельной статье (да и в Сети немало материалов на эту тему), но если кратко, то этот баланс вдобавок еще и платформозависимый. Классические 32-битные Athlon слабо реагируют на смену таймингов. На современные системы на базе Intel одинаково хорошо влияют и высокая частота, и низкие тайминги - это самый сложный случай. А вот Athlon64/FX получает огромный прирост при снижении таймингов, что скорее всего связано с интеграцией контроллера памяти непосредственно в процессор - оперативная память становится очень конкретным "бутылочным горлышком".

Итого: определяя максимальный разгон по частоте "в лабораторных условиях", желательно установить максимальные тайминги для обеспечения чистоты эксперимента. В реальной жизни искать баланс производительности "тайминги/частота" придется, скорее всего, самостоятельно, так как никакие тестирования не способны охватить весь спектр возможных платформ, частот и таймингов. Поиск такого баланса - одна из ключевых задач каждого, кто стремится повысить производительность компьютера путем разгона.

Напряжения


Поднимая питающие напряжения, мы повышаем потенциал работы памяти (в плане предельной частоты, а в некоторых случаях и минимальных таймингов). Именно "напряжения", во множественном числе, так как есть более чем одно напряжение, подаваемое на чипы памяти. Если есть возможность повышать, кроме основного напряжения, также и остальные - желательно это делать, но соблюдая меры предосторожности. Это должно помочь в разгоне, но неаккуратный подход (в виде экспериментаторства с этими дополнительными напряжениями) с большой долей вероятности приведет к несчастью для подопытного устройства.

Между прочим, из-за ошибки в разводке, ABIT IC7-MAX3 при установке "основного" напряжения Vdimm свыше 2.8В (2.9-3.2В) сбрасывает одно из дополнительных напряжений на уровень, соответствующий уровню при Vdimm = 2.5V. Таким образом эффект от повышенного напряжения падает (что исправляется очередным вольтмодом).

Возвращаясь к напряжениям, хочу отметить, что не все чипы одного стандарта одинаково масштабируются при росте напряжения! Это можно заметить, изучив диаграммы в обзоре DDR500. Но в целом, рост есть и достоточно адекватный.

Повышать напряжение можно тоже не бесконечно. Пределом по спецификациям являются обычно 2.9В, именно поэтому большинство производителей материнских плат делают это значение максимально возможным для выставления через BIOS.
Почти все "оверклокерские" модули (и качественные "обычные") способны без особого для них риска работать на напряжении до 3.1-3.2В в качестве постоянного. Для чипов Winbond (по ним накоплена огромная статистика в плане толерантности к напряжениям) например, этот параметр смело можно повышать до 3.3-3.4В, вот только для получения выше 3.2В в любом случае потребуется модификация блока питания.
На краткие периоды в тестовых целях, при должном охлаждении, напряжения поднимают даже до 3.6-4.1В (!). Если вы не готовы рисковать памятью ради высоких результатов, повторять такие эксперименты я крайне не советую. При этом (я ориентируюсь на платформу Intel) можно получить, например, частоты выше DDR600 на памяти типа DDR500, или DDR533 с таймингами 2-5-2-2 на (опять и снова;)) Winbond BH-5.
Между прочим, ни при каких напряжениях нельзя заставить нынешние чипы DDR500 работать на этих самых DDR500 на таймингах 2-5-2-2. Сила DDR500 в высоких частотах, и используя такие модули можно лишь постараться снизить тайминги по возможности, но не в ущерб частоте!

Видеокарты, "как всегда", демонстрируют тенденции в работе памяти в самом гипертрофированном виде. Рост частот памяти для видеокарт на R300/350 наблюдался примерно до Vmem = 3.2-3.4В. При этом редкие платы (внешне ничем не отличающиеся от других!) могли повышать потенциал аж до Vmem = 3.8-4.1В, конечно с большим "риском для здоровья", но все же. А вот на Radeon 9800XT вследствие, вероятно, особенностей реализации схемы питания, выше Vmem = 2.9В никакого прироста нет.

Итого: здесь все сравнительно просто. Кроме нескольких исключений, память реагирует на повышение питающего напряжения примерно адекватным ростом тактовой частоты. Вольтмоды - одни из лучших друзей оверклокера, стремящегося получить максимум из системы.

Дизайн РСВ


С нынешним уровнем технологии, плохо изготовить сравнительно примитивную печатную плату для планки памяти будет непросто. Так что скорее стоило бы говорить о повышенных результатах при использовании особых ухищрений в дизайне, вроде серии GeiL Golden Dragon с вообще ни на что не похожей РСВ. Однако, такой "творческий подход" радикально ничего не меняет, принося лишь несколько увеличенную стабильность работы. Для оперативной памяти изыски с РСВ являются только приятным бонусом.

Зато резко негативно на разгоне сказывается наличие "усложняющих" элементов - дополнительных микросхем, имеющихся на памяти с механизмом коррекции ошибок (ECC) и регистровых (registered) модулях. Кроме падения производительности по сравнению с обычными модулями аналогичного стандарта, ECC и Registered снижают потенциал разгона. И ничего страшного в этом бы не было (кому нужен разгон серверной памяти?), если бы не AMD с ее Athlon FX. Платы на Socket 940 поддерживают установку только таких модулей - это портит жизнь оверклокерам, зато приносит прибыль производителям: в модельных рядах OCZ, Corsair, Mushkin появились совершенно нехарактерные позиции в виде "оверклокерских" регистровых модулей.

Совсем другое дело видеокарты. Здесь от дизайна PCB разгон памяти зависит очень сильно. Неряшливость разработчика может дорого стоить оверклокерам, снижая потенциал разгона.

Взять к примеру ATI Radeon 9800 Pro 256Mb, на которые устанавливают DDR-II чипы. Двухнаносекундные Samsung, прекрасно работающие на частотах 525-550(1050-1100)МГц и выше на картах GeForce FX5800/Ultra и 5700Ultra, на продукте ATI еле-еле дотягивают до 400(800)МГц, что значительно ниже даже их штатной частоты в 500(1000)МГц. Причина такого поведения - в на тяп-ляп разработанном дизайне платы, созданном для втискивания в него еще восьми 32Мб чипов. Второй пример - наш эксперимент по трансплантации на плату Radeon 9500 non-Pro (256bit) 2.5нс-чипов Hynix от GeForce FX5600Ultra вместо установленных 3.6нс Infineon. Несмотря на штатную частоту по спецификациям в 400(800)МГц, реально частоты выше 351(702)МГц мы добиться не смогли.

Итого: для разгона оперативной памяти влияние используемой PCB является факультативным фактором. А вот упрощенный (многие бюджетные карты) или некачественный (R9800Pro 256Mb) дизайн печатной платы становится серьезным препятствием на пути к большим мегагерцам.

Содержимое SPD


Пожалуй, это самый простой пункт из семи. Как известно, в EEPROM-микросхеме SPD, устанавливаемой на модули памяти, зашиты все данные про модуль. Так вот, иногда содержимое SPD может не позволить снизить тайминги ниже определенного предела. Подобные предупреждения содержатся, например, на сайте OCZ Technology, производителя "оверклокерской" памяти.
К сожалению, с этим ничего сделать невозможно. Следует просто иметь в виду, что прошитая в SPD информация бывает ограничивающим фактором.

На видеокартах SPD отсутствует и его заменяет BIOS. В нем также указываются различные условия работы памяти. Поэтому иногда можно добиться большего результата в разгоне видеопамяти, перепрошив другой BIOS. Особенно это помогает владельцам карт на чипе R300 (Radeon 9500/9700), когда на едином дизайне PCB существуют карты с множеством вариантов чипов памяти (от Infineon 3.6ns до Samsung 2.8 ns). Смена BIOS на аналогичный от карты с другими чипами в некоторых случаях помогает раскрыть потенциал чипов, повысив предел разгоняемости. Это справедливо и для других видеокарт, R300 лишь самый яркий пример. Увы, отсутствует общий принцип, по которому можно определить, что смена BIOS поможет в разгоне. Можно лишь посоветовать начинать эксперименты, если вам кажется, что память на карте работает слабовато.

Итого: на некоторых модулях прошитая в SPD информация может ограничивать минимальные тайминги, но увы, это неисправимо. При плохом разгоне памяти видеокарты следует попробовать другие версии BIOS.

Контроллер памяти


На разгон модулей оперативной памяти также влияет связка "материнская плата + процессор", а точнее - используемый контроллер памяти.
В принципе, главным образом влияние оказывает наличие двухканального доступа к памяти. В таком режиме разгонный потенциал модулей резко падает. Именно поэтому самые счастливые сегодня люди в этом плане - обладатели Athlon 64 (не-FX). Они могут получить без потери производительности (А64 все равно имеет одноканальный контроллер) высочайшую частоту работы памяти. Скажем, почти непреодолимые на двухканальной платформе Intel DDR600 (а делать такие вещи в одноканальном режиме не очень то и хочется, падение производительности очень приличное), для AMDшников особых проблем при прямых руках не составляют.
Если сравнивать разные двухканальные чипсеты, то разница разгона памяти в таком режиме между, скажем, Canterwood и nForce 2 незначительна, если только не ограничивается разгоном самого nForce 2 (выше 250МГц по системной шине этот чипсет заставили работать считанные единицы).

Еще один момент, связанный, кажется, с особенностями контроллеров памяти. На двухканальных чипсетах, особенно под платформу Intel, лучшие результаты достигаются при установке модулей в первый и третий слоты DIMM, а не во второй и четвертый. В любом случае, желательно устанавливать модули всегда в самые ближние к процессору слоты, как того позволяет конструкция материнской платы.

Видеокарт данный фактор не касается в принципе.

Итого: при двухканальном доступе к памяти предел разгона оперативной памяти снижается, что конечно же компенсируется ростом производительности.

Охлаждение


Фактор, который пошел бы одним из первых, описывая я разгон процессоров или графических ядер, во влиянии на потенциал работы современной памяти играет очень второстепенную роль.

Дело в том, что память DDR слабо реагирует на изменение температуры. Если нет серьезного перегрева, то усиленным охлаждением можно достичь лишь весьма небольших улучшений в разгоне. Особенно это заметно на оперативной памяти, которая совершенно одинаково работает с радиаторами и без таковых. Разве что на частотах от DDR550 я бы рекомендовал устроить хоть какой-нибудь обдув модулей, просто ради душевного спокойствия.

Теперь что касается видеокарт. Пассивные радиаторы на чипах уже стали почти стандартом. А карты с памятью стандартов DDR-II и GDDR-II вообще не могут обходиться без радиаторов из-за высокого нагрева чипов.
Если вы практикуете вольтмоддинг, то крепление радиаторов на видеопамять будет вообще почти обязательным требованием. С другой стороны, никаких бОльших мер принимать необходимости нет - даже "великие гуру" не используют ничего, кроме радиаторов с дополнительным обдувом обычным вентилятором. Водяное охлаждение и даже более экстремальные методы не дают практически никакого прироста для памяти корпусировки BGA. Уточнение сделано специально: многие с ностальгией вспоминают времена GeForce 3, когда хорошее охлаждение TSOP-чипов (желательно с минусовыми температурами) давало отличный результат.

Итого: вопрос охлаждения для оперативной памяти не стоит. Стандартные теплорассеиватели + обдув вентилятором это максимум, который может пригодиться даже при экстремальном разгоне. С видеопамятью на современных картах ситуация аналогична, воздушное охлаждение прекрасно справляется с поставленной задачей.

Справочная информация


Соотношение времени доступа и штатной тактовой частоты чипов памяти выражается очень простой формулой: 1000 / (время доступа в нс) = Тактовая частота SDR, МГц. Для получения привычных DDR нужно полученный результат умножить на 2.
Пример: проверим тактовую частоту у 2.8 нс чипов. 1000 / 2.8 = 357.1МГц. То есть 715DDR.

Аналогичным образом считается обратная операция, определение необходимой памяти для достижения определенной частоты. Формула: 1000 / (тактовая частота SDR, МГц) = Время доступа, нс.
Пример: высчитаем необходимую "нановость" для памяти стандарта DDR500. Для этого делим 1000 на соответствующую SDR-частоту (250МГц). 1000 / 250 = 4 (нс).

А для самых ленивых привожу уже готовую таблицу по соотношению этих двух параметров (указаны SDR-частоты):

8ns, 125 МГц;
7,5ns, 133 МГц;
7ns, 143 МГц;
6,5ns, 150 МГц;
6ns, 166 МГц
5,5ns, 183 МГц
5ns, 200 МГц
4,5ns, 222 МГц
4,3ns, 233 МГц
4ns, 250 МГц
3,6ns, 275 МГц
3,3ns, 300 МГц
3ns, 333 МГц
2,8ns, 350 МГц
2,6ns, 375 МГц
2,5ns, 400 МГц
2,2ns, 450 МГц
2ns, 500 МГц
1,8ns, 550 МГц
1,6ns, 600 МГц
1,4ns, 700 МГц
1,2ns, 800 МГц.

Пожалуй, все основные тезисы, касающиеся особенностей разгона оперативной памяти и памяти видеокарт, я изложил, сообщив при этом бОльшую часть своих знаний (кроме узкопрофильных практических по определенным платформам/картам) в данной области. Уверен, что у читателей найдутся вопросы, пожелания и конструктивная критика моего материала. Высказать свои соображения можно в ветке нашего форума. Если же есть какие-либо дополнения к написанному - их я буду счастлив увидеть в первую очередь.


Статью публикую с некоторым опозданием, но обновлять написанное особой нужды не вижу. Мы продолжаем эксперименты и дальнейшие изменения ситуации в рейтинге уже будут темой следующего материала. А в этой я расскажу, как мы смогли достичь попадания в ТОР-3 мирового рейтинга по 3DMark2001.

Одно из направлений нашей деятельности - участие в соревновании на получение максимального результата в 3DMark2001SE. Несмотря на неофициальность мероприятия и отсуствие какого-либо приза для победителя (кроме морального удовлетворения и признания среди энтузиастов), лучшие оверклокеры мира принимают участие в нем и именно результат 3DMark является общепризнанным индикатором оверклокерского умения.

Немного теоретической информации. Основа "гонки" - онлайновая база данных ORB (Online Result Browser), содержащая около миллиона опубликованных результатов. К сожалению, компания Futuremark перестала публиковать Hall of Fame по 3DMark2001, то есть список 10 лучших результатов рейтинга. Тем не менее, через сервис Search & Compare (для поиска результатов в базе по заданным параметрам) формируется общий рейтинг (то есть поиск по всем результатам независимо от конфигурации системы) и отдельные категории ("Самый быстрый GeForce 4 Ti", "Самый быстрый Radeon 9500", "Самый быстрый AMD32" и т.п.). Наиболее престижным считается попадание на первую страницу общего рейтинга, то есть ТОР-20.


В октябрьском номере "Домашнего ПК" опубликована наша статья об экстремальном разгоне на примере предыдущей инкарнации "гоночного компьютера" от ModLabs.net/ITC.ua. Да, именно так - мы с Лэйком теперь официально работаем в журнале "Домашний ПК" и представляем в ORB как самих себя, так и наш любимый журнал.
Система, если вкратце, представляла из себя такой набор комплектующих:

  • Процессор: Intel Pentium 4 3.2GHz ES @ 4065MHz (14x290, 1.775V)
  • Система фреонового охлаждения: Asetek VapoChill XE
  • Материнская плата: ASUS P4P800/GD (Vddr=3.2V, водяное охлаждение северного моста)
  • Оперативная память: Kingston HyperX PC3500 2x256Mb @ 233 2-5-2-2
  • Видеокарта: Sapphire Atlantis Radeon 9800 Pro @ 520/800 (Vgpu=2.05V, Vmem=3.1V, Vref=1.48V; водяное охлаждение ядра, радиаторы на памяти)
  • Блок питания: Antec TrueControl 550W
  • Система водяного охлаждения: Koolance EXOS
  • Корпус: Asetek VapoChill Titanium


Одной из наших целей было использование только серийных компонентов, никакого самодельства вроде сухого льда и жидкого азота. "Несерийность" ограничена вольтмоддингом и заменой охлаждения (на другое серийное), мы даже оставили систему в корпусе.

С той системой мы достигли результата в 23744 "попугая" в 3DMark2001, 25-е место мирового рейтинга на момент публикации (11.9.2003). К концу октября мы уже вылетели за пределы ТОР-50 и пришлось принимать меры. Для начала, система была несколько модернизирована:

  • Процессор: Intel Pentium 4 Extreme Edition 3.2GHz ES @ 4200MHz (14x300, 1.8V)
  • Видеокарта: Sapphire Atlantis Radeon 9800 Pro @ 550/815 (Vgpu=2.2V, Vmem=3.2V, Vref=1.45V; карта предоставлена компанией "Евро-Плюс")


Как оказалось, слухи о плохой разгоняемости P4EE из-за большого объема кэша L3 - ошибочны. На деле, его потенциал оказался даже выше обычного 3.2C.
О видеокарте разговор отдельный. Компания "Евро-Плюс" любезно предоставила нам возможность отобрать лучший экземпляр среди имеющихся у них Radeon 9800 Pro. В результате мы нашли исключительную карту, работающую в нашей системе на частотах 525/792 без вольтмоддинга. После модификаций частоты поднялись до уровня, подходящего для борьбы за места на вершине.
Система охлаждения дополнилась отдельным водяным охлаждением северного моста материнской платы: 3RSystem Poseidon с позолоченным ватерблоком от Koolance. EXOS теперь трудится только над охлаждением ядра видеокарты.
За время, прошедшее с публикации статьи в "Домашнем ПК", мы не удержались от модификации корпуса от VapoChill. Теперь он называется "Phaseshifter.Two", а рассказ о его создании есть на нашем форуме. Для некоторого улучшения разгона, сессия бенчмаркинга проводилась с открытыми окнами в помещении, при температуре +7С.

Что ж, теперь нам есть чем гордиться... Результат, показанный нами равен 27384 "попугая". Это третье место мирового рейтинга на момент публикации результата (4.11.2003). Впервые за несколько лет существования рейтинга service.futuremark.com в ТОР-10 оказался представитель стран бывшего СССР или Восточной Европы!
Мы доказали, что бороться с западными оверклокерами за рекорды - вполне реальное дело для наших энтузиастов, они не недосягаемы, как кажется при чтении "сводок с фронта" в виде новостей на оверклокерских сайтах.
Еще удивительнее то, что подобравшись так близко к вершине, мы использовали достаточно скромное оборудование, компенсировав недостаток грубой силы умением настройки. Наш результат - единственный в ТОР-10 без фреонового охлаждения ядра видеокарты. В пределах видимости отсутствуют другие пользователи систем VapoChill (более дорогая и эффективная nVentiv Prometeia Mach II абсолютно доминирует в ORB, уступая лишь самодельным или модифицированным системам), не говоря уже об использовании материнской платы на чипсете Intel 865PE (фаворитами энтузиастов являются ASUS P4C800 и ABIT IC7-MAX3)... Если бы у нас был удачный экземпляр Radeon 9800XT, результат также мог быть выше. Но имевшийся ASUS 9800XT разгоняется только до очень скромных 440/760 и потому для бенчинга непригоден:( Кроме того, наша система еще и самая красивая среди техногенных осьминогов членов "No Case Club", каковыми являются 90% экстремальных оверклокеров: мы даже не отключали неонки в процессе бенчинга!;)

Зато на сегодня максимальный результат, показанный на R9800Pro, составляет 28031 (Oppainter) и по признанию самого Оппа, это действительно предел - он очень долго боролся за 28 тысяч на 9800Pro, после чего сразу перешел на XT (буквально через пару часов после того, как мы показали 27384, Опп выложил первые тесты 9800ХТ, около 28700). И то, что мы подобрались так близко к его результату, причем на значительно более простой системе - тоже достижение.

За неделю было сделано три удачных сессии бенчинга.
В первый раз использовалась видеокарта GeiL GT2 Radeon 9800 Pro на частотах 515/785 и процессор, разогнанный до 4150МГц. Результат составил 26106 "попугаев", шестое место на 29.10.2003.
Второй подход, с Sapphire Radeon 9800 Pro @ 560/792 (с одним вольтмодом Vgpu=2.05V, но было очень холодно, что улучшило разгон чипа) - 27105, номер четыре на 30.10.2003. К 4.11.2003 нас уже сместили на шестое...
Третья успешная сессия (в промежутке La1kr0diZ еще значительно улучшил свой рекорд для карт R9500 - с 22100 до 24267, таким образом попав на 38е место в "абсолютном зачете"!) получилась ночью 4.11.2003.

Собственно процесс получения рекорда описать достаточно тяжело, но некоторое представление из нижеописанного получить можно. За пределами описания осталось шаманство и удача как категории, трудно поддающиеся классификации.

Использовалась свежеустановленная операционная система Windows XP SP1, с минимальным количеством работающих сервисов и отключенными "украшательскими" опциями. Драйвера видеокарты - ATI Catalyst 3.6 (6368) с установками на максимальную производительность. По нашим тестам, Catalyst 3.6 демонстрируют лучший результат в 3DMark2001, по крайней мере на Intel + WinXP. Все неиспользуемые во время бенчмаркинга устройства - отключены.

Очередность прохода тестов 3DMark такова:

Car Chase Hi, перерыв 30 секунд для "отдыха" процессора и карты
Lobby Lo + Lobby Hi, перерыв 30 секунд
Dragothic Lo + Dragothic Hi, перерыв 30 секунд
Car Chase Lo, перерыв 30 секунд
Nature на частотах 530/780, для гарантированного прохода.

Полученный результат (около 27000) был недостаточен для наших целей (теперь нам нужно было место в первой тройке, то есть результат выше 27374). Однако известно, что в среднем один из семи-восьми проходов теста Car Chase Lo дает более высокий (на 20-30 FPS) результат. Это не баг, а общепризнанная особенность, которой пользуются все бенчмаркеры в погоне за рекордами. Поэтому частоты видеокарты были возвращены на 550/815 и мы стали ждать "удачного" прохода Car Chase Lo. Через 5-6 перезапусков наши ожидания были отблагодарены прекрасным проходом на уровне 374FPS и общим результатом около 27250 "попугаев".
Тогда мы принялись за Nature. Если вы обратили внимание, то первый раз Nature был пройден на скромных частотах для того, чтобы гарантированно не зависнуть (этот тест всегда зависает первым, на более низких частотах, чем другие). Теперь же от него нам тоже была нужна максимальная производительность. Каждый раз мы поднимали частоты на 5 МГц по чипу видеокарты и памяти, дойдя до 540/815МГц. Именно на этих частотах и был получен результат, в сумме давший 27384 балла, который вы видите на скриншотах и по ссылке в ORB.

Вся процедура (с несколькими зависаниями и перезагрузками), от первого включения системы до получения окончательного результата заняла около часа. После этого La1kr0diZ сменил видеокарту на свой монструозный R9500 и продолжил бенчить на ней. В течении получаса был получен еще более высокий результат для R9500 - 24460. Это вывело Лэйка на 33е место общего рейтинга ORB и 15е командного XtremeSystems TOP-20. Потрясающе высоко для 150-долларовой карты!

Вот собственно, как выглядел TOP-10 рейтинга ORB по состоянию на 28.10.2003, когда мы впервые в нем появились:
27853 OPPAINTER (XtremeSystems.org)
27240 macci (VR-Zone Team)
27217 QuadDamage & Naser (T-Break.com)
26836 **Jason57570** (3DMAXX Team)
26358 Major Slaughter (XtremeSystems.org)
26106 ALT-F13 & La1kr0diZ (XtremeSystems.org)
26058 <> (3DMAXX Team)
25935 Digital Jesus (OCZ Team)
25875 Donebalp (Team Puss)
25803 |RickY| (Techzone Portugal)

Апдейт через два дня, четвертое место:
27853 OPPAINTER (XtremeSystems.org)
27240 macci (VR-Zone Team)
27217 QuadDamage & Naser (T-Break.com)
27106 ALT-F13 & La1kr0diZ (XtremeSystems.org)
26836 **Jason57570** (3DMAXX Team)
26358 Major Slaughter (XtremeSystems.org)
26199 Bowman1964 (XtremeSystems.org)
26058 <> (3DMAXX Team)
26058 Shamino (VR-Zone Team)
25935 Digital Jesus (OCZ Team)


4 ноября, третье место, пока что рекордное:
29263 FUGGER (XtremeSystems.org)
28031 OPPAINTER (XtremeSystems.org)
27384 ALT-F13 & La1kr0diZ (XtremeSystems.org)
27375 Shamino (VR-Zone Team)
27240 macci (VR-Zone Team)
27217 QuadDamage & Naser (T-Break.com)
26836 **Jason57570** (3DMAXX Team)
26770 CHARLIE (XtremeSystems.org)
26358 Major Slaughter (XtremeSystems.org)
26199 Bowman1964 (XtremeSystems.org)

А вот так - 22.11:
29391 FUGGER (XtremeSystems.org)
29189 OPPAINTER (XtremeSystems.org)
28785 Bowman1964 (XtremeSystems.org)
28293 CHARLIE (XtremeSystems.org)
27428 Shamino (VR-Zone Team)
27384 ALT-F13 & La1kr0diZ (XtremeSystems.org)
27344 JCviggen (XtremeSystems.org)
27240 macci (VR-Zone Team)
27217 QuadDamage & Naser (T-Break.com)
27108 MikeM (XtremeSystems.org)

Эти четыре списка прекрасно демонстрируют высокий темп гонки. Хочешь оставаться на верху - придется постоянно работать.

Кстати интерестно, что из десяти лучших результатов рейтинга СЕМЬ принадлежат членам команды XtremeSystems.org (Fugger, Oppainter, bowman1964, Charlie, ALT-F13 & La1kr0diZ, JCViggen, MikeM). Забавно, что находясь на третьем месте общемирового рейтинга, мы одновременно находились и на третьем месте командного ТОР-20! Приятно видеть, что наша команда в очередной раз подтвержает свое звание лучшей 3DMark Team в мире.

К 22.11.2003 нас успел обогнать на 50 "попугаев" Shamino, Charlie продолжает эксперименты с охлаждением FX-51 сухим льдом, большой рывок сделал JCviggen со своей суперсистемой на FX-51 (впрочем, у JC наступила депрессия по причине невозможности опубликовать свой 29200 из-за глюка CPU Speed Variation, 9800ХТ сдох и он сказал, что пока вообще бросает бенчинг - надоело), гуру фреонового охлаждения Bowman1964 тоже перешел на 9800ХТ, а Oppainter (29185) все ближе к Fugger'у (29391)... Мы решили не продолжать в общем-то бессмысленное выжимание последних капель из существующей системы (хотя обогнать Shamino мы бы смогли без особых проблем), а дождаться окончания работ над улучшенным охлаждением и, может быть, сменить еще что-нибудь... И тогда уже бороться за первое место.

От дальнейшего роста на сегодня нас удерживает недостаточный разгон видеокарты (550/408 это скромно по сравнению с 600/435 и 590/465 Fugger'a и Oppainter'а) и использование материнской платы на i865PE (Springdale). Мы продолжаем эксперименты, в ближайшей перспективе - смена охлаждения видеокарты и процессора на самодельные phase-change-системы, сейчас уже собранные и проходящие стадию отладки, и другие модификации. Теперь перед нами стоит задача стать первыми в мире, значительно более трудная, чем поставленная при написании статьи в октябрьском "Домашнем ПК", но нет ничего невозможного и мы будем бороться.

До встречи на вершине!