15/02/2010 - 16:38 [ ]Догадки про NVIDIA Ion 2. Ах, вот что получается...

Как Вы знаете, анонс платформы NVIDIA Ion 2 должен состояться уже очень скоро, и его действительно многие ждут, да и сам графический гигант возлагаетбольшие надежды на свое детище и на возможность захватить хотя бы незначительный кусочек этого лакомого для многих рынка нетбуков. Первой версии Ion это практически удалось, поэтому Ion 2 просто нужно не упасть лицом в грязь в глазах пользователей, и путь будет открыт, учитывая все еще сокрушительно уступающую даже первой ревизии платформы интегрированному ядру от Intel.

Что же нам известно об «Ионе», первое: она будет совместима с последними процессорами Intel Atom D410 и D510, а также и с моделями серии «N». Будет ли поддержка других процессоров? Пока еще не известно.

Предварительные характеристики G310 (ION 2) таковы:

  • 16 шейдерных конвееров @ 625 / 1530 МГц 
  • 40 нм, совместимость с DirectX 10.1 
  • до 512 DDR3/GDDR3 на частоте 800 МГц и 64-битном интерфейсе

А теперь поразмышляем, при интеграции с платформой Pineview графике остается только интерфейс PCI-E x4 для связи с чипсетом и процессором, поэтому бортовой Gigabit Ethernet можно сразу исключить. Вполне возможно, что NVIDIA позаимствует некоторые технологии из NF200 PCI-Express мультипликатора, и применит их здесь, позволяя задействовать меньше полос пропускания. Но остается открытым вопрос, как ограниченная пропускная способность шины DMI между процессором и NM10 PCH справится с  дополнительным потоком данных от GPU.

Поэтому, какой прирост производительности ожидается по сравнению с Ion, нам еще предстоит увидеть. Это все потому, что NVIDIA не имеет лицензии на шину DMI, чтобы создать полноценный чипсет, поэтому нам в 2010 году придется сидеть с 2 портами SATA (как это не абсурдно - ведь процессоры Atom уже значительно "расползлись" по разным нишам, где это ограничение будет очень критично), которые реализованы в Intel NM10, вместо шести портов в первой версии Ion, а ведь он давал дополнительную гибкость производителям, которую возможно было использовать по мере необходимости. 

А пока, ждем, и скоро мы увидим, какие из наших прогнозов оправдались, и какие козыри NVIDIA спрятала у себя в рукаве.