Как Вы знаете, анонс платформы NVIDIA Ion 2 должен состояться уже очень скоро, и его действительно многие ждут, да и сам графический гигант возлагаетбольшие надежды на свое детище и на возможность захватить хотя бы незначительный кусочек этого лакомого для многих рынка нетбуков. Первой версии Ion это практически удалось, поэтому Ion 2 просто нужно не упасть лицом в грязь в глазах пользователей, и путь будет открыт, учитывая все еще сокрушительно уступающую даже первой ревизии платформы интегрированному ядру от Intel.
Что же нам известно об «Ионе», первое: она будет совместима с последними процессорами Intel Atom D410 и D510, а также и с моделями серии «N». Будет ли поддержка других процессоров? Пока еще не известно.
Предварительные характеристики G310 (ION 2) таковы:
- 16 шейдерных конвееров @ 625 / 1530 МГц
- 40 нм, совместимость с DirectX 10.1
- до 512 DDR3/GDDR3 на частоте 800 МГц и 64-битном интерфейсе
А теперь поразмышляем, при интеграции с платформой Pineview графике остается только интерфейс PCI-E x4 для связи с чипсетом и процессором, поэтому бортовой Gigabit Ethernet можно сразу исключить. Вполне возможно, что NVIDIA позаимствует некоторые технологии из NF200 PCI-Express мультипликатора, и применит их здесь, позволяя задействовать меньше полос пропускания. Но остается открытым вопрос, как ограниченная пропускная способность шины DMI между процессором и NM10 PCH справится с дополнительным потоком данных от GPU.
Поэтому, какой прирост производительности ожидается по сравнению с Ion, нам еще предстоит увидеть. Это все потому, что NVIDIA не имеет лицензии на шину DMI, чтобы создать полноценный чипсет, поэтому нам в 2010 году придется сидеть с 2 портами SATA (как это не абсурдно - ведь процессоры Atom уже значительно "расползлись" по разным нишам, где это ограничение будет очень критично), которые реализованы в Intel NM10, вместо шести портов в первой версии Ion, а ведь он давал дополнительную гибкость производителям, которую возможно было использовать по мере необходимости.
А пока, ждем, и скоро мы увидим, какие из наших прогнозов оправдались, и какие козыри NVIDIA спрятала у себя в рукаве.