ОБЪЕКТИВНОСТЬ БЕЗ КОМПРОМИССОВОбъективность Без Компромиссов В Мире Компьютеров
НОВОСТИ САЙТАТЕСТИРУЕМ ВМЕСТЕИНТЕРНЕТ и ПОВСЯКО-РАЗНОСОФТ ПРОЕКТЫНАШИ ССЫЛКИ
ГЛАВНАЯ >> ТЕСТИРУЕМ ВМЕСТЕ >> ВИДЕОКАРТЫ: Radeon HD 3870 X2: оправдывая надежды

НАЗВАНИЕ СТАТЬИ: Radeon HD 3870 X2: оправдывая надежды
АВТОРСТВО: Алекс Наб
ДАТА НАПИСАНИЯ: Февраль 2008 года
ДАТА ПЕЧАТНОЙ ПУБЛИКАЦИИ: Март 2008 года ( ISSN 0235-3520 )
ДАТА ПОСЛЕДНЕЙ РЕДАКЦИИ: Февраль 2008 года
Алекс Н.

СОДЕРЖАНИЕ

  • Вступление
  • Как мы тестировали
  • GIGABYTE GV-NX88U768H-B (GeForce 8800 Ultra)
  • MSI R3870X2 T2D1G OC (Radeon HD 3870 X2)
  • Что показали тесты
  • РАЗМАХАЙКА: О правильном питании AMD
  • Таблица 1. Сравнительные характеристики
  • Таблица 2. Результаты игровых тестов DirectX 10
  • Таблица 3. Результаты игровых тестов DirectX 10
  • Таблица 4. Результаты игровых тестов DirectX 9
  • Таблица 5. Результаты игровых тестов DirectX 9
  • Таблица 6. Результаты игровых тестов OpenGL
  • Таблица 7. Результаты игровых тестов OpenGL
  • Результаты тестов в игре Crysis DEMO при AA:00 и AF:00
  • Результаты тестов в игре Crysis DEMO при AA:04 и AF:16

    Больше года компания NVIDIA правила на рынке дискретной графики, наслаждаясь комплиментами специалистов в адрес видеоускорителей GeForce 8800 GTX и GeForce 8800 Ultra. И хочется верить, что все это время инженеры NVIDIA не почивали на лаврах. Ведь за тот же год корпорации AMD удалось преодолеть творческий кризис, и совсем недавно она представила пользователям свою флагманскую новинку AMD-ATI Radeon HD 3870 X2, готовую бросить вызов даже NVIDIA GeForce 8800 Ultra.

    Изображение 1. GeForce 8800 Ultra против Radeon HD 3870 X2

    Как мы тестировали
    Все испытания проводились под управлением операционной системы Windows Vista Ultimate 64-bit (build 6.0.6000 + официальные обновления и "заплатки"). Для работы с графическими подсистемами использовались видеодрайверы ForceWare 169.25 64-bit и Catalyst 8.1 (build 8.451.2-080123) 64-bit.
    В качестве измерительного инструментария в Windows Vista применялся сценарный тест SmartFPS.com 1.7 для автоматизированного определения производительности в игровых приложениях Crysis, Company of Heroes, World in Conflict, Serious Sam 2, Unreal Tournament 3, Quake 4, Prey и The Chronicles of Riddick: EFBB.
    Все запуски тестовых сценариев выполнялись с применением монитора Philips Brilliance 202P7 и при графических разрешениях 1280x1024, 1600x1200 и 2048x1536 точек с 32-разрядной глубиной цвета. При этом исследование 3D-производительности видеоплат проводилось в двух режимах качества отображения игровой картинки: с отключенными полноэкранным сглаживанием и анизотропной фильтрацией, а также с включенными четырехкратным сглаживанием (AA:04) и 16-кратной анизотропной фильтрацией (AF:16). Все настройки качества визуализации контролировались с помощью глобальных установок в соответствующих видеодрайверах NVIDIA ForceWare и AMD-ATI Catalyst (при отключенных Temporal AA, Adaptive AA и High Quality AF).
    Аппаратная конфигурация тестового стенда в корпусе Compucase LX-7X31BS была следующей: ЦП Intel Core 2 Extreme X6800, системная плата ASUS P5K SE (P35 + ICH9), двухканальное ОЗУ на базе модулей Corsair XMS2-6400 CM2X1024-6400PRO (2x1 Гбайт, DDR2, 800 МГц, 5-5-5-15), жесткий диск WD Caviar SE16 WD5000KS (SATA 2, 7200 об/мин, 500 Гбайт), оптический DVD-привод TEAC DV-516, блок питания Delta GPS-650AB. Энергопотребление системного блока (без монитора) контролировалось сертифицированным прибором учета электроэнергии "Меркурий 200.02" (классы точности 1 и 2).

    GIGABYTE GV-NX88U768H-B (GeForce 8800 Ultra)
    Видеоакселератор GIGABYTE представляет собой копию инженерного образца NVIDIA GeForce 8800 Ultra, в основе которого лежит графический кристалл G80 с частотой функционирования ядра 612 МГц. При этом на борту "Ультры" установлена видеопамять GDDR3 со временем выборки у микросхем памяти 0,8 нс и с частотным показателем 2160 МГц ( см. статью "Ultra против XT: шах и мат?" ).
    Да, этот ускоритель увидел свет в начале мая прошлого года и с тех пор успел изрядно устареть, но тем не менее именно GeForce 8800 Ultra является стандартным компонентом самых производительных ПК в мире и до последнего времени прочно удерживал репутацию самого завидного у любителей компьютерных игр. Но позвольте уделить максимум внимания конкурирующей новинке от компании AMD - Radeon HD 3870 X2.

    Изображение 2. GIGABYTE GV-NX88U768H-B

    MSI R3870X2 T2D1G OC (Radeon HD 3870 X2)
    Этот продукт компании MSI доступен пользователям с 28 января этого года. Технические характеристики новинки изумляют: пиковая производительность 1 Тфлоп, 640 потоковых процессоров, 32 текстурных и 32 ROP-блоков. Другими словами, в два раза мощнее прежних флагманов HD 3870 и HD 2900 XT. Однако давайте проанализируем все в хронологическом порядке.
    Днем рождения решения Radeon HD 2900 XT, построенного на графическом процессоре R600, можно считать 14 мая прошлого года. Этот новорожденный стал капитаном видеолинейки AMD, но в сравнении с лидером от NVIDIA модель HD 2900 XT выглядела довольно бледно. В результате даже AMD-ориентированные производители компьютеров, не сговариваясь, принялись устанавливать ускорители GeForce 8800 Ultra в бескомпромиссные серии ПК для игр.
    Разумеется, такая ситуация не устраивала корпорацию AMD, и ее инженеры постарались выжать максимум из кристалла R600. Они перевели технологию производства с 80 нм на 55, оптимизировали транзисторную часть ядра, увеличили рабочую частоту микрокристалла с 742 МГц до 775 и вместо GDDR3 с частотным показателем 1650 МГц установили на борту модернизированного флагмана AMD-ATI видеопамять GDDR4 с эффективной частотой 2250 МГц.
    Обновленный кристалл получил наименование RV670, а готовое решение на его основе - неожиданное имя Radeon HD 3870, засиявшее на прилавках магазинов 15 ноября 2007 г. Но, увы, производительность ускорителей AMD-ATI Radeon HD 3870 осталась на уровне плат AMD-ATI Radeon HD 2900 XT в большинстве современных игр, и трон под акселератором GeForce 8800 Ultra даже не пошатнулся.
    И вот 28 января этого года начался очередной этап развития продуктовой линейки AMD, связанный с видеоускорителем R680, более известным под именем Radeon HD 3870 X2. По сути это два графических адаптера Radeon HD 3870, размещенные на одной печатной плате и объединенные в рамках хорошо знакомой технологии ATI CrossFire, работающей в режиме Alternative Frame Rendering (один ускоритель просчитывает все нечетные кадры, а второй - четные). И хотя CrossFire-система для игровой визуализации подразумевает использование двух видеоплат на одной системной плате, в акселераторе HD 3870 X2 два графических решения RV670 запрягаются в упряжку CrossFire на одном куске текстолита с помощью управляющей микросхемы PLX PEX8547 и соединительных линий PCI Express 1.1.
    Кстати, у пользователей со стажем тут могут возникнуть аналогии с такими двухпроцессорными видеосистемами, как 3Dfx Voodoo 2 или ATI Rage Fury Maxx, хотя более корректным и актуальным было бы сравнение новейшей разработки AMD-ATI с решением GIGABYTE 3D1, появившимся на рынке аж в 2005 г. Тогда китайские инженеры удивили всех инновационной реализацией технологии NVIDIA SLI из двух кристаллов GeForce 6600GT (ГП NV43) на одной печатной плате, так что независимым специалистам остается только гадать, почему это канадские разработчики скопировали идею компании GIGABYTE без должных упоминаний.
    Теперь давайте изучим саму видеоплату MSI R3870X2 T2D1G OC. Внешне она не отличается от инженерного эталона Radeon HD 3870 X2: та же PCB с определенными наборами микросхем, та же система охлаждения без тепловых трубок. Однако очевидна разница в заявленной частоте работы ядра модели с суффиксом OC (т.е. overclocked) - 857 МГц вместо 825, как у соответствующего референсного решения. Кроме того, охладитель MSI выполнен полностью из меди, что благоприятно сказалось на рабочей температуре кристаллов. И конечно, в комплекте новинки от MSI лежат все необходимые переходнички, кабели и драйверы, а приятным бонусом к покупке может стать подарочное издание игры Gears of War, если покупать MSI R3870X2 T2D1G в сети магазинов "Эльдорадо".

    Изображение 3. MSI R3870X2 T2D1G OC

    Что показали тесты
    Плата GIGABYTE, построенная на базе проверенного временем ГП NVIDIA GeForce 8800 Ultra, работала без нареканий и демонстрировала высокую производительность, да и новинка от MSI нас порадовала.
    В OpenGL-играх ускоритель Radeon HD 3870 X2 уступил конкуренту в экранных режимах 1280x1024 и 1600x1200, но взял уверенный реванш в разрешении 2048x1536. И в игровых тестах для DirectX9 ситуация сложилась аналогичная: чем выше экранное разрешение, тем лучше выглядят результаты Radeon HD 3870 X2 в сравнении с GeForce 8800 Ultra.
    А вот в играх для Direct 3D 10 нас ждал неприятный сюрприз. По соответствующим таблицам испытаний очевиден проигрыш ускорителя MSI R3870X2 в игре World in Conflict и победа в Company of Heroes и Crysis, но то, что мы увидели в игровом приложении Crysis для DirectX10, очень сложно назвать нормальной игровой картинкой. Дрожащие облака на небе, прыгающая листва на деревьях, передергивающиеся текстуры на скалах - так происходящее на экране можно охарактеризовать словами. При этом визуализация приложения Crysis для DirectX9 на тестовом стенде с платой Radeon HD 3870 X2 не вызывала разочарования, но демонстрировала скромные показатели в кадрах в секунду.
    Видимо, в погоне за высокой производительностью компания AMD-ATI совершенствует видеодрайверы в спешке, оставляя решение проблем с качеством картинки, как говорится, на потом. И тем не менее два графических акселератора RV670, объединенные в CrossFire-тандем Radeon HD 3870 X2 способны конкурировать с одним ускорителем NVIDIA G80 и в чем-то превосходить его. Но сможет ли новинка AMD-ATI противостоять схожему решению GeForce 9800 GX2, объединяющему в SLI-упряжку два графических процессора NVIDIA G92? Это вопрос, ответ на который мы узнаем очень скоро.

    Изображение 4. Некоторые артефакты в игре Crysis DX10 через объектив фотоаппарата

    О правильном питании AMD
    Переход компании AMD на технологию производства 55 нм сделал решение Radeon HD 3870 X2 особенно привлекательным по двум критериям. С одной стороны, видеоускоритель Radeon не перегревается и его охладитель работает довольно тихо. А с другой - новый флагман AMD-ATI потребляет меньше электроэнергии, чем GeForce 8800 Ultra, и его "потянет" даже простенький блок питания.
    Ради спортивного интереса мы перебрали блоки разной мощности для тестового стенда и нащупали "необходимые и достаточные" ватты. Вначале мы остановились на 400-Вт БП AcBel ATX-400P - его мощности хватает, чтобы выполнять на ПК все типичные задачи и развлекаться играми, но не всеми, увы. Так, в играх Crysis и Call of Duty 4 возникает такая вычислительная нагрузка на видеоплату Radeon HD 3870 X2 и процессор Core 2 Extreme X6800, что компьютер очень быстро отображает черный экран и молча выключается. Зато 460-Вт БП HIPRO HP-W460GC31 с работой справился, и никакие 3D-игры и расчетные задачи не смогли превысить его возможностей. Однако для выполнения квалификационных тестов мы использовали 650-Вт БП Delta GPS-650AB - так вернее.
    Кстати, на задней части платы Radeon HD 3870 X2 имеется пара разъемов: "2х3" и "2х4" - для дополнительного питания, и если БП не имеет соответствующих колодок, то система даже не запустится. И вот что интересно: если запитать лишь контактную площадку "2х3", можно узнать максимальный уровень шума, на который способен ускоритель Radeon. Берегите уши, нам он напомнил о советском пылесосе "Буран".

    Таблица 1. Сравнительные характеристики видеоадаптеров PCI Express
    Модель видеоплаты Графический процессор Технология производства, нм Количество пиксельных и вершинных блоков Количество текстурных/ ROP- блоков Основная частота работы (частота шейдерных блоков), МГц Объем видео ОЗУ, Мбайт Эффективная частота работы GDDR3, МГц Шина доступа к видео ОЗУ, бит Дополнительные особенности Срок гарантийного обслуживания, мес. Ориентировочная цена, долл. (февраль 2008)
    GIGABYTE GV-NX88U768H-B (GeForce 8800 Ultra) NVIDIA G80 90 128 32/24 612 (1500) 768 2160 384 Копия инженерного образца NVIDIA GeForce 8800 Ultra 36 700
    MSI R3870X2 T2D1G OC (Radeon HD 3870 X2) AMD-ATI R680 (2xRV670) 55 2x320 2x16/2x16 857 2x512 1800 2x256 Повышенная частота работы ядра, медный охладитель, переходник "2х3 на 2х4", игра Gears of War в подарок от сети "Эльдорадо" 36 600

    Таблица 2. Результаты игровых тестов для DirectX 10 (by SmartFPS.com) при AA:00 и AF:00, кадр./с
    Модель видеоплаты Ориентировочная потребляемая мощность тестового стенда (без монитора), Вт Crysis DEMO (32-бит) Company of Heroes 1.7 World in Conflict DEMO
    Windows Vista Максимальная 3D-нагрузка 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 175 280 35,9 24,6 12,3 49,5 40,6 33,5 43 41 37
    MSI R3870X2 T2D1G OC 145 245 35,6 29,4 16 49 47,9 37,1 34 33 32

    Таблица 3. Таблица результатов игровых тестов для DirectX 10 (by SmartFPS.com) при AA:04 и AF:16, кадр/с
    Модель видеоплаты Crysis DEMO (32-бит) * Company of Heroes 1.7 World in Conflict DEMO
    1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 30,3 23,3 12,1 43,5 34,5 24,6 39 37 24
    MSI R3870X2 T2D1G OC 25,2 23,1 13,7 44,3 42,6 32,3 27 20 9
    * - в режиме DX10 не работает замещение настроек по AA/AF для видеодрайвера ForceWare 169.25 64-bit

    Таблица 4. Результаты игровых тестов для DirectX 9 (by SmartFPS.com) при AA:00 и AF:00, кадр./с
    Модель видеоплаты Crysis DEMO (32-бит) Serious Sam 2 2.064 DEMO Unreal Tournament 3 DEMO
    1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 35,7 27,8 19,5 159,1 153,1 132,7 134,9 104 95,8
    MSI R3870X2 T2D1G OC 38,3 31,3 21 154,6 149 134 121,4 119,1 110,4

    Таблица 5. Таблица результатов игровых тестов для DirectX 9 (by SmartFPS.com) при AA:04 и AF:16, кадр/с
    Модель видеоплаты Crysis DEMO (32-бит) Serious Sam 2 2.064 DEMO Unreal Tournament 3 DEMO
    1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 31,4 24,5 13 147 125,2 94,2 108,4 73,9 43,6
    MSI R3870X2 T2D1G OC 25,3 20,9 14 133,3 119,8 92,8 104,7 84,3 54,8

    Таблица 6. Результаты игровых тестов для OpenGL (by SmartFPS.com) при AA:00 и AF:00, кадр./с
    Модель видеоплаты Quake 4 v1.3 DEMO Prey DEMO The Chronicles of Riddick: EFBB DEMO
    1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 144,1 144,1 110,8 192,4 173,6 135,3 212,1 171,9 117,4
    MSI R3870X2 T2D1G OC 126,1 120 109,9 156 152,6 144 184,2 172,6 148,9

    Таблица 7. Таблица результатов игровых тестов для OpenGL (by SmartFPS.com) при AA:04 и AF:16, кадр/с
    Модель видеоплаты Quake 4 1.3 DEMO Prey DEMO The Chronicles of Riddick: EFBB DEMO
    1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 104,8 79,4 54 163,9 132,8 94,3 137,1 103,9 68,6
    MSI R3870X2 T2D1G OC 106,6 99,4 85,4 141,7 128,3 112,4 155 135,5 97,7

    Таблица 8. Таблица результатов всестороннего тестирования в игре Crysis DEMO (by SmartFPS.com) при AA:00 и AF:00, кадр/с
    Режим рендеринга DirectX 10 DirectX 9
    Разрядность кода 32-бит 64-бит 32-бит 64-бит
    Экранное разрешение 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 35,9 24,6 12,3 35,6 22,8 12,6 35,7 27,8 19,5 36,7 24,7 13,6
    MSI R3870X2 T2DIG OC 35,6 29,4 16 24,6 19,8 -- 38,3 31,3 21 44,3 35,7 --

    Таблица 9. Таблица результатов всестороннего тестирования в игре Crysis DEMO (by SmartFPS.com) при AA:04 и AF:16, кадр/с
    Режим рендеринга DirectX 10 DirectX 9
    Разрядность кода 32-бит 64-бит 32-бит 64-бит
    Экранное разрешение 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536 1280x1024 1600x1200 2048x1536
    GIGABYTE GV-NX88U768H-B 30,3 23,3 12,1 30,1 19,7 11,1 31,4 24,5 13 32,3 22 12,3
    MSI R3870X2 T2DIG OC 25,2 23,1 13,7 15,7 14,2 -- 25,3 20,9 14 28,2 23 --

    >> НАВЕРХ СТРАНИЦЫ <<