Софт

тест для видеокарты Nvidia

Рейтинг: 4.3/5.0 (473 проголосовавших)

Категория: Windows

Описание

ТЕСТИРОВАНИЕ ПАМЯТИ ВИДЕОКАРТЫ

Программа для тестирования памяти видеокарт на базе чипов от NVIDIA. Хотелось бы отметить такую осо - бенность этой программы - в следствии оригинального подхода к определению корректности отображения об - раза, данная программа не всегда отражает действи - тельность, мягко говоря. Т.е. результаты ее - рекомен - дуемые пороговые частоты - более чем оптимистичны.

Сообщить о мертвой ссылке / Обсудить на форуме

Одна из лучших программ для тестирования памяти. Данная редакция программы, по словам автора, работает практически на любой машине (даже древних!) и обеспе- чивает комплексное тестирование ОЗУ с помощью фик - сированных и переменных шаблонов. Кроме того, учи - тывается нагрев модулей памяти и реализована под - держка ММХ-команд.

Сообщить о мертвой ссылке / Обсудить на форуме

Вторая версия той же программы - соответственно, по нашим оценкам опять одна из лучших в своем классе! Добавлено: проверка всего ОЗУ (в том числе Shadow RAM) автоматическая настройка таймингов памяти визуализация показа ошибок повышена скорость записи (на 5-15%) Кроме того, убрана поддержка ММХ (для нуждающихся - она есть в первой версии программы). Опять же, по словам автора, пользы от нее никакой.

Сообщить о мертвой ссылке / Обсудить на форуме

Программа для тестирования памяти видеокарт на базе чипов от NVIDIA - TNT, TNT 2 (начиная от Vanta и заканчивая Ultra), GeForce 256 SDR/DDR, GeForce 2 (?). Для GeForce 256 DDR сделана автоматическая настройка максимальной рабочей частоты по RAM. Для TNT. TNT 2 выводятся кроме того тайминги памяти. На сегод - няшний момент это единственная известная нам прог - рамма такого рода. Можно смело сказать, что это эксклюзив, который займет почетное место на вашей машине и поможет вам в трудную минуту!

Сообщить о мертвой ссылке / Обсудить на форуме

тест для видеокарты nvidia:

  • скачать
  • скачать
  • Другие статьи, обзоры программ, новости

    Скачать FurMark для windows 7 - тест видеокарты на производительность программа

    Каталог бесплатного программного о.

    Вступайте в наши социальные группы и следить за обновлениями бесплатных программ! ВКонтакте Twitter Facebook Google+

    FurMark предназначена для определения максимальных возможностей видеокарты, используя при этом рейтинговую оценочную систему. Благодаря множеству опций нагрузки и различных параметров детализации, которыми можно управлять в режиме реального времени во время проведения "стресс-теста" Вы получите точную картину о том, на что способен видеоадаптер при критических нагрузках. В основном программа использует для тестирования технологию прорисовки трехмерной графики OpenGL. В этой версии FurMark поддерживаются, как самые последние модели видеокарт, так и более ранние.

    • NVIDIA: GeForce 500+/600+/700++/800+/900+
    • AMD/ATI: Radeon 9600 и выше
    • S3 Graphics Chrome 400 совместно используя последние версии драйверов

    История изменений: FurMark 1.17.0.0
    • Добавлена поддержка GeForce GTX 980.
    • Устранены сбои работы программы под виртуальными машинами (VirtualBox / VMware)
    • Обновлено GPU Shark 0.9.6.0
    • Обновлено GPU-Z 0.8.5
    • Обновлены библиотеки GPU (ZoomGPU 1.14.0)
    FurMark 1.15.2.2
    • Добавлена поддержка NVIDIA GTX 960 и GeForce GTX TITAN X
    • Устранены сбои работы программы под виртуальными машинами (VirtualBox / VMware)
    • Обновлены GPU Shark до 0.9.4.2 и GPU-Z до 0.8.2
    • Включены новые библиотеки GPU (ZoomGPU 1.12.0)

    Универсальная бесплатная программа для мониторинга активных процессов в операционной системе Windows.

    Бесплатная программа для получения подробной информации о Вашем компьютере.

    Полезная программа для контроля за температурой процессора в реальном времени.

    Бесплатный набор инструментов просмотра характеристик и тестирования производительности видеокарты.

    Экспресс-тест: видеокарты NVIDIA стоимостью до 100 долларов

    Экспресс-тест: видеокарты NVIDIA стоимостью до 100 долларов

    Казалось бы, видеокарты с поддержкой DirectX 10 должны были стать доминирующими на рынке не только высокоуровневых решений, но и карт начального и среднего уровня. И если для high-end и настоящего middle-end (GeForce 8800GT. Radeon HD3870/3850 ) вышесказанное полностью соответствует действительности, то более доступные акселераторы представлены не только моделями с унифицированной архитектурой, но и DX9-совместимыми продуктами.

    Учитывая с какими темпами происходит смена поколений видеокарт мы решили провести тестирование нескольких моделей линейки GeForce 7, ранее относящихся к среднему и начальному классам, а также пару адаптеров на базе GeForce 8500GT. Такой выбор был не случаен - средняя стоимость карт находится в диапазоне 55-100 долларов, что соответствует современным рамкам уровня low-end. Также в качестве бонуса будет протестирована карта на базе GeForce 7900GS, являющаяся представителем начального high-end годовалой давности.

    FORSA GeForce 8500GT DDR2

    Начнем обзор, пожалуй, с новинки прошлого сезона, пришедшей на замену серии GeForce 7300, а именно GeForce 8500GT. Также отметим, что объем памяти во всех протестированных нами видеокартах составляет 256 МБ, поэтому мы не будем его приводить каждый раз в описании того или иного адаптера.

    С продукцией такого "брэнда" как GIL (торговая марка FORSA) мы уже знакомили вас при тестировании недорогих акселераторов на базе GeForce 7600GT. Этот производитель выпускает весьма неоднозначные продукты в плане их несоответствия заявленным характеристикам оригинальных видеокарт, что положительно сказывается на цене, но отрицательно на производительности. Но на компанию GIL иногда наступает просветление и в коробке с надписью FORSA (если коробочный вариант поставки) можно обнаружить видеокарту с полностью референсным дизайном и характеристиками, а иногда даже чуть завышенными рабочими частотами и альтернативной системой охлаждения.

    В нашем случае акселератор оказался предназначенным для розничного рынка, и в комплекте поставки можно было обнаружить: инструкцию, диск с драйвером, HDTV-переходник и S-Video кабель.

    Карта, выполненная на референсном дизайне, поддерживает память стандарта DDR2, разъемы DVI, D-Sub и TV-Out. Интерфейс MIO для соединения двух подобных видеоадаптеров в режиме SLI отсутствует, но для такого бюджетного решения будет достаточно пропускной способности шины PCI-E.

    В качестве отличительной черты FORSA GeForce 8500GT DDR2 можно подчеркнуть фирменный кулер, 55-мм вентилятор которого тихим не назовешь, да и радиатор, накрывающий все чипы памяти, лишен какого-либо с ними контакта, что не лучшим образом скажется на температурном режиме памяти при разгоне. Для предотвращения скола ядра на плате установлены силиконовые подушечки, а на самом чипе мягкая прокладка, дабы избежать… а вот тут придется немного поднапрячься, чтобы понять, для чего она нужна.

    То ли для защиты элементов на подложке от замыкания с радиатором, то ли для большей защиты ядра от скола. Еще одна отличительная черта, которая скорее касается и других производителей - использование в качестве термоинтерфейса странной субстанции в виде жвачки, которая в отличие от той же термопасты обладает меньшей эффективностью, где-то градусов на пять (для каждого случая возможен другой результат), что подтвердилось после замены термоинтерфейса. Температуру в простое и под нагрузкой после разгона мы будем приводить в ознакомительных целях и ни в коем случае её нельзя сравнивать между всеми картами нашего обзора, так как во время тестирования температура окружающей среды была непостоянной (тестирование проводилось в различный период времени). Итак, температура чипа видеокарты в простое составляла 54°C, с разгоном и под нагрузкой - 79°C.

    Ядро G86-300 ревизии A2 работает на частоте 460 МГц, но так как NVidia использует неодинаковые частоты для различных блоков, то частота шейдерного домена равна 920 МГц, а это почти эталонные значения (450/900 МГц).

    Память стандарта GDDR2 функционирует на частоте (здесь и далее мы будет приводить эффективную частоту, а не реальную) 800 МГц, что и соответствует её номиналу в 2,5 нс, и спецификациям NVidia.

    Ну и какое же тестирование без оверклокинга? Тем более что 0,08 мкм ядро G86 имеет неплохой потенциал работы на высоких частотах.

    Итак, со стандартных частот видеокарту FORSA GeForce 8500GT DDR2 удалось разогнать до 727 МГц (1458 МГц шейдерный домен) по ядру и 1016 МГц по памяти, что является закономерным результатом для нового бюджетного ядра и отличным для 2,5 нс памяти GDDR2, и как покажет наше дальнейшее тестирование, подобный результат для старого типа памяти стал нормальным явлением.


    FORSA GeForce 8500GT DDR3

    Следующий участник имеет такой же комплект поставки, как и FORSA GeForce 8500GT DDR2, но в отличии ранее рассмотренной карты существенно переработан как внешне, так и внутренне.

    В виду того, что видеокарта FORSA GeForce 8500GT DDR3 поддерживает, как не трудно догадаться из названия, тип памяти GDDR3, дизайн PCB был полностью изменен.

    И если разъемы, выводящие сигнал на внешние видеоисточники остались в том же составе, то для режима SLI производитель позаботился об интерфейсе MIO, правда, для чего-то заклеил его наклейкой под цвет платы.

    Система охлаждения имеет радиатор с веерным размещением ребер, благодаря чему потоки воздуха от вентилятора будут попутно охлаждать чипы памяти. Конечно, это не заменит радиаторы на памяти, но лучше, чем просто накрыть сверху кулером без какого-либо контакта с чипами. Вентилятор оказался тихим, хотя и использовался тот же типоразмер что и в версии видеокарты с DDR2. В простое ядро адаптера охлаждалось до температуры в 59°C, под нагрузкой при оверклокинге - 78°C.

    Теперь относительно внутреннего отличия. Частота ядра в FORSA GeForce 8500GT DDR3 составляет 558 МГц, а частота шейдерного домена 1188 МГц, что на 108/288 МГц выше стандартных значений. Память GDDR3 со временем доступа 1,4 нс и с шиной в 128 бит работает на частоте 1296 МГц, что на 104 МГц ниже её номинала, а если сравнивать с референсными характеристиками, то такое изменение параметров наилучшим образом должно сказаться на производительности.

    Сможет ли GeForce 8500GT с памятью GDDR3 догнать или обогнать своих конкурентов прошлого поколения мы узнаем из тестов, а пока посмотрим на разгонную способность нашего экземпляра.

    В этот раз фортуна нам не улыбнулась и частота чипа остановилась на отметке в 702 МГц (1512 МГц - шейдерный домен), память достигла всего 1634 МГц, что типично для такого типа, но хотелось бы больше.

    Карты на базе GeForce 7300GT были представлены полтора года тому назад для заполнения стодолларовой ниши высокопроизводительных бюджетных решений, так как GeForce 7300GS/LE не могли похвастаться хорошей производительностью. В отличие от младшего представителя семитысячной серии GeForce 7300GT основан на ядре G73 (G73-V), в котором были отключены четыре пиксельных конвейера из двенадцати и один вершинный из пяти (в G72 всего 4 и 3, пиксельных и вершинных конвейеров соответственно). В итоге получился весьма производительный, как за свою цену, видеоакселератор, заменивший серию GeForce 6600LE/6200.

    В коробке с такими внушительными, для бюджетной видеокарты, размерами можно обнаружить инструкцию, два диска с ПО и драйверами, переходники HDTV и DVI/D-Sub. Стандартный набор, для того чтобы "включить и работать".

    Видеоадаптер ASUS EN7300GT/SILENT имеет на борту цифровой и аналоговый разъемы, TV-Out, а для объединения карт в режим SLI оборудован интерфейсом MIO. Отметим интересную особенность карты в виде скругленных углов (!) PCB - мелочь, а приятно.

    Пассивная система охлаждения, используемая также на silent-варианте GeForce 7600GS того же производителя, состоит из П-образного алюминиевого радиатора, полностью накрывающего с лицевой стороны чип и память (но не касается микросхем), с другой стороны - только верхнюю часть платы. Такая система спокойно охладила ядро видеокарты до 47°C в щадящем режиме и не давала нагреться чипу выше 71°C при полной нагрузке и с разгоном.

    Работающее на частоте 400 МГц ядро удалось разогнать до 594 МГц, память GDDR2 номиналом 2,5 нс и стандартной частотой в 800 МГц легко заработала на 1000 МГц, что в итоге неплохо увеличило производительность.


    eVGA e-GeForce 7600GS

    Продукция американского производителя, появившаяся совсем недавно на отечественном рынке, славилась всегда отличным качеством, хотя не попавший на тестирование в связи с браком образец GeForce 8600GTS наводит на некоторые мысли. Но вернемся к нашему подопечному, который оказался работоспособным и порадовал даже возможностью разгоняться.

    Карта eVGA GeForce 7600GS имеет оригинальную упаковку, даже есть окошко для сверки серийных номеров на коробке и видеокарте. Комплект стандартен: инструкция, диск с драйверами и ПО, переходники HDTV и DVI/D-Sub, кабель S-Video.

    Дизайн печатной платы является референсным, как и сама система охлаждения, состоящая из цельного радиатора с медным сердечником и тепловой трубкой, ускоряющая передачу тепла по всей площади системы.

    Память стандарта GDDR2 и со временем доступа 2,5 нс, что соответствует рабочей частоте в 800 МГц, благодаря восьми чипам имеет разрядность шины в 128 бит. Интерфейсные разъемы аналогичны описанным выше продуктам.

    Температурный режим находился в пределах нормы - ядро карты, работающее в обычном режиме, охлаждалось до 46°C, с разгоном под нагрузкой температура выросла до 72°C. При разгоне не стоит забывать об эффективности охлаждения памяти, так как радиатор накрывает чипы без какого-либо контакта с ними и это может спровоцировать перегрев микросхем.

    Ну и, конечно же, проверяем разгонный потенциал видеокарты eVGA e-GeForce 7600GS. Адаптер оказался стандартен во всех характеристиках, и с референсных частот 400/800 МГц (чип и память соответственно) удалось разогнать до 546/1000 МГц.

    Ничем не примечательные показатели: напряжение питания ядра G73 немного занижено, отчего такой низкий результат, а память за время нашего тестирования уже не так сильно удивляет.


    Point of View GeForce 7600GT

    Point of View GeForce 7600GT на базе полноценного ядра G73 является представителем самой старшей версией массовых решений 7-серии от NVidia и в отличии от GeForce 7600GS обладает более высокими частотами чипа и памяти. Компания Point of View отличается продукцией неплохого качества, правда за ней замечено использование, кроме референсных решений, продукции сторонних производителей - все же работа с OEM бывает куда выгодней. Так и в этот раз карта от Point of View очень сильно напоминает акселераторы FORSA и если бы не фирменная наклейка на вентиляторе, то представить себе что эта видеокарта от именитого брэнда было трудно.

    Как и все протестированные видеокарты в нашем обзоре адаптер Point of View GeForce 7600GT практически ничем не отличается по комплектации от других: диск с драйвером и ключиком для реестра, снимающим блокировку разгона в драйверах, переходники DVI/D-Sub и HDTV, а также видеокабель.

    Дизайн PCB ничего общего с рекомендованным компанией NVidia не имеет, но два разъема DVI и интерфейс MIO остались на месте. Система охлаждения, состоящая из Г-образного алюминиевого радиатора и достаточно шумного 55-мм вентилятора, накрывает кроме чипа еще и память, но без каких-либо термопрокладок, что не лучшим образом скажется на её температуре при разгоне.

    Об эффективности охлаждения применяемого кулера можно судить по температуре в простое равной 47°C и под нагрузкой с разгоном - 69°C, но как мы уже говорили, тестирование всех видеокарт проходило в различный период, и сравнивать их между собой не стоит.

    Если дизайн PCB этого видеоадаптера был изменен, то характеристики остались на прежнем уровне: рабочая частота ядра составляет 560 МГц, памяти - 1400 МГц. А вот разгон нас не впечатлил, все же от полноценного GeForce 7600GT ждешь большего, тем более что к разгонному потенциалу этих акселераторов мы уже привыкли.

    Итак, карта от Point of View разогналась лишь до 582 МГц по чипу и 1500 МГц по памяти - удручающий результат, не правда ли?


    FORSA GeForce 7900GS

    И последний наш участник, базирующийся на GeForce 7900GS, также от GIL - единственный в нашем обзоре акселератор с шиной памяти в 256 бит, благоприятно сказывающейся на производительности при высоком разрешении и качестве графики.

    Отрадно видеть, что количество видеокарт в retail-версии на отечественном рынке становится все больше и больше. Комплект нашего образца был дополнен переходником питания Molex/PCI-E, а остальное - ничем не отличается от комплекта eVGA e-GeForce 7600GS.

    Характеристики и кулер FORSA GeForce 7900GS полностью повторяют референсные, но сама плата оказалась с переработанным дизайном: вместо двух разъемов DVI остался один, плюс аналоговый, и силовая обвязка претерпела некоторые изменения.

    О возможностях работы карты в паре при режиме SLI можно и не вспоминать, все GeForce начиная со среднего уровня (хотя, бывают и исключения) поддерживают эту возможность посредством интерфейса MIO. В остальных случаях - только через шину PCI-E.

    Стандартная система охлаждения, применяемая как на серии 7900, так и на 7600, может похвастаться очень шумной турбиной, но радиатор на нашем экземпляре оказался алюминиевым, а не медным. Температура чипа в простое под надоедливым кулером была около 52°C, ну а с полной нагрузкой и с разгоном доходила до 80°C. Единственный способ избавиться от шума - заменить СО на альтернативную, в противном случае, придется смериться с лишними децибелами.

    И напоследок в описании - оверклокинг. С родной системой охлаждения и без поднятия напряжения питания ядра достигнуть 600-мегагерцовой отметки достаточно сложно, и средняя частота при разгоне GeForce 7900GS составляет около 550 МГц.

    Экземпляр FORSA GeForce 7900GS со стандартных частот 450/470/1320 МГц, - чип, геометрический блок и память соответственно, удалось разогнать до 536/556/1720 МГц.

    Средненький результат, но не плохой способ поднять производительность.


    Сравнение характеристик рассматриваемых видеокарт


    * - частота потоковых процессоров
    ** - частота геометрического блока

    Прежде чем мы перейдем непосредственно к результатам тестирования опишем нашу тестовую конфигурацию и используемое программное обеспечение. Тестовый стенд имел следующий вид:
    • Материнская плата: Intel D975XBX2 (Intel 975X);
    • Процессор: Intel Core 2 Extreme X6800 (2,93 ГГц, 4 Мб кэш, FSB1066, LGA775);
    • Память: 2хTeam Xtreem TXDD1024M1066HC4 (2x1 ГБ, DDR2, 1066 МГц);
    • Система охлаждения: Box cooler;
    • HDD: Samsung HD120IJ (120 ГБ, 7200 об/мин, SATA II);
    • Привод: Samsung TS-H552 (DVD+/-RW);
    • Блок питания: FSP Epsilon FX700-GLN (700 Вт);
  • Intel Chipset Software Installation Utility 8.1.1.1010;
  • NVIDIA ForceWare 93.71;
  • NVIDIA ForceWare 158.22;
  • Intel AudioStudio 5.10.5067.
  • Тестирование проводилось в среде Windows XP Professional Edition SP2, для видеокарт седьмой серии использовались драйвера ForceWare 93.71, для нового поколения - ForceWare 158.22. После установки операционной системы система восстановления отключалась, файл подкачки задавался размером в 2048 МБ, остальные настройки по умолчанию. Производительность видеодрайвера выставлялась как "Максимальное качество", все оптимизации отключались. Память работала в двухканальном режиме на частоте 800 МГц с таймингами 3-3-3-8.

    Для оценки производительности применялись следующие приложения:
    • 3DMark05 v1.3.0;
    • 3DMark06 v1.1.0;
    • F.E.A.R. Extraction Point v1.0;
    • S.T.A.L.K.E.R. Shadow of Chernobyl v1.0003.

    Тесты в синтетических пакетах компании Futuremark проводились с установками по умолчанию, в F.E.A.R. Extraction Point (встроенный тест) - максимальное качество, мягкие тени отключались и выбиралась анизотропная фильтрация 4х. В игровом приложении отечественных разработчиков S.T.A.L.K.E.R. Shadow of Chernobyl устанавливались максимальные настройки качества графики, сглаживание отключалось, а тесты проходили с "Динамическим освещением". Для снятия показаний количества кадров в секунду использовалась утилита Fraps. Все видеокарты тестировались в игровых приложениях при разрешении 1024х768, 1280х960 для F.E.A.R. Extraction Point и 1280х1024 для S.T.A.L.K.E.R. Shadow of Chernobyl, без анизотропной фильтрации (кроме F.E.A.R.) и полноэкранного сглаживания.

    Начнем с результатов синтетического пакета 3DMark05. В безоговорочной победе GeForce 7900GS никто и не сомневался, а GeForce 7300GT, будучи аутсайдером во всех тестах, может похвастаться лишь ценой - в среднем 60 долларов.

    GeForce 8500GT с памятью DDR2 с легкостью обходит GeForce 7600GS и с большим отрывом от группы "бюджетников" далее расположились бестселлер 2006 года - GeForce 7600GT, и подешевевший GeForce 8500GT с GDDR3. Благодаря разгону расстановка сил несколько меняется: GeForce 8500GT DDR2 быстрее GeForce 7600GT в номинале, а GeForce 8500GT DDR3 дышит в затылок GeForce 7900GS!

    В 3DMark06 ситуация почти повторяется с одним лишь изменением: GeForce 7600GT в номинале обходит GeForce 8500GT DDR3, а GeForce 7600GS и GeForce 8500GT DDR2 практически идут вровень.

    И как всегда, разгон творит чудеса, позволяя поднять уровень быстродействия выше более дорогого видеоадаптера.

    Дополнение к игре F.E.A.R. отреагировало на видеокарты также как и 3DMark06, выстроив в очередь сперва GeForce 7300GT, потом GeForce 7600GS и GeForce 8500GT с медленной памятью, далее быстрый вариант GeForce 8500GT и GeForce 7600GT, а в конце с большим отрывом от остальных - GeForce 7900GS. При этом разница между самым медленным и самым быстрым адаптером составляла 239%, что примерно соответствует отличиям в цене.

    При обоих разрешениях, результат между GeForce 8500GT и GeForce 7600GS идентичен и при условии отличного разгона DX10-совместимый видеоакселератор более предпочтителен, так как быстродействие будет немного выше. То же самое можно сказать и о GeForce 8500GT DDR3 с GeForce 7600GT.

    И напоследок вышедшая в прошлом году игра S.T.A.L.K.E.R. Shadow of Chernobyl, способная при максимальных настройках поставить на колени не только бюджетные и среднего уровня решения, но и классом выше.

    В этой игре расстановка сил кардинально поменялась. Теперь оба варианта GeForce 8500GT и при разгоне не в состоянии перегнать, а порой даже догнать своих "конкурентов" в номинальном режиме. Единственной картой, на которой можно хоть как-то поиграть с максимальными настройками является GeForce 7900GS, остальные - забавы ради, посмотреть на красивую картинку. И в очередной раз заметен мизерный прирост производительности от разгона GeForce 7600GT.

    Что можно сказать в заключение нашего экспресс-тестирования относительно каждого рассмотренного видеоадаптера? Ничего сверхвыдающегося в них замечено не было, комплект поставки стандартен, разгон подобных карт уже давно изучен. Единственный, кто смотрится не в лучшем свете - это карта Point of View GeForce 7600GT за ее отвратительный потенциал. Порадовала продукция GIL, хоть мы и не сторонники этого брэнда. Для любителей тихих систем и с разным кошельком можно порекомендовать ASUS EN7300GT/SILENT/HTD/256M/A и eVGA e-GeForce 7600GS, в остальных случаях необходима смена родных систем охлаждения на альтернативные. Если же вы собираетесь играть с качественной графикой и при высоких разрешениях, а поддержка DirectX 10 вас не интересует, то единственный вариант - акселераторы на базе GeForce 7900GS, стоимость которых уже опустилась до уровня $140, хотя найти их сейчас бывает нелегко.

    Благодарим следующие компании за предоставленное тестовое оборудование:
    • Мастер Групп за видеокарты и жесткий диск Samsung HD120IJ;
    • Представительство Intel в Украине за процессор Intel Core 2 Extreme X6800 и материнскую плату D975XBX2;
    • Team Group Inc. за модули памяти Team Xtreem TXDD1024M1066HC4

    Практическое тестирование видеокарт ATI и NVIDIA в задачах декодирования видеоданных

    Редакция сайта iXBT.com обращается к вам с просьбой отключить блокировку рекламы на нашем сайте.

    Дело в том, что деньги, которые мы получаем от показа рекламных баннеров, позволяют нам писать статьи и новости, проводить тестирования, разрабатывать методики, закупать специализированное оборудование и поддерживать в рабочем состоянии серверы, чтобы форум и другие проекты работали быстро и без сбоев.

    Мы никогда не размещали навязчивую рекламу и не просили вас кликать по баннерам. Вашей посильной помощью сайту может быть отсутствие блокировки рекламы.

    Спасибо вам за поддержку!

    Практическое тестирование видеокарт ATI и NVIDIA в задачах декодирования видеоданных

    Уже довольно много времени прошло с момента публикации нашей теоретической статьи о наборе технологий ATI AVIVO. но до практического тестирования аппаратно ускоренного проигрывания видеоданных дело не доходило. Частично это связано с тем, что на тот момент и ATI и NVIDIA так активно развивали поддержку декодирования видео в драйверах, что почти в каждом из релизов были большие нововведения в этом плане, и сравнивать производительность чипов разных вендоров было тяжело, так как ситуация менялась каждый месяц. Но сейчас всё вроде бы более-менее устоялось, то ли ATI и NVIDIA "вылизали" поддержку упомянутых в теоретической статье возможностей по поддержке декодирования видео, то ли надоело им заниматься этой задачей. Мы решили проверить на практике, насколько хорошо обстоят дела по декомпрессии и выводу видеоданных с аппаратной помощью видеочипов.

    Воспроизведение видеоданных высокого разрешения ("High Definition", сокращенно — HD) в современных форматах сжатия, весьма требовательных к мощности системы, является ресурсоемкой задачей даже для мощных ПК. Основная нагрузка приходится на центральный процессор, но современные видеокарты берут на себя выполнение части вычислений по декодированию и постобработке. В современных видеочипах ATI и NVIDIA есть программируемые блоки для задач ускорения декодирования и постобработки разных видеоформатов. Технология, задействующая возможности видеочипов при воспроизведении видео, называется DirectX Video Acceleration (DXVA). Она позволяет использовать помощь видеопроцессора в декодировании и постобработке (деинтерлейсинг, шумоподавление и т.п.), а возможности чипов последних выпусков от ATI и NVIDIA по декодированию видео включают поддержку основных форматов: MPEG2, WMV9 и H.264. Для этого требуются специальные декодеры (ATI DVD Decoder, PureVideo Decoder, CyberLink MPEG2 и H.264 video decoder), и проигрыватели, поддерживающие DXVA, такие, как Windows Media Player 10. Сначала появились DXVA декодеры для аппаратного ускорения MPEG2, затем выпустили дополнение для WMP10 с поддержкой DXVA для декодирования WMV9 формата, а в последние два года появились H.264 декодеры с DXVA-ускорением, одним из первых был CyberLink. А совсем недавно, весной этого года, вышел качественный программный декодер формата H.264, под названием CoreAVC, который мы также рассмотрим в статье.

    С проигрыванием MPEG2 видео в невысоких разрешениях (до используемого в DVD дисках 480p/480i) на данный момент особых проблем с производительностью не возникает, но в начале распространения DVD видео, когда типичные процессоры не очень хорошо справлялись с декодированием MPEG2, была ситуация, когда только с помощью аппаратной поддержки от видеокарт компьютеры того времени могли справиться с этой задачей. И сейчас, без соответствующей поддержки, даже некоторые новые CPU не всегда могут полностью удовлетворить требования по декодированию такого современного формата, как H.264 в самых высоких разрешениях, например, в 1080p (прогрессивный 1920x1080). По заявлениям ATI и NVIDIA, их последние видеочипы помогают процессорам в декодировании наиболее требовательного к ресурсам формата H.264, в дополнение к уже известным WMV и MPEG2, в том числе в высоких разрешениях.

    Для разных чипов существуют некоторые ограничения, так, не все low-end чипы обладают необходимыми возможностями и производительностью для поддержки самых высоких разрешений, уровень аппаратной поддержки зависит от модели карты и установленного чипа. Но возможности, предоставляемые последними видеокартами по аппаратному ускорению декодирования H.264, позволяют говорить о теоретическом решении проблем с воспроизведением таких файлов. Так ли это или на практике проблемы еще остались? В статье мы рассмотрим сравнительные производительность и качество воспроизведения видео разных форматов, начиная с MPEG2 и заканчивая все тем же относительно свежим H.264/AVC, информацию о котором можно найти в уже упомянутом теоретическом материале. Особое внимание мы обратим на полностью программный декодер CoreAVC, который показал себя с хорошей стороны с момента его выпуска. CoreAVC оказался значительно более эффективным, по сравнению с другими известными H.264 декодерами от CyberLink и Nero, не говоря уже о декодере QuickTime, при том же качестве картинки. Кстати, на данный момент аппаратно ускоренная версия CoreAVC пока еще отсутствует в публичном доступе, но, судя по заявлениям его разработчиков, планы по поддержке видеочипов у них есть.

    Конфигурация тестовой системы, используемое программное обеспечение и настройки

    Аппаратная конфигурация тестовой системы:

    • Процессор: AMD Athlon 64 3200+ Socket 939
    • Системная плата: Foxconn WinFast NF4SK8AA-8KRS (NVIDIA nForce4 SLI)
    • Оперативная память: 2048 Мб DDR SDRAM PC3200
    • Жесткий диск: Seagate Barracuda 7200.7 120 Gb SATA
    • Операционная система: Microsoft Windows XP Professional SP2

    Для тестов использовались две видеокарты на чипах основных производителей:

    Использовалась последняя, доступная на момент написания версия драйвера CATALYST и последняя официальная бета-версия ForceWare, так как именно в ней, по заявлению NVIDIA, были сделаны некие нововведения и изменения, связанные с технологией PureVideo.

    Используемое программное обеспечение (проигрыватели, кодеки):

    • Microsoft Windows Media Player 10.00.00.3923 (с Windows Media Video Decoder 10.00.00.3923 в комплекте)
    • CyberLink PowerDVD 7.0 Deluxe
    • Apple QuickTime Player 7
    • ATI MPEG Video Decoder 9.14.0.60504
    • NVIDIA PureVideo Decoder 1.02.223 (NVIDIA Video Decoder 04.02-223)
    • CoreAVC Pro 1.1.0.5

    Все настройки драйверов и программного обеспечения оставлены по умолчанию. Основные настройки производительности Windows Media Player 10, использованные при тестировании, приведены на скриншоте:

    "High quality mode" в настройках WMP10 отвечает за использование Video Mixing Renderer 9 (VMR9). Скриншоты захватывались в разрешении 1024x768 при полноэкранном выводе изображения, а тестирование производительности проводилось в 1920x1080. Поддержка оверлеев была отключена, чтобы производить захват скриншотов в одинаковых условиях для карт ATI и NVIDIA.

    Список видеороликов, используемых в тестах

    Как видите, в состав тестового материала вошли ролики во всех наиболее востребованных видеоформатах, чаще всего в двух распространенных разрешениях — 1280x720 и 1920x1080. Помимо этого, в состав тестов вошел и небольшой MPEG2 ролик с разрешением всего лишь 720x480 (480i), так как DVD диски до сих пор весьма широко используются. Единственное отличие ролика от формата большинства DVD дисков — его чересстрочность (интерлейсинг). Если исключить влияние деинтерлейсинга, с MPEG2 видео проблем обычно не бывает.

    Тесты проводились в разрешении 1920x1080 при помощи собственной утилиты с использованием ActiveX компоненты Windows Media Player 10, позволяющей замерять использование ресурсов процессора во время проигрывания, получать статистику WMP10, а также снимать скриншоты с точной установкой позиции ролика на нужный кадр видеопоследовательности. Замерялась средняя загрузка центрального процессора системы при трехкратном проигрывании каждого из роликов. Проводился также сбор и попытка использования таких значений, как количество пропущенных кадров в секунду и достигнутая при проигрывании частота кадров, но оба эти значения на некоторых сочетаниях роликов и декодеров получались явно некорректными, и от затеи пришлось отказаться. С подсчетом среднего времени загрузки CPU никаких проблем нет, и это значение было принято для использования в тестах при определении качества аппаратной поддержки декодирования видео платами ATI и NVIDIA. Лишь в одном случае упомянута и цифра пропущенных кадров видеопоследовательности.

    Результаты тестирования

    Тесты мы начнем с самого интересного формата — H.264. Обе видеокарты тестировались с применением двух декодеров — полностью программного CoreAVC Pro, в который еще не встроили поддержку аппаратного ускорения видеокартами, и поддерживающем DXVA ускорение CyberLink H.264/AVC Decoder из комплекта PowerDVD 7 Deluxe. Также, для сравнения, приведена цифра загрузки процессора при помощи программного декодера H.264, встроенного в пакет QuickTime. Этот декодер появился одним из первых, и большая часть заслуги в продвижении H.264 как весьма ресурсоемкого формата принадлежит именно ему.

    H.264 (720p)

    Цифры показывают, что декодирование формата H.264 даже в не самом высоком разрешении 720p с применением устаревшего программного декодера QuickTime почти полностью задействует мощности не самого слабого тестового процессора. Наблюдаются явные рывки и пропуски кадров, пусть и не такие массовые, но все же неприятные. Декодер CyberLink нормально справляется с работой на обеих видеокартах, загрузка на ATI оказалась чуть ниже, чем на NVIDIA. То же самое мы видим и на примере CoreAVC, хотя он и полностью программный, NVIDIA все же немного отстает от ATI по производительности. Но разница совсем невелика — 7-8%, и с учетом того, что CPU загружен менее чем наполовину, я бы сказал, что ее почти нет, она не будет ощутима практически.

    Теперь проверим получаемое качество картинки. Оно во всех случаях оказалось почти идентичным, никакой значительной разницы я не нашел, но пару примеров привести обязан.

    Никаких претензий по качеству ни к одному из сочетаний видеокарт и декодеров не возникло, все показывают одинаковую картинку, есть лишь небольшая разница в производительности.

    H.264 (1080p)

    Второй ролик формата H.264 отличается от первого тем, что использует самое высокое разрешение — 1920x1080, вместе с прогрессивной разверткой. Посмотрим, будет ли отличаться достигнутая производительность при использовании разных декодеров и видеокарт в этот раз, и сможет ли Athlon 64 3200+ справиться с декодированием такого материала.

    QuickTime почти на 100% использовал мощности центрального процессора при проигрывании ролика такого высокого разрешения. Мало того, он пачками пропускал кадры и тормозил при этом. Почему я обращаю на это внимание, спросит читатель? Ведь в материале рассматривается аппаратное ускорение видео, которое в декодере QuickTime не применяется. А пример приведен потому, что в начале распространения роликов в H.264, QuickTime был чуть ли не единственным доступным декодером видеофайлов этого формата. По нему все и ориентировались, удивляясь, какой же "тяжелый" этот новый формат…

    При взгляде на результаты CoreAVC, второго программного декодера, становится ясно, что не формат тяжелый, а декодеры нужно уметь писать. Посмотрите — не имеющий аппаратной поддержки декодирования CoreAVC и на втором ролике обгоняет продвинутый (на словах) CyberLink с заявленной DXVA поддержкой! Карты ATI и NVIDIA показывают в этот раз более близкие результаты, но небольшое преимущество у ATI все же остается. Особенно для CyberLink, не зря же они начинали разрабатывать декодер совместно с ATI. При этом чисто субъективное впечатление от работы декодера на NVIDIA хуже, чем показанные на графике сравнительные цифры. На карте NVIDIA в этом случае было отмечено больше дерганий и нестабильности в достигнутом FPS, что подтверждается и статистикой количества пропущенных кадров в секунду. Это единственный ролик обзора, в котором при проигрывании стабильно пропускались кадры (около 15-20 и 140-150 на ATI и NVIDIA, соответственно). Повторюсь — речь идет только о декодере CyberLink.

    Как и в случае первого ролика, никаких значительных изменений в качестве при использовании разных H.264 декодеров я не увидел. Все абсолютно такое же и на ATI, и на NVIDIA, за исключением явно разных контраста и яркости, которые при настройках по умолчанию оказались на ATI несколько приятнее для глаза. В любом случае, GeForce можно настроить точно также, это не проблема, проверено.

    Второй кадр показывает то же самое, что и первый, лишь заметная разница по настройке контрастности и яркости отличает скриншоты ATI и NVIDIA. Небольшие отличия есть еще в четкости букв и логотипов внизу, но однозначно нельзя сказать, где оно лучше, тем более что и тут может сказываться иная настройка контрастности.

    Итоги по H.264 будут такими — с незначительным преимуществом по производительности впереди оказалась ATI, и то — из-за результатов декодера производства CyberLink, в случае CoreAVC результаты почти одинаковые. С CoreAVC всё значительно лучше. Вывод — не все то золото, что блестит. Иными словами, поддержка аппаратного декодирования сама по себе не означает лучшей производительности и/или качества. CoreAVC по скорости лучше, а по качеству ничем не уступает. Третий вывод — в качестве декодирования H.264 никаких проблем не обнаружено.

    WMV HD (720p)

    Диаграммы по декодированию WMV будут проще, в них указан лишь один возможный декодер — от самой Microsoft. Он поставляется вместе с Windows Media Player и является единственным доступным декодером WMV (вроде бы в ffdshow есть какая-то альтернативная возможность, но она пока не работает).

    Первый WMV HD ролик имеет разрешение 1280x720 (720p) и закодирован со сравнительно низким битрейтом 5 Мбит/с. Производительность при проигрывании этого ролика оказалась чуть выше у видеокарты на базе чипа NVIDIA, но разница очень небольшая. Как и в случае с H.264, декодирование 720p ролика не отняло даже половины мощности тестового процессора, никаких проблем с проигрыванием не наблюдалось, все было гладко и плавно.

    И опять на ATI явные проблемы с качеством на выделенном участке тестового скриншота, только уже в виде еле заметных полосок. Хотя и небольшой бандинг на плавных синих переходах также остался.

    Выводы по WMV HD для ATI не очень утешительные — наблюдаются явные проблемы с качеством декодируемой и выводимой на экран картинки. Возможно, это проблема конкретной версии драйверов или сочетания тестовой конфигурации, но факт остается фактом — качество проигрывания WMV на ATI было неидеальным. А по производительности претензий ни к кому нет, даже на роликах высокого разрешения загрузка центрального процессора лишь незначительно превышала 50%, небольшой выигрыш по эффективности в данном случае у видеокарты NVIDIA.

    MPEG2 (480i)

    Переходим к MPEG2, самому старому и знакомому формату. Для начала мы взяли ролик в наиболее распространенном DVD разрешении 720x480, усложнив задачу выбором тестового материала с наличием двух полей (интерлейсинга). При декодировании и проигрывании таких форматов, от декодеров, прежде всего, необходима качественная и быстрая постобработка — деинтерлейсинг. Посмотрим, как с ней справились видеокарты ATI и NVIDIA на двух разных MPEG2 декодерах…

    Для ATI использовался MPEG2 декодер из поставки CyberLink PowerDVD 7 и собственная разработка компании — ATI MPEG Video Decoder. Для NVIDIA, помимо декодера CyberLink, принятого за основной, как дополнительный использовался еще и платный декодер — NVIDIA PureVideo последней версии.

    Результаты, признаться, меня несколько озадачили. Напоминаю, что все декодеры, драйверы и плееры использовали настройки по умолчанию, кроме Windows Media Player, который был настроен для использования VMR9, без оверлеев. По проведенным тестам получилось, что использование декодера CyberLink на ATI значительно меньше загружает процессор, чем на NVIDIA. И наоборот, если сравнивать декодеры самих компаний, PureVideo дает меньшую нагрузку процессору, по сравнению с "родным" декодером ATI, они как бы меняются местами… Но не нужно забывать, что PureVideo стоит отдельных денег, которые придется отдавать за возможность использования самых последних нововведений в плане поддержки аппаратного декодирования и постобработки, так что стоимость PureVideo нужно учитывать. С другой стороны, и CyberLink PowerDVD стоит недешево…

    Но производительность — еще не самое главное, тем более что загрузка процессора составила от четверти до половины ресурсов процессора. Основная цель, все-таки — достижение максимального качества, которое мы сейчас и попытаемся проверить.

    На втором тестовом кадре этого ролика проблем с деинтерлейсингом не обнаружено, движения в нем мало, всё внимание обращаем на четкость и алиасинг логотипа в углу экрана. Лучше всего этот элемент выглядит на скриншоте, полученном на видеокарте ATI при помощи декодера CyberLink, затем идет NVIDIA, качество которой в обоих случаях почти идентичное, и хуже всего с задачей справился декодер ATI — налицо заметная зубчатость (алиасинг) темных линий логотипа. И опять хорошо видно отличие цветовых настроек у ATI и NVIDIA по умолчанию.

    MPEG2 (1080p)

    Рассмотрим результаты, полученные при тестировании третьего и последнего MPEG2 ролика, прогрессивного и с самым высоким HD разрешением.

    В этом случае отставание ATI уже не так велико, как в прошлый раз. Если не брать в расчет использование PureVideo, то можно сказать, что по скорости карты почти равны. Однако использование MPEG2 декодеров собственного производства выводит GeForce далеко вперед, мы видим почти двукратное отставание ATI от NVIDIA при использовании ATI MPEG Video Decoder и PureVideo Decoder, соответственно. Убеждаемся еще раз, что PureVideo действительно очень эффективен при декодировании MPEG2 видео. К сожалению, видеокарта ATI в данном случае отработала хуже.

    Но в целом, даже 60-70% загрузка центрального процессора не ставит крест на воспроизведении MPEG2 видео в разрешении 1920x1080, ведь оставшихся 30-40% ресурсов CPU хватит на большинство задач, обычно выполняемых в фоне при просмотре видео на домашнем ПК. Посмотрим лучше на качество:

    А с качеством в этот раз никаких проблем не отмечается, все декодеры и обе карты отработали нормально, единственная проблема — небольшая размытость некоторых деталей на NVIDIA при использовании декодера CyberLink, встроенного в их PowerDVD. В остальном, все картинки похожи, в очередной раз отличаются только цветовыми настройками.

    Подведем выводы по тестированию MPEG2 роликов в этом материале. NVIDIA показывает себя чуть лучше, с учетом возможности использования удачного PureVideo декодера, а на ATI заметны проблемы с деинтерлейсингом при использовании декодера CyberLink и заметно большее использование ресурсов CPU при декодировании роликов высокого HD разрешения в MPEG2 формате. В любом случае, производительности используемого в тестах процессора при помощи двух тестовых видеокарт оказывается достаточно для декодирования, деинтерлейсинга и вывода MPEG2 видео на экран, небольшая разница по использованию ресурсов есть, но в реальной жизни она роли не играет. В отличие от качества, с которым нужно разбираться…

    Так как наибольшее количество вопросов с качеством возникло именно по декодированию и деинтерлейсингу видео в формате MPEG2, мы планируем провести отдельное исследование AVIVO и PureVideo в задаче декодирования MPEG2 с применением специализированного теста HQV benchmark. Надеемся, он ответит на все возникшие в этом материале вопросы. От наших читателей хотелось бы получить комментарии по поводу того, что было сделано в статье неправильно, и как лучше настроить видеокарты ATI и NVIDIA на получение максимального качества и производительности.

    Выводы

    Сначала приведем общие выводы — тестовая система смогла справиться с проигрыванием всех роликов, но не все декодеры показали себя с хорошей стороны. Например, софтовый QuickTime H.264 декодер очень неразумно тратит ресурсы процессора, и все ролики высокого разрешения этого формата проигрывает неидеально. С другой стороны, CoreAVC декодирует те же файлы при тех же ресурсах процессора, но тратит их много меньше, позволяя обходиться без помощи видеокарт и не испытывать проблем с любым H.264 материалом, в том числе в самом "тяжелом" разрешении 1080p. То же самое и по MPEG2 декодерам — универсальный CyberLink обеспечивает проигрывание MPEG2, но для видеокарт NVIDIA лучше подойдет PureVideo, правда, за него придется заплатить.

    Итак, сформулируем первый вывод — очень многое зависит от выбранного декодера. При правильном выборе не понадобится даже разрекламированная поддержка аппаратного декодирования и постобработки от видеокарт, при неправильном — может не помочь и она. Тестовый процессор Athlon 64 3200+ смог отлично справиться с проигрыванием видеороликов всех распространенных форматов и всех разрешений, вопрос лишь в выборе кодека. В оптимальном варианте для ATI (CoreAVC для H.264, WMVideo для WMV и любой из двух для MPEG2, в зависимости от предпочтений пользователя) и NVIDIA (то же самое, но для MPEG2 лучше подойдет PureVideo, хотя и CyberLink вполне справится) проблем, связанных с производительностью, при проигрывании роликов любого формата не возникло. Многие, в том числе и автор статьи, считают, что сравнение видеокарт по производительности и трате ресурсов на декодирование видео имеет мало практического смысла, ведь мало кто одновременно смотрит фильмы и выполняет на том же ПК другие ресурсоемкие задачи в то же самое время.

    Вывод по качеству: за исключением нескольких случаев (бандинг на WMV, странный выбор метода деинтерлейсинга для MPEG2 у ATI и неидеальные установки контрастности и яркости у NVIDIA по умолчанию), с качеством воспроизведения видео всё в порядке. Особых отличий в картинке, кроме указанных выше, нет. Отдельно по форматам можно отметить, что с WMV HD возникает меньше вопросов, так как декодер для них существует один — встроенный в Windows Media Player. Для H.264 нужно тщательно подбирать декодер, одним из лучших на данный момент является CoreAVC, полностью программный декодер, обеспечивающий отличное качество и производительность как на ATI, так и на NVIDIA. А MPEG2 является наиболее распространенным, но и проблемным. Так как видеоданные в этом формате часто бывают чересстрочными, для них нужна постобработка в виде деинтерлейсинга, а именно с ней возникает больше всего проблем. Данная статья не может ответить на все вопросы по MPEG2, поэтому по воспроизведению материалов в этом формате, оказавшемся наиболее проблемным, с точки зрения качества, по результатам наших тестов, планируется более подробное исследование, посвященное сравнительному тестированию видеокарт ATI и NVIDIA.

    14 ноября 2006 г.