Софт

сравнительные тесты видеокарт

Рейтинг: 4.4/5.0 (1264 проголосовавших)

Категория: Windows

Описание

Сравнительная таблица производительности видеокарт AMD(ATI) и Nvidia

Сравнительная таблица производительности видеокарт AMD(ATI) и Nvidia Введение

Очень часто при выборе видеокарты мы задаемся вопросом: "А какая из них лучше?". Ведь нынешний компьютерный рынок просто пестрит различными предложениями. Данная статья предназначена для помощи обычному человеку, не желающему читать многочисленные обзоры или не имеющему на это время, определить лучшую видеокарту за свои деньги.

Прежде чем начать изучать таблицу, учтите следующие нюансы:

  • Сравнение видеокарт GeForce и Radeon между собой - приблизительное. В одних играх быстрее будет GeForce, в других - Radeon.
  • Отличие в скорости работы вышестоящей видеокарты от нижестоящей. можно узнать из тестов многочисленных интернет ресурсов .
  • Видеокарты в таблице представлены в порядке снижения производительности сверху вниз .
  • Здесь представлены только эталонные видеокарты, т.е. имеющие характеристики эталонов видеокарт AMD(ATI) и Nvidia.
  • Не следует забывать, что на компьютерном рынке сейчас есть немало видеокарт, предварительно разогнанных производителями.Они имеют суффиксы Sonic, OC, OC2, Extreme, XXX и т.д. и обладают более высокой производительностью. Если вы не собираетесь разгонять видеокарту самостоятельно, то следует рассмотреть и "заводской" вариант.
  • Также при выборе видеокарт конкретного производителя следует обратить внимание на установленную систему охлаждения (фотографию и обзор можно найти, сделав запрос в поисковике по полному наименованию видеокарты).
  • Все видеокарты имеют интерфейс PCI-Express. AGP-варианты могут незначительно отличаться по характеристикам, но в рамках данной статьи их не рассматриваем. Так же здесь нет мобильных видеочипов.
  • Красным цветом выделены видеокарты снятые с производства на момент написания статьи.
  • При выборе видеокарты также следует помнить и об объеме видеопамяти. В таблице этот факт почти не учитывается. Конечно, чем больше - тем лучше, но в любом случае предпочтительнее взять карту с более мощным чипом, чем с бoльшим объёмом памяти.
Сравнительная таблица

Ну а теперь, собственно, предлагаю вашему вниманию саму таблицу.

GeForce Radeon

Сравнительные Тесты Видеокарт:

  • скачать
  • скачать
  • Другие статьи, обзоры программ, новости

    Сравнение видеокарт: какую модель выбрать

    Сравнение видеокарт: какую модель выбрать

    getId()>" class="vote__count vote__count_align_tl"> 0

    1 год 8 месяцев назад

    Для того чтобы правильно выбрать графический ускоритель и не переплачивать деньги, нужно определиться для чего она вам нужна. Можно посмотреть на тесты и сравнение видеокарт, и в выборе опираться на статистику, а можно попробовать осуществить этот выбор самому. Произведя тест видеоускорителей самостоятельно. Но для этого прежде всего следует знать на что нужно обращать внимание при выборе графического ускорителя. Сегодня мы поговорим именно об этом.

    Для начала немного истории. Amd и Nvidia - это топовые производители графических чипов. Эти две компании находятся в постоянной конкуренции. Не многие знают, что ведущими производителями графических чипов являются компании AMD и Nvidia, а предлагают готовые решения их дочерние компании Radeon и Geforce.

    NVIDIA и Radeon соревнуются друг между другом за потребителя

    Но какая из этих компаний лучше? Интернет сообщество давно озабочено сравнением производительности видеокарт nvidia и radeon. Вся линейка подразделяется на сегменты: бюджетные, средние, продвинутые мощные и монстры. Каждое новое поколение ускорителей это небольшой прирост примерно на 20- 25% в сравнении с более старой моделью данной линейки.

    Как не потратить лишних денег?

    В среднем ценовом диапазоне ситуация ровная, чем больше стоит графический ускоритель, тем производительнее она является. Если вы сильно пытаетесь сэкономить при выборе видеокарты, и намериваетесь взять самую дешевую, то экономия не стоит той производительности, которую вы получите в итоге. Поэтому разумным выбором будет купить классом выше, чем самая дешевая модель. Это может показать и сравнение производительности видеокарт nvidia и radeon в 3dmark.

    Важен ли объем видеопамяти?

    Большинство карт в среднем сегменте идет с 2 гигабайтами видеопамяти памяти на борту. Но главная особенность выбора состоит в другом. Производительность чипа будет завесить не только от частоты GPU и памяти, но и от скоростью шины, которая передает всю информацию между процессором и графическим ускорителем. Основные размеры шины таковы: 64, 128, 256 и так далее, ширина измеряется в битах. Но сильно широкая шина это тоже минус, так как графический процессор не всегда будет успевать обработать всю информацию, как говорится, все в меру.

    Тесты показывают, какая карта лучше справляется с поставленными задачами

    Сравнение производительности видеокарт nvidia и radeon в Far Cry и Battlefield показали, что играть при битности шины в 64, будет крайне проблематично. Так что при выборе не упустите данный показатель из вида. На новых GPU частота процессора в Мгц может быть меньше, но он будет более производительным. Самое главное новизна изготовления платы.

    Сравнение производительности видеокарт для компьютера может существенно упростить выбор подходящей именно вам модели. Но наиболее точно будет сравнение производительности видеокарт в играх. Так как именно в них она показывает себя полностью.

    Сравнение видеокарт: какую модель выбрать

    В нижнем ценовом диапазоне компания AMD Radeon предлагает такие модели: R7 240, R7 250 и R7 250X. Эти карты дают неплохую производительность в играх. У компании Nvidia так же есть чем похвастаться в данной ценовой категории: GeForce GT 640, GTX 650 и GeForce GTX 650 Ti.Тест видеоускорителей показал что лучшими моделями данного сегмента являются карты GeForce GTX 650 Ti и R7 250X от Radeon. В среднем сегменте, самым лучшим выбором может стать ускоритель GeForce GTX 750. Это первая модель с использованием новой архитектуры "Maxwell" от Nvidia.Оба производителя идут буквально “ноздря в ноздрю” и выделить лидера здесь очень проблематично.

    Вывод

    Видеокарта которую вы выбираете должна проявлять себя лучше именно в той задаче, которую вы перед ней ставите. Не стоит отождествлять сравнение производительности видеокарт в тестах и сравнение производительности видеокарт в играх. На практике оптимальным тестом станет запуск требовательной игры на настройках Ultra.

    Но нужно учитывать, что из-за различных версий шейдеров чипа не получится играть в некоторые игры. В случае если игра требует, например четвертую версию шейдеров, а карта поддерживает лишь третью, велика вероятность того, что насладится данной игрой не получится.

    Стоит заметить, что если ускоритель производителен в играх, то с другими задачами он будет справляться одинаково хорошо. Например, в видеомонтаже, обработке графики или 3D моделировании.

    Сравнительный тест видеокарт на процессорах GeForce4

    Библиотека Интернет Индустрии I2R.ru Сравнительный тест видеокарт на процессорах GeForce4

    Благодарности
    Выражаем искреннюю благодарность компаниям, предоставившим видеокарты для тестирования: «Elst », «Dragon », «Alliance Group ». Отдельная благодарность компании «IPLabs » за содействие при создании материала.

    Немедленную покупку одной из старших моделей GeForce4 крайне сложно обосновать одними лишь практическими соображениями, таблицами и графиками. Успокаивает лишь тот факт, что похожая история была со всеми предыдущими GeForce’ами. И разве виновата nvidia в том, что возможности ее видеокарт растут быстрее, чем потребности игровых движков?

    Внутренней структуре графических процессоров GeForce4 было уделено достаточно места в предыдущих публикациях. На этот раз объектом нашего пристального внимания будут конечные продукты — самые «бронебойные» видеокарты в истории игровых 3D-ускорителей.

    Как мы тестировали
    Видеокарты устанавливались в компьютер с материнской платой Gigabyte GA-7VRXP (чипсет VIA KT333), процессором Athlon XP 1600+, памятью DDR DRAM PC2100 (512 Мбайт), жестким диском Seagate Barracuda ATAIV (40 Гбайт) и звуковой картой Sound Blaster Audigy. Кроме того, говоря о конфигурации, мы обязаны представить материнскую плату с самым совершенным на данный момент чипсетом для процессоров AMD. Отдельного тестирования плат на чипсете KT333 мы решили не проводить, благо фирменные платы не дают сколько-нибудь заметного разброса значений даже в синтетических тестах, а уж тем более в настоящих программах. Тестировать же noname-платы задача неблагодарная из-за нестабильного качества, меняющегося даже в пределах одной партии.

    В то же время остается принципиальным вопрос, напрямую связанный с новым чипсетом. А именно: насколько полезен сам по себе переход с прежней 266-мегагерцовой памяти PC2100 на PC2700 (частота новой памяти — 333 МГц — вынесена в название чипсета)? Его мы между делом изучим, благо нам удалось найти парочку DDR333 PC2700-модулей; к тому же в тестах с самыми-самыми видеокартами разница в платформах обещает быть особенно заметной.

    Все тесты запускались в операционной системе Windows XP Professional (русская версия). OpenGL-графику «рисовали» игры Return to Castle Wolfenstein v1.3 (демо Checkpoint), Serious Sam: The Second Encounter (демо Valley of the Jaguar) и Quake 3: Arena v1.17 (demo001). В DirectX трудился пакет 3DMark 2001 SE и следующие его игровые тесты: Game1 (Car Chase), Game2 (Dragothic), Game3 (Lobby aka Max Payne), Game4 (Nature — речка со всеми вытекающими отсюда шейдерами), а также синтетические тесты на скорость заполнения сцены (fill rate), эффективность работы T&L-блока (High Polygon Count) и исполнения вершинных и пиксельных шейдеров (Vertex, Pixel и Advanced Pixel Shaders). Кроме обычных настроек качества по схеме «все-на-максимум», дополнительно отключалось сжатие текстур и использовались только 32-битные текстуры.

    Поскольку высокие результаты в традиционных игровых тестах для столь мощных видеокарт в известной степени предопределены, имеет смысл сместить акцент в сторону пиксельных шейдеров. К сожалению, ни одна из ныне существующих игр, даже с формальной поддержкой шейдеров, реально в них не нуждается — качество графики визуально остается на неизменном уровне, что с включенными, что с выключенными шейдерами. Между тем «чисто шейдерные» движки уже начинают появляться, поэтому один из них — Codecreatures от компании Codecult — мы и предложили «подвигать» нашим сегодняшним гостям. Собственно игрового сюжета в этой бенчмарке нет (Codecult не пишет игры, а только программирует на заказ).

    Кадры из Codecretures Benchmark Pro.

    Итак, что мы видим? Пока только динамический ландшафт, максимально приближенный к натуральному, на прорисовку которого уходит вся мощь GPU и компьютера в целом. С одной стороны — выглядит эффектно, не зацикленный на поисках недостатков взгляд легко может перепутать ЭТО с видеозаписью. С другой — нам очень грустно, поскольку даже самые мощные видеокарты едва вытягивают тест без задержек, и откуда разработчики планируют черпать ресурсы для прорисовки игровых персонажей (а им ведь тоже придется выглядеть соответствующим антуражу образом) — решительно не ясно.

    Словом, пока задано лишь направление развития, а ко времени (очевидно — не скорому) появления коммерческих «шейдерных» игр проблемы роста, надо полагать, будут решены. Причем есть надежда, что дело не ограничится одним только наращиванием мощности видеокарт, шейдерные игровые движки тоже обязаны пойти навстречу. К чему, спрашивается, бросаться в другую крайность и моделировать каждую травинку в отдельности?

    Платформа
    Как и обещали чуть выше, выберем сначала лучшую платформу, то бишь материнскую плату с памятью, достойную наших мощнейших пикселедробилок. Чипсет KT333 отличается от своего предшественника KT266A обновленным контроллером памяти и поддержкой ATA133 — последнего из UDMA-режимов, активно продвигаемого в своих винчестерах фирмой Maxtor. Не совсем ясно, долго ли этот режим будет оставаться самым прогрессивным, ведь на смену ему готовится прийти Serial ATA, причем жесткие диски и контроллеры под этот принципиально новый стандарт заявлены на лето-осень текущего года.

    Фирменные платы на 333-м чипсете (и GA-7VRXP в особенности) просто ломятся от интегрированных опций и новых интерфейсов (сложно сказать, введены ли они для оправдания немалой цены самих плат либо, напротив, это из-за них цена получилась столь внушительной). Вот неполный список периферии, напаянной на нашей плате: четыре порта USB версии 1.1 и столько же USB 2.0, дополнительный IDE RAID-контроллер с поддержкой ATA133 фирмы Promise, встроенный аудиочип Сreative CT5880, контроллер локальной сети 10/100 Мбит/с от Realtek и даже контроллер считывателя флэш-карт (Memory Stick). Как обычно, Gigabyte ставит на свои платы две микросхемы CMOS для повышения их живучести на случай неудачной перепрошивки BIOS пользователем.

    Плата SUMA GeForce4 Ti4400
    в сочетании с разными типами
    оперативной памяти.

    На практике плата показала себя отлично (никакой «сырости», характерной для первых выпусков плат на новых чипсетах, замечено не было). Зато неожиданно плохо выступила память — та самая виновница торжества DDR333 PC2700. В инструкции к материнской плате есть предупреждение о нестабильном качестве выпущенных к настоящему моменту модулей. И в самом деле, пришлось перебрать множество модулей, чтобы выбрать два гарантированно рабочих (хотя все они были на чипах Samsung и едва ли не из одной партии). Кстати, нестабильность проявлялась как раз в играх, причем строго определенных, особенно страдал парнишка Serious Sam, зависавший уже на этапе загрузки.

    Именно по этой причине стоит, пожалуй, подождать с покупкой DDR333-памяти до тех пор, пока не выйдут гарантированно функционирующие на таких частотах модули (а для этого, возможно, придется прибегнуть к новой BGA-упаковке чипов, и такие модули уже появляются). В итоге основной платформой для теста видеокарт стала плата на KT333-чипсете с памятью PC2100, безупречно отработавшей во всех задачах.

    Что касается сравнения разных типов памяти, то, как вы видите по результатам тестов, чудес особых нет: на ходовом разрешении 1024х768 почти все игры, кроме Quake 3, после перехода с PC2100 на PC2700 прибавили всего несколько fps. Для сравнения приведены тесты на плате ABIT KT7A с чипсетом KT133A и простой SDRAM PC133. Здесь разница между устаревшей SDRAM и любой версией DDR видна невооруженным глазом. Минимальную зависимость от типа памяти продемонстрировали шейдерные тесты, для которых все пока определяется мощностью видеокарты.

    SUMA Platinum GeForce4 MX460 SE

    А вот от мощности этой видеокарты никакие шейдеры не зависят, по причине их отсутствия в MX-версиях GeForce4. Между тем плата не относится к бюджетной категории (что подтверждается ценой) и попала она в тест высокопроизводительных карт отнюдь не случайно. Что и говорить, плата интересная: очень быстрые память и процессор, вдобавок неплохо поддающиеся разгону (без дополнительного охлаждения удалось получить стабильные 330 МГц на процессоре и 637 МГц на памяти), сочетаются с полным отсутствием архитектурных излишеств. О строении GeForce4 MX достаточно слов сказано в предыдущем номере, а MX460 — старшая модель младшей линейки, отличающаяся от MX420 и 440 только частотами процессора и памяти.

    Покупатели данного продукта имеют все шансы обзавестись самым мощным и просто последним из «классических» 3D-ускорителей. Следующие выпуски даже бюджетных видеокарт, не говоря уж о дорогих, едва ли будут обходиться без тех же шейдеров. Вполне можно себе представить в качестве покупателя MX460 и этакого реалиста, не желающего тратиться на то, что не сможет полноценно работать здесь и сейчас, и вместе с тем собирающегося играть в максимально комфортных условиях в современные игры.

    Претензий к качеству плоской графики в отношении этой карты нет, хотя у всех флагманов на GeForce4 Ti оно показалось нам чуть более привлекательным (не исключено, что здесь не обошлось без маркетинга, ибо самые дорогие карты просто обязаны быть лучше во всем, а на оптимизацию их конструкции по определению уходит больше времени).

    Аббревиатура «SE» (Second Edition) в названии карты намекает на некие усовершенствования по сравнению с «первой редакцией». Мы видим их в многообразии видеовыходов: распаяны разъемы под обычный монитор и цифровую ЖК-панель (DVI), в дополнение к ТВ-выходу реализован видеовход на микросхеме от Philips, заботливо покрытой радиатором (!) — редчайший случай, таким же, как и на чипах памяти. В увесистом комплекте поставки есть большинство кабелей, что могут потребоваться для видеоработ; нет только переходника c DVI на аналоговый монитор — его придется докупать при подключении к этой карте двух обычных мониторов. Радиаторы на модулях памяти, конечно, способствуют успешному разгону, но штатное крепление на теплопроводящем клее не есть идеальный «тепловой интерфейс» (на некоторых чипах радиаторы едва держались, то есть соприкасались лишь в нескольких точках). Поэтому у любителей выжать максимум есть очевидный резерв для улучшения теплоотвода. Придется повозиться и отклеить все радиаторы (снять их можно только «откручиванием», иначе можно повредить чипы), убрать клей и посадить их на «правильную» термопасту. Этот метод справедлив для всех видеокарт SUMA с подобными радиаторами.

    SUMA Platinum GeForce4 Ti4400

    GeForce4 Ti 4400 (275 МГц)

    3,6-нс DDR DRAM (550 МГц)

    Объем памяти, Мбайт

    2х/4х, fast writes

    nView, TV-Out, (DVI+DVI, VIVO)

    Фирма SUMA не ограничилась одним вариантом платы на 4400-м чипе. Кроме аскетичной версии с таким же выходом для единственного монитора, существует элитный вариант (с двумя DVI-выходами, видевходом на аналогичном MX460-модели чипе от Philips и комплектом радиаторов для памяти). Ко второй карте подключить обычный CRT-монитор можно только через переходник, причем в комплекте их прилагается аж две штуки. Разброс цен (см. выше «системные данные» платы) как раз соответствует двум вариантам комплектации. И пусть он не покажется вам большим, если вы примите во внимание, что поддержка DVI требует отдельных микросхем (в последнее время почти поголовно все используют чипы от Silicon Image). Цифровой интерфейс, в отличие от аналогового и ТВ-выхода, пока крайне редко интегрируют в ядро графических процессоров.

    У нас были образцы обеих плат, на штатных частотах показавшие идентичные результаты (иное было бы странно), зато резко разнящиеся в разгоне. Плата без радиаторов выдержала 310 МГц на GPU и 675 на памяти. Кажется, куда больше, верно? Но элитная версия платы легко подняла планку до 320 МГц на процессоре и 688 МГц на памяти! В обоих случаях никакие добавочные вентиляторы не использовались (разумеется, этот пример ни в коей мере не означает, что с разогнанной платой можно работать в таком режиме сколь угодно долго — оверклокинг, не компенсированный хотя бы лучшим охлаждением, сокращает жизнь платы).

    Полноэкранное сглаживание (FSAA)
    и анизотропная фильтрация в
    исполнении Ti4400 и Radeon-8500.

    Ну а что можно сказать о графическом процессоре GeForce4 Ti4400 в действии — кроме того, конечно, что он очень быстр и по совокупности тестов на голову выше своего ближайшего конкурента — Radeon 8500? Пожалуй, ничего: все результаты вы найдете в таблице. Впрочем, если сосредоточиться только на «шейдерных» тестах (к сожалению, Codecreatures на Radeon работать отказался), хочешь не хочешь придется хвалить и детище ATI. А именно: в тесте Game4 из 3DMark сверхзвуковой GeForce4 Ti4600 отстал на целый кадр в секунду! Правда, более прогрессивный Advanced Pixel Shaders, в котором используются шейдеры старших версий (1.4 для Radeon 8500 и 1.3 для GeForce4 Ti), возвратил на трон фирму nvidia, при этом для уверенной победы хватило даже мощности ослабленного Ti4200. Озеро с рыбками, усердно рисуемое ускорителями в этом тесте, получалось равно качественным, независимо от используемой версии шейдеров (а один из козырей Radeon 8500, напомню, состоит именно в поддержке самой свежей версии шейдеров, нежели у всех прочих ныне существующих карт. Но, похоже, и он тоже теряет силу).

    Включение анизотропной фильтрации и полноэкранного сглаживания притормаживает GeForce4 Ti заметно слабее, чем Radeon 8500 (с прежними моделями GeForce тем паче нет никакого сравнения). Плюс нужно еще учесть более честную и красивую реализацию анизотропии в ускорителях от nvidia.

    SUMA GeForce4 Ti4200 (D/C)

    По всей вероятности, эта «народная модель» из ряда GeForce4 Ti появится в свободной продаже не раньше, чем будут распроданы запасы плат на GeForce3. А пока nvidia всячески избегает давать такие платы даже для испытаний.

    Ну и не беда, благо затормозить плату еще проще, чем разогнать. Что мы и сделали с предыдущей картой — SUMA GeForce4 Ti4400. Официальные частоты 4200-го чипсета — 225/500 МГц — установились на ней без проблем.

    Что же тесты? И на этот раз преимущество перед Radeon 8500 сохранилось, хоть и стало местами минимальным. Есть подозрение, что частоты для Ti4200 выбирались не без учета производительности конкурента — так, чтобы, с одной стороны, надежно его опережать, а с другой — создать максимальный отрыв от Ti4400, дабы отбить как можно меньше потенциальных покупателей у старших моделей.

    Как водится, в итоговом рейтинге привлекательности не последнюю роль будет играть разгоняемость настоящих Ti4200-карт, хотя сомнений, что nvidia позаботится о том, чтобы максимально осложнить жизнь оверклокерам, у нас нет ни малейших.

    SUMA Platinum GeForce4 Ti4600 SEa

    GeForce4 Ti 4600 (300 МГц)

    2,8-нс DDR DRAM (650 МГц)

    Объем памяти, Мбайт

    2х/4х, fast writes

    nView, TV-Out, DVI+DVI, VIVO

    Зато уж тем, кому не хватает даже скоростей 4400-й модели, палки в колеса никто ставить не собирается. Нате, пожалуйста, покупайте 4600-го монстра, можете даже разогнать его, если мало покажется (в нашем случае до 320 МГц на процессоре и 733 МГц (!) на памяти).

    Комплектация платы аналогична «утяжеленной» версии Ti4400: есть радиаторы на чипах и полный комплект видеоразъемов. ПО в коробки к своим платам фирма SUMA кладет очень экономно, но 4600-й, помимо драйверов, все-таки достался демо-диск Experience.

    Сложно пытаться выявить какие-то недостатки в условиях, когда конкуренция «в абсолютном классе» если и может быть, то только между этой и аналогичными платами от других сборщиков на том же чипсете. А значит — спор пойдет больше о вкусах, ибо скорости у них примерно равны из-за тотального следования эталонному дизайну, предписанному самой nvidia.

    Итого: налицо самая мощная видеокарта, достойная медали «Наш выбор» на срок от нескольких месяцев до полугода — то есть до выпуска чего-нибудь еще более убойного.

    GeForce4 Ti 4600 (300 МГц)

    2,8-нс DDR DRAM (650 МГц)

    Объем памяти, Мбайт

    2х/4х, fast writes

    nView, TV-Out, DVI+D-Sub

    Тем не менее — для достоверного определения лучшей из лучших — просто-таки необходимо привлечь альтернативную плату. А кто же еще способен на побитие рекордов, как не дорогущий ASUS?

    Уважаемая компания выпустила собственную версию линейки четвертых GeForce одной из последних, а значит, можно предположить, имела дополнительное время для оптимизации BIOS и отжима всех возможных соков из нового чипсета.

    Сказать, что карта не получилась, было бы глупостью: 8460Ultra идет вровень со «скромным» изделием от Supermicro со товарищи, местами чуть обгоняя и на столь же ничтожную величину отставая. Поэтому, исходя только из скоростных характеристик, можно было бы наградить «нашвыбором» обе платы.

    Но. Но наш ASUS все же дороже, а по комплектации видеоразъемами объективно проигрывает конкуренту. Кроме того, у платы нет радиаторов на чипах памяти. Тем не менее разгон удался в тех же пределах, следовательно (теоретически!) — самостоятельно наклеив радиаторы, можно попытаться разогнать еще. Попробуете?

    2000-2008 г.
    Все авторские права соблюдены.

    Сравнительное тестирование современных видеокарт

    Сравнительное тестирование современных видеокарт

    Количество новых моделей видеокарт увеличивается год от года. Оценить производительность различных моделей довольно сложно, поэтому мы провели сравнительное тестирование большинства современных видеокарт на базе графических процессоров производства компаний NVIDIA и AMD. Одни видеокарты, участвовавшие в этом тестировании, были анонсированы в прошлом году, а другие являются новинками, только появившимися в свободной продаже. Так, из новинок можно отметить двухпроцессорную видеокарту Gigabyte GeForce GTX590, которая должна потеснить своего прямого конкурента — видеокарту AMD Radeon HD6990. Все тестировавшиеся видеокарты относятся к среднему и верхнему ценовым диапазонам — производительность таких видеокарт наиболее интересна, ведь они предназначены в первую очередь для геймеров и компьютерных энтузиастов.

    Прежде чем рассказать о методике тестирования и его результатах, рассмотрим основные технологии, реализованные в новых линейках видеокарт. Отметим, что и NVIDIA и AMD полностью перешли на технологический процесс 40 нм, поэтому все новые видеокарты имеют равные условия производства. Освоение более совершенных техпроцессов у тайваньской фабрики TSMC затянулось: переход на норму 32 нм был полностью отменен, а следующим шагом должен стать переход на норму 28 нм, который также откладывается на неопределенный срок. Из­за этого производители графических чипов, сотрудничающие с фабриками TSMC, вынуждены продолжать пользоваться предыдущим, 40-нанометровым техпроцессом, который на них тоже был с трудом внедрен и доведен до ума. Основные поддерживаемые стандарты не изменились — Direct3D 11, OpenGL 4.1, OpenCL 1.1, DirectCompute 11 и Shader Model 5.0.

    Если говорить о последних графических процессорах компании AMD, то видеокарты на их основе не относятся к ультравысокопроизводительным решениям, а призваны расширить и дополнить линейку видеокарт Radeon HD5800/6800, а также улучшить показатели производительности в новых приложениях за счет новых технологий тесселяции, а не заменить ее. Нельзя обойти вниманием и то, что последняя архитектура графических процессоров AMD оптимизирована для снижения энергопотребления видеокартами и удешевления их производства в расчете на соотношение «цена/производительность».

    Видеокарты на базе графических процессоров компании NVIDIA наконец­то получили полноценную производительность и смогли показать всю мощь новой архитектуры Fermi. Отметим, что новая серия графических чипов GeForce GTX500 является, по сути, переработанной серией GeForce GTX480, которая получила большее количество отдельных блоков и модернизирована с учетом меньшего энергопотребления и более высокой производительности.

    Учитывая, что новые видеокарты не сильно отличаются от предыдущего поколения, мы поговорим не только об их производительности и ценовых качествах, но и рассмотрим энергопотребление видеокарт, эффективность их систем охлаждения и разгонные качества.

    Методика тестирования

    Новая версия тестового скрипта Computer-Press Game Benchmark Script v.6.0 имеет некоторые отличия от предыдущей версии v.5.0. Во­первых, в скрипт добавлены новые тесты и игры; во-вторых, мы отказались от использования некоторых игр, входивших в предыдущую версию скрипта, посчитав их уже морально устаревшими и неактуальными; в­третьих, некоторые тесты на основе игр были обновлены, то есть в них применяются более новые версии игр. В итоге в скрипт ComputerPress Game Benchmark Script v.6.0 были включены следующие игры и бенчмарки:

    • Aliens vs Predator Benchmark v1.03;
    • Call of Juares DX10 Benchmark v. 1.1.1.0;
    • S.T.A.L.K.E.R. Call of Pripyat Benchmark 1.0;
    • Crysis Warhead v.1.11.690;
    • Left 4 Dead 2;
    • FarCry 2;
    • Unigine Heaven Benchmark 2.1;
    • Unigine Sanctuary Benchmark 2.3;
    • Unigine Unigine Tropics Benchmark 1.3;
    • DiRT-2;
    • Metro 2033.

    Рассмотрим новый скрипт ComputerPress Game Benchmark Script v.6.0 подробнее. Идеология, лежащая в его основе, осталась неизменной. Как и прежде, этот тестовый скрипт предназначен для автоматизации всего процесса тестирования и позволяет выбрать тесты, а также задать дополнительные параметры тестирования. Скрипт совместим с 32-битной версией операционной системы Windows 7 и позволяет учесть ее особенности по динамической подстройке под различные сценарии применения приложений, что обеспечивает хорошую повторяемость результатов. Для учета функции самонастройки операционной системы наша методика тестирования предполагает два этапа: обучение и получение результатов. На этапе обучения системы производятся сбор и анализ необходимых для самонастройки операционной системы данных, а на этапе получения результатов тестирования — собственно тестирование системы. Важно отметить, что если в тестировании применяется не один, а несколько тестов, то перед каждым новым тестом вновь выполняется обучение системы.

    Каждый игровой тест, входящий в скрипт ComputerPress Game Benchmark Script v.6.0, может запускаться при различном разрешении экрана. С учетом того, что в настоящее время подавляющее большинство ЖК-мониторов имеет разрешение 1920x1080 (Full HD), а для большинства ноутбуков используется разрешение 1366x768, мы решили ограничиться именно этими двумя разрешениями, как наиболее актуальными на данный момент. В этом тестировании мы применяли только разрешение FullHD, так как им пользуется большинство геймеров.

    Все игры могут запускаться в двух режимах настройки: максимальная производительность и максимальное качество. Режим настройки на максимальную производительность достигается за счет отключения таких эффектов, как анизотропная фильтрация текстур и экранное сглаживание, а также установки низкой детализации изображения и т.д. То есть данный режим направлен на то, чтобы получить максимально возможный результат (максимальное значение FPS). В данном режиме настройки результат в большей степени зависит от производительности процессора и в меньшей — от производительности видеокарты.

    Режим настройки на максимальное качество достигается за счет применения высокой детализации, различных эффектов, анизотропной фильтрации текстур и экранного сглаживания. В этом режиме настройки результат в большей степени зависит от производительности видеокарты и в меньшей — от производительности процессора.

    Отметим, что тестовый скрипт ComputerPress Game Benchmark Script v.6.0 ориентирован на видеокарты с поддержкой API DirectX 11 и если в игре реализована возможность использования DirectX 11, то в режиме настройки на максимальное качество применяется именно DirectX 11. В этом плане скрипт ComputerPress Game Benchmark Script v.6.0 несовместим с видеокартами, не поддерживающими API DirectX 11.

    Скрипт ComputerPress Game Benchmark Script v.6.0 позволяет задать количество прогонов каждого теста. После каждого прогона теста выполняется перезагрузка компьютера и выдерживается пауза. По результатам всех прогонов теста рассчитываются среднеарифметический результат и среднеквадратичное отклонение. Как показывает практика, для получения погрешности результатов тестирования порядка 1% вполне достаточно выполнять три прогона каждого теста.

    Более подробное описание настроек каждого теста и работы скрипта можно найти в статье «Новый игровой бенчмарк ComputerPress Game Benchmark Script v.6.0», опубликованной в КомпьютерПресс № 2’2011. Отметим лишь, что в данном тестировании в качестве операционной системы мы использовали Windows 7 Ultimate 32 бит. Для всех видеокарт на базе графических процессоров AMD устанавливался последний на момент тестирования драйвер Catalyst 11.2, а для видеокарт на базе графических процессоров NVIDIA применялось несколько драйверов — 266.58, 266.66 (GeForce GTX560Ti) и 267.85 (GeForce GTX590). В этом тестировании, в отличие от предыдущих, не используется такое понятие, как референсная конфигурация, а результаты сводятся к сравнению полученных значений кадров в секунду для каждой игры при разных настройках качества изображения. Для того чтобы более наглядно показать производительность той или иной видеокарты, мы использовали интегральный показатель производительности, который вычислялся по следующему алгоритму. Для каждого теста у каждой видеокарты вычислялось среднегеометрическое от количества кадров в секунду (fps), полученных в этом тесте при максимальной и минимальной настройке качества. Таким образом, определялся средний показатель количества кадров в секунду, которое данная видеокарта может воспроизводить в конкретном тесте. Далее вычислялось среднегеометрическое от всех средних показателей в проводимых тестах. В итоге получался некий интегральный показатель, который отображал среднее количество fps во всех играх для конкретной видеокарты. Для оценки показателя «цена/качество» видеокарты мы использовали отношение цены к общему интегральному показателю, найденному ранее. Цены приведены на момент тестирования и взяты с сайтов крупных компьютерных магазинов.

    При тестировании применялся стенд следующей конфигурации:

    • процессор — Intel Core i7 Extreme 990X (тактовая частота 3,4 ГГц, режим Turbo Boost активирован);
    • системная плата — Gigabyte GA-EX58-UD4;
    • чипсет системной платы — Intel X58 Express;
    • Intel Chipset Device Software — 9.1.1.1019;
    • память — DDR3-1066 (Qimonda IMSH1GU03A1F1C-10F PC3-8500);
    • объем памяти — 3 Гбайт (три модуля по 1024 Мбайт);
    • режим работы памяти — DDR3-1066, трехканальный режим;
    • тайминги памяти — 7-7-7-20;
    • жесткий диск — Seagate ST31500341AS объемом 1,5 Тбайт.

    Тестирование эффективности системы теплоотвода видеокарты заключалось в том, чтобы в стрессовом режиме загружать графический процессор и одновременно контролировать его температуру. Контроль температуры и загрузки графического процессора производился посредством программы FurMark 1.9.0 (версия 1.8.2 использовалась для видеокарты GeForce GTX590). В некоторых случаях также применялись данные, которые предоставляет популярная сегодня утилита GPU-Z последней версии 0.5.2. Следует отметить, что поскольку в новых видеокартах и драйверах к ним применяется новая система мониторинга энергопотребления, то есть вероятность того, что значения, полученные в ходе тестов, будут не совсем точными. Также обращаем внимание на то, что стенд для тестирования располагался на открытом пространстве (на столе), в реальных же условиях, когда ПК монтируется в корпусе, температура графического процессора будет несколько выше, если, конечно, в корпусе не установлены дополнительные вентиляторы охлаждения.

    Для тестирования энергопотребления видеокарт использовался стенд следующей конфигурации:

    • процессор — AMD Phenom II X6 1090T (тактовая частота 3,2 ГГц, режим Turbo Core активирован);
    • системная плата — Gigabyte GA-890GPA-UDH3;
    • чипсет системной платы — AMD 890GX;
    • память — DDR3-1333 (Corsair Dominator CM3X1G2133C9D);
    • объем памяти — 2 Гбайт (два модуля по 1024 Мбайт);
    • режим работы памяти — DDR3-1333, двухканальный режим;
    • тайминги памяти — 9-9-9-24;
    • жесткий диск — Western Digital WD10002FBYS объемом 1 Тбайт.

    В режиме простоя данный стенд с интегрированной видеокартой Radeon HD4290 потребляет 70 Вт. При максимальной нагрузке на графическое ядро Radeon HD4290 энергопотребление стенда возрастает до 130 Вт. Поскольку довольно сложно определить энергопотребление самой видеокарты, мы будем приводить данные энергопотребления стенда в целом. Если сравнивать режим простоя, когда графический процессор не нагружен, и режим 100-процентной нагрузки на графический процессор, то можно примерно оценить потребляемую мощность отдельно видеокарты, если характеристики компьютера при этом не меняются.

    Результаты тестирования

    Сравнительные результаты тестирования в виде диаграмм для каждой игры представлены на рис. 1-11.

    Рис. 1. Результаты тестирования
    в бенчмарке Aliens vs. predator Benchmark v1.03

    Рис. 2. Результаты тестирования
    в бенчмарке Call of Juares DX10 Benchmark v. 1.1.1.0

    Рис. 3. Результаты тестирования
    в бенчмарке S.T.A.L.K.E.R. Call of Pripyat Benchmark 1.0

    Рис. 4. Результаты тестирования
    в бенчмарке Crysis Warhead v.1.11.690

    Рис. 5. Результаты тестирования в бенчмарке Left 4 Dead 2

    Рис. 6. Результаты тестирования в бенчмарке FarCry 2

    Рис. 7. Результаты тестирования в бенчмарке Dirt 2

    Рис. 8. Результаты тестирования в бенчмарке Metro 2033

    Рис. 9. Результаты тестирования
    в бенчмарке Unigine Heaven Benchmark 2.1

    Рис. 10. Результаты тестирования в бенчмарке Unigine Tropics Benchmark 1.3

    Рис. 11. Результаты тестирования в бенчмарке Unigine Sanctuary Benchmark 2.3

    На рис. 12 показано соответствие цены и производительности для каждой из протестированных видеокарт.

    Рис. 12. Соотношение цены и производительности
    для каждой из протестированных видеокарт

    Технические характеристики всех протестированных видеокарт представлены в таблице .

    Выбор редакции

    По результатам тестирования нами были отмечены две видеокарты — Gigabyte GeForce GTX590 и XFX Radeon HD6950. За высочайшую производительность, необычную комплектацию и отличное качество видеокарта Gigabyte GeForce GTX590 получила знак «Выбор редакции» как самое производительное решение в большинстве современных игр. За высокую производительность и приемлемую цену видеокарта XFX Radeon HD6950 получила знак «Выбор редакции» в номинации «Лучшее соотношение “цена/качество”».

    Участники тестирования AMD Radeon HD5870

    Видеокарта AMD Radeon HD5870 является референсной моделью, которую компания AMD представила во время анонса моделей семейства Radeon HD5800. В это тестирование данная модель была включена лишь потому, что она до сих пор успешно продается и имеет достойную производительность даже после выпуска еще двух поколений графических процессоров семейства Radeon. Основные технические характеристики этой видеокарты приведены в таблице, а здесь рассмотрим ее внешний вид и систему охлаждения. Примененная в данной модели система охлаждения, по сравнению с системой, установленной на референсных видеокартах предыдущей серии Radeon HD4870/HD4890, претерпела существенные изменения. Длина печатной платы и вместе с ней системы охлаждения увеличилась, при этом вес видеокарты уменьшился до 780 г.

    В верхней части платы на привычном мес­те расположены два 6-контактных разъема питания. В этой модели предусмотрены два отверстия для забора воздуха, размещенные на задней стороне, что несколько удлиняет видеокарту, зато обеспечивает более мощный поток воздуха. Система охлаждения построена на основе 4-контактного управляемого вентилятора, выполненного в виде турбины. Воздух от вентилятора охлаждает алюминиевый радиатор, который накрывает графический процессор, микросхемы памяти и блоки VRM. Выход нагретого воздуха осуществляется через небольшое отверстие рядом с интерфейсами подключения. Также обратим внимание, что обратная сторона платы полностью закрыта металлическим кожухом.

    В данной модели используются микросхемы памяти GDDR5 производства компании Samsung, которые имеют маркировку K4G10325FE-HC04. Время выборки этих мик­росхем равно 0,4 нс, а номинальная частота составляет 1,25 ГГц (5 ГГц QDR). Поскольку микросхемы памяти в видеокарте работают на частоте 1,2 ГГц (4,8 ГГц QDR), у видеокарты есть небольшой запас по разгону памяти. Задняя часть видеокарты, на которой расположены интерфейсы, имеет два разъема DVI, а также HDMI и Display-Port.

    Leadtek (NVIDIA) GeForce GTX480

    Видеокарта Leadtek GeForce GTX480 до недавнего времени являлась флагманом линейки однопроцессорных видеокарт на графических чипах компании NVIDIA. Теперь ее должны заменить более современные модели — видеокарты на базе графических процессоров GeForce GTX580. Сейчас эта видеокарта сопоставима по производительности с видеокартой новой серии GeForce GTX570, хотя в некоторых тестах и обгоняет ее. Основные технические характеристики этой видеокарты приведены в таблице, а здесь рассмотрим систему охлаждения и ее внешний вид. На передней панели видеокарты располагаются три разъема для подключения мониторов: два DVI и один mini-HDMI. Отметим, что в момент выпуска данной модели это была одна из первых реализацией нового стандарта mini-HDMI на пользовательских видеокартах. Поскольку данный разъем только недавно стал получать широкое распространение, в комплекте с видеокартой поставляется кабель-переходник длиной 6 м, на одном конце которого находится HDMI-разъем, а на другом — mini-HDMI. Нельзя не отметить, что кабели HDMI довольно дорогие, поэтому идущий в комплекте кабель — это большой плюс при выборе видеокарты.

    Вернемся к системе охлаждения. В этой видеокарте применяется несколько отличная от предыдущих моделей система охлаждения, основанная на тепловых трубках, выступающих за верхнюю часть видеокарты, и массивном радиаторе. Массивный алюминиевый радиатор с никелированным покрытием, отводящий тепло от пяти тепловых трубок, имеет достаточно большую площадь рассеивания. Основание радиатора замещают тепловые трубки, которые передают тепло от основания радиатора к его верхним точкам. Таким образом, осуществляется равномерный нагрев всего радиатора и соответственно улучшается теплообмен. Для охлаждения в этой модели используется 60-миллиметровый 4-контактный вентилятор производства компании Delta Electronics. Лицевой частью радиатор выступает над поверхностью видеокарты и не прикрыт пластмассовым корпусом, а стилизован как элемент дизайна. Такое решение, конечно, выглядит эффектно, однако может представлять опасность, ведь при максимальной нагрузке на видеокарту ее графический чип нагревается до 93 °С.

    В верхней части платы на привычном месте расположены 6- и 8-контактный разъемы питания видеокарты. На этой же части платы, но ближе к интерфейсам размещен разъем SLI для связки двух видеокарт.

    В этой модели используются микросхемы памяти GDDR5 производства компании Hynix, которые имеют маркировку H5GQ1H24MJR-814A. Время выборки этих микросхем равно 0,4 нс, а номинальная частота составляет 1 ГГц. Поскольку микросхемы памяти в видеокарте работают на частоте 924 МГц, у этой видеокарты нет запаса по небольшому разгону.

    При работе в режиме простоя графическое ядро нагревалось до температуры 44 °С, общее энергопотребление стенда составляло 91 Вт, а вентилятора практически не было слышно. При максимальной нагрузке на видеокарту с помощью программы FurMark температура ядра поднялась до 96 °С и стабилизировалась на отметке 95 °С. При этом энергопотребление системы составило 477 Вт, а вентилятор системы охлаждения усиленно вращался, издавая ощутимый шум. Отметим, что энергопотреб­ление более 350 Вт — это довольно много, поэтому при установке такой видеокарты необходимо иметь мощный блок питания (не менее 700 Вт).

    Gigabyte GeForce GTX480 Super Over Clock

    Видеокарта Gigabyte GeForce GTX480 Super Over Clock построена на предыдущем графическом чипе, флагмане компании NVIDIA — процессоре GeForce GTX480. В ней используется графическое ядро с кодовым названием GF100, отличное от тех, что применяются в топовых графических чипах NVIDIA GTX580. Оно было анонсировано первым в новой линейке на базе архитектуры Fermi. От референсной модели видеоадаптера NVIDIA GeForce GTX480 новая модель Gigabyte GeForce GTX480 Super Over Clock отличается почти всеми типовыми характеристиками, набором некоторых элементов и даже размером текстолита. Производитель установил новую систему охлаждения, которая гораздо более эффективна, чем штатная система, устанавливаемая на референсных моделях. Частоты памяти, графического ядра и унифицированных процессоров также были изменены и увеличены. Так, базовая частота графического ядра возросла с 700 до 821 МГц, то есть на целых 120 МГц. Унифицированные процессоры получили тактовую частоту на 240 МГц больше, чем у референсной модели. И только частота графической памяти была увеличена всего на 25 МГц. В итоге компания Gigabyte представила полностью модифицированный вариант видеокарты GeForce GTX480, обеспечив при этом стабильность работы на всем протяжении эксплуатации. Однако стоит отметить, что из-за увеличения частотных характеристик и применения дополнительных элементов питания энергопотребление видеокарты существенно возрастает при максимальной нагрузке на нее.

    Отличительной чертой данной модели можно назвать 14-фазную систему питания. При этом две фазы питания отведены для графической памяти, а остальные 12 питают графический процессор. Отметим, что в референсной модели применяется 6-фазная схема питания памяти (одна фаза) и графического процессора (пять фаз). Для наглядного представления режимов работы подсистемы питания данная видеокарта имеет набор из 12 LED-индикаторов, свечение которых сигнализирует о степени нагрузки графического процессора.

    Поскольку эта видеокарта позиционируется как решение для продвинутых геймеров и в первую очередь для любителей разгона, она, как и полагается настоящему оверклокерскому продукту, имеет несколько дополнительных возможностей. Так, на Gigabyte GeForce GTX480 Super Over Clock есть специальные точки замера для снятия показателей напряжения на ключевых элементах печатной платы. На самом краю видеокарты находится переключатель Xtreme, который имеет голубоватую подсветку в обычном режиме работы. Он позволяет выбрать режим работы с BIOS видеокарты: в штатном режиме все параметры стандарт-ны для BIOS, а режим Xtreme, по заверениям Gigabyte, создан специально для любителей экстремального разгона и позволяет избежать ложного срабатывания термозащиты при низких температурах, так называемого coldbug. Отметим, что при экстремально низких температурах некоторые процессоры и видеочипы могут отключаться из-за срабатывания термозащиты. Механизмы температурной защиты встроены во все современные процессоры и видеочипы — они внедрены для защиты от перегрева, но при больших по абсолютному значению отрицательных температурах тоже срабатывают. Заметим, что coldbug создает проблемы компьютерным энтузиастам, которые используют экстремальные методы охлаждения типа фреона, сухого льда, жидкого азота или жидкого гелия.

    Система охлаждения под названием WindForce 3X разработана в самой компании Gigabyte и предназначена для охлаждения всех линеек видеокарт серии Super Over Clock последнего поколения. Для повышения эффективности отвода тепла от основных элементов видеокарты в конструкции системы охлаждения WindForce 3X используется испарительная камера, которая соприкасается с графическим процессором GF100 через небольшой слой термопасты. Для равномерного распределения тепла по поверхности радиатора используются четыре алюминиевые тепловые трубки, которые переносят тепло от центрального радиатора к двум другим, расположенным от него по обе стороны. Чипы памяти контактируют с основанием системы охлаждения через термо­прокладки, ряд элементов системы питания карты накрыт небольшим алюминиевым радиатором. Дополнительное охлаждение имеется и у блоков VRM, которые активно греются при работе видеокарты. Для отвода тепла от трех радиаторов в этой системе охлаждения предусмотрены три 80-миллиметровых 3-контактных вентилятора. Специфическое подключение вентиляторов к печатной плате посредством 5-контактного разъема позволяет управлять вентиляторами по отдельности. Таким образом, когда графическое ядро находится в режиме простоя и не выделяет большое количество тепла, один из вентиляторов системы охлаждения останавливается, а другие вращаются на минимальных оборотах. Такое решение весьма эффективно в плане снижения как энергопотребления, так и издаваемого вентиляторами шума. Благодаря измененной системе охлаждения вес новой видеокарты уменьшился на 141 г (весит она 792 г) по сравнению со штатной версией, система охлаждения которой имела массивный и неуклюжий радиатор.

    Как все видеокарты компании Gigabyte, данная модель поставляется в эффектной коробке, которая помимо видеокарты содержит диск с фирменным программным обеспечением, руководство по эксплуатации и установке, а также переходники DVI — VGA и DVI — HDMI. Кроме того, в комплекте есть кабель для подключения дополнительного питания, если у блока питания компьютера нет двух разъемов PCI-E 6-pin. Нельзя не упомянуть и кабель mini-HDMI — HDMI, который редко встречается в комплектах с видеокартами с учетом его довольно высокой стоимости.

    В этой видеокарте используются почти такие же микросхемы памяти, как в референсной модели, — Samsung K4G10325FE-HC04 с номинальной частотой 1250 МГц (5 ГГц QDR). Поскольку в данной видеокарте микросхемы памяти работают на частоте 3,8 ГГц QDR и их охлаждение достаточно надежно, имеется возможность разгона. Суммарный объем установленной видеопамяти у этой модели такой же, как у референсной видеокарты GeForce GTX480, — 1536 Мбайт.

    Отдельно стоит отметить энергопотребление данной модели. В режиме Green, когда разогнанные частоты видеокарты опускаются до формулы 656/1312/760 (GPU/Shader/Memory), общее энергопотребление видеокарты вместе со стендом составляло 420 Вт, что на 30 Вт больше, чем у референсной модели GeForce GTX480. В штатном режиме работы с повышенными относительно референсной модели частотами энергопотребление модели со стендом при 100-процентной нагрузке с помощью программы FurMark составляло 520 Вт. Поэтому при выборе данной модели необходимо подбирать мощный блок питания (более 700-900 Вт).

    XFX Radeon HD6870

    Видеокарта XFX Radeon HD6870 в некоторых тестах по производительности успешно догоняет предыдущую однопроцессорную Radeon HD5870. Особенно это заметно в тестах с использованием игр с API DirectX11, поэтому можно утверждать, что данная серия видеокарт удалась AMD так же хорошо, как и предыдущая. Модернизация в новой архитектуре Barts позволила достичь большей производительности в игровых приложениях, которые задействуют новый API DirectX11 и алгоритмы тесселяции. Основные технические характеристики этой видеокарты приведены в таблице, а здесь рассмот­рим ее внешний вид и систему охлаждения. Отметим лишь, что данный вариант видеокарты под названием XFX Radeon HD6870 Black Edition имеет повышенные частоты памяти и графического процессора. Так, частота графического ядра данной модели выше на 40 МГц, а тактовая частота памяти GDRR5 — на 100 МГц. Таким образом, достигается более высокая производительность при использовании референсной системы охлаждения.

    Система охлаждения данной модели, по сравнению с системой, установленной на референсных видеокартах предыдущей серии Radeon HD5870, претерпела существенные изменения. Длина печатной платы, а вместе с ней и системы охлаждения уменьшилась, как и вес видеокарты. В верхней части платы на привычном месте расположены два 6-контактных разъема питания. В отличие от предыдущих версий видеокарт, в данной модели предусмот­рены два отверстия для выхода воздуха, которые размещены на задней стенке. Система охлаждения построена на основе 4-контактного управляемого вентилятора, выполненного в виде турбины. Воздух от вентилятора охлаждает алюминиевый радиатор, который накрывает собой графический процессор и микросхемы памяти. При этом радиатор имеет медное основание, которое соприкасается с графическим чипом. От медного основания отходят четыре медные трубки, охлаждаемые алюминиевым радиатором.

    В данной модели используются микросхемы памяти GDDR5 производства компании Samsung, которые имеют маркировку K4G10325FE-HC04. Время выборки этих микросхем равно 0,4 нс, а номинальная частота составляет 1,25 ГГц (5 ГГц QDR). Поскольку микросхемы памяти в видеокарте работают на частоте 1,05 (4,2 ГГц QDR) ГГц, возможен небольшой разгон. Задняя часть видеокарты, на которой расположены интерфейсы, имеет два разъема DVI, а также HDMI и два mini-Display-Port.

    Отметим, что по сравнению с предыдущими референсными системами охлаждения от AMD новая система охлаждения стала работать значительно тише. Температура при максимальной нагрузке и в режиме простоя тоже снизилась по сравнению с референсными видеокартами Radeon HD5870.

    XFX Radeon HD6850 Black Edition

    Младшая модель XFX Radeon HD6850 Black Edition, построенная на основе новой архитектуры Barts, представляет собой модифицированную версию графического адаптера Radeon HD6870. Кроме снижения частоты графического ядра и частоты памяти, в этой видеокарте уменьшено количество унифицированных процессоров и текстурных блоков. Для обеспечения надежного питания эта модель снабжена всего одним дополнительным 6-контактным разъемом питания.

    В данной модели установлена сокращенная версия системы охлаждения, которая используется для охлаждения старшей модели Radeon HD6870. Поскольку видеокарта XFX Radeon HD6850 Black Edition имеет не референсные частоты памяти (1100 МГц вместо 1000 МГц) и графического ядра (820 МГц вместо 775 МГц), компания XFX установила на нее свою собственную систему охлаждения. Поскольку габариты карты уменьшены, а сама она не является высокопроизводительным решением, система охлаждения отводит тепло только от графического процессора и не соприкасается с микросхемами памяти. В системе охлаждения этой модели используются тепловые трубки для эффективного переноса тепла от графического процессора по всей поверхности радиатора. В ходе тестирования данная система успешно справлялась с возложенной на нее задачей, не давая графическому ядру нагреваться выше 83 °С.

    В этой модели применяются такие же чипы памяти, как в старшей модели — XFX Radeon HD6870. И хотя они не имеют своего охлаждения, а частоты их несколько повышены, у них есть небольшой запас по разгону, поскольку модули памяти рассчитаны на еще бо льшую частоту работы.

    Энергопотребление видеокарты XFX Radeon HD6850 Black Edition вместе со стендом в режиме простоя составляет 94 Вт. При максимальной нагрузке на графическое ядро энергопотребление стенда возрастает до 288 Вт. Следует отметить, что повышение тактовых частот у этой модели спровоцировало рост энергопотребления на 28 Вт, поскольку референсная видеокарта с штатными частотами при максимальной нагрузке потребляет вместе со стендом 260 Вт.

    Что касается производительности, видеокарта Radeon HD6850 не намного уступает по производительности видеокарте Radeon HD6870, хотя и имеет меньшую производительность во всех без исключения приложениях. В нашем тестировании она оказалась самой малопроизводительной, но, заметим, ее цена вполне сопоставима с ее мощностью.

    XFX Radeon HD6950

    Компания XFX, являясь основным партнером компании AMD, всегда одной из первых выпускает видеокарты на базе последних графических решений AMD. Не стала исключением и серия графических адаптеров Radeon HD6900. Новые графические чипы Radeon HD6950 и Radeon HD6970 с кодовым названием Cayman не сильно отличаются от предыдущего поколения графических адаптеров с кодовым названием Barts. Их появление стало ответом компании NVIDIA на выпуск решений GeForce GTX560Ti и GeForce GTX570. При этом отметим, что анонс и выпуск видеокарты Radeon HD6950, которая является прямым конкурентом GeForce GTX560Ti, состоялся за несколько месяцев до анонса этого графического адаптера компанией NVIDIA. И это неудивительно, ведь, по статистике, именно видеокарты среднего уровня типа GeForce GTX460, GTX560Ti, 9800GT, GTX260 и т.п. пользуются спросом у пользователей, поскольку далеко не каждый может выложить значительную сумму за видеокарту высшего ценового сегмента. И здесь как раз и разворачивается основная битва между NVIDIA и AMD.

    Но поговорим о видеокарте XFX Radeon HD6950. Ее основные характеристики приведены в таблице, а здесь мы рассмотрим ее систему охлаждения и энергопотребление. Компания XFX позиционирует данную видеокарту как отличное решение для геймеров, поскольку для нее характерны высокая производительность и не слишком большая цена. Система охлаждения этой модели не отличается от штатной системы, установленной на референсных моделях, представленных самой компанией AMD. В данной системе охлаждения используется хорошо зарекомендовавшая себя технология испарительной камеры, которая позволяет достичь большей эффективности передачи тепла от графического ядра к радиатору. Испарительная камера находится в небольшой медной прослойке между графическим чипом и массивным медным радиатором. Радиатор накрывает собой бо льшую часть печатной платы видеокарты и отвечает за охлаждение как графического ядра, так и микросхем памяти и блоков VRM. Отвод тепла от радиатора осуществляется с помощью управляемого 4-контактного вентилятора турбинного типа.

    Нельзя обойти вниманием и энергопотреб­ление данной видеокарты. В режиме простоя, когда графическое ядро понижает свои тактовые частоты, общее энергопотребление стенда составило 93 Вт. При максимальной нагрузке на графическое ядро с помощью стресс-теста FurMark энергопотребление стенда возрастало до 319 Вт. Отметим, что прямой конкурент этой видеокарты — модель Inno3D GeForce GTX560Ti — при практически равной производительности имеет энергопотребление значительно выше: аппаратный ваттметр зафиксировал потребление на уровне 415 Вт.

    По результатам тестирования данная видеокарта была награждена знаком «Выбор редакции» в категории «Лучшее соотношение “цена/качество”». Такой выбор обусловлен не только отличным сочетанием цены и производительности данной модели среди всех остальных видеокарт этого сегмента, но и меньшим количеством шума, меньшим энергопотреблением и стабильностью работы видеокарты по сравнению с аналогичной моделью Inno3D GeForce GTX560Ti.

    XFX Radeon HD6970

    Видеокарта XFX Radeon HD6970 базируется на последнем графическом процессоре с кодовым названием Cayman и относится к видеокартам высшего ценового диапазона, хотя и уступает по производительности топовым решениям компании NVIDIA. Представленная в нашем тестировании модель XFX Radeon HD6970 Black Edition конкурирует с видеокартами на базе графических процессоров GeForce GTX570. Она является копией референсной модели, предложенной самой компанией AMD. В данной модели используются такие же микросхемы памяти GDDR5, как и в модели Radeon HD6950, — Hynix H5GQ1H24AFA-936A. Эти чипы рассчитаны на максимальную частоту работы 1400 МГц. Основные характеристики видеокарты представлены в таблице, а здесь мы рассмотрим ее систему охлаждения и энергопотребление.

    Компания XFX решила не менять штатную систему охлаждения, которая была предложена компанией AMD для новой модели Radeon HD6970. Данная система охлаждения, как и многие другие современные системы для видеокарт, базируется на испарительной камере, которая заключена в небольшой медной прослойке между радиатором и графическим процессором. Внутри испарительной камеры находится специальная жидкость, которая более эффективно передает тепло от графического ядра к радиатору охлаждения, чем если бы это были медные трубки. Радиатор имеет несколько различных ребер и полностью сделан из меди, что придает ему бо льшую эффективность рассеивания, но при этом утяжеляет конструкцию. Радиатор охлаждается управляемым 4-контактным вентилятором турбинного типа, который давно зарекомендовал себя как отличное решения для мощных видеокарт.

    Энергопотребление видеокарты XFX Radeon HD6970 Black Edition вместе со стендом для тестирования при минимальной нагрузке на графическое ядро составило 98 Вт. При нагрузке на графическое ядро с помощью FurMark общее энергопотребление стенда достигло 377 Вт. Нельзя не отметить, что видеокарта Leadtek GeForce GTX570, которая является конкурентом этой модели по производительности, в таких же условиях потребляет значительно больше — 445 Вт.

    Из минусов данной модели нужно отметить лишь достаточно большой ее вес из-за массивной системы охлаждения. В целом это весьма производительное решение, которое позволяет играть в большинство современных игр с высоким качеством изображения, уступающее, однако, топовым видеокартам на графических процессорах GeForce GTX580.

    Inno3D GeForce GTX560Ti

    Видеокарта Inno3D GeForce GTX560Ti построена на новом графическом чипе GeForce GTX560Ti, который призван заменить предыдущий графический процессор GeForce GTX460, оказавшийся очень удачным и популярным. В этой видеокарте используется графическое ядро GF114, которое является новым, модернизированным вариантом графического ядра GeForce GTX460. От референсной модели видеоадаптера NVIDIA GeForce GTX560Ti видеокарта Inno3D GeForce GTX560Ti отличается частотными характеристиками и набором некоторых элементов. Производитель оставил штатную систему охлаждения, а вот частоты памяти, графического ядра и унифицированных процессоров были увеличены. Тактовая частота графического ядра возросла с 822 до 950 МГц. Унифицированные процессоры получили тактовую частоту 1900 МГц, что на 256 МГц больше, чем у референсной модели (1644 МГц). Частота графической памяти (4300 МГц QDR) была увеличена незначительно — на 73 МГц. Таким образом, компания Inno3D представила очень интересный модифицированный вариант видеокарты GeForce GTX560Ti. Отметим, что немногие производители решались выпустить подобную видеокарту со столь повышенными характеристиками. Данная видеокарта, конечно, имеет огромное преимущество в производительности перед другими моделями на базе этого графического чипа, что подтвердили наши тесты, однако обладает одним небольшим недостатком — переходом в режим троттлинга, о котором мы расскажем ниже. Отметим, что из-за увеличения частотных характеристик и применения дополнительных элементов питания энергопотребление модели несколько возросло. Особенно это заметно в режиме максимальной нагрузки на видеокарту.

    Напомним, что в новых видеокартах серии GeForce GTX560Ti используется улучшенный графический процессор, модифицированный для лучшего соотношения производительности и энергопотребления. Для повышения энергоэффективности новый графический чип с кодовым названием GF114 был модифицирован таким образом, чтобы снизить утечки и оптимизировать чип. Также нельзя не отметить, что графический чип GeForce GTX560Ti, в отличие от предыдущего графического процессора GTX460, имеет 384 потоковых процессора и восемь движков PolyMorph вместо 336 и семи соответственно. В остальном же графический чип GF114 очень похож на GF104, основное различие между ними — только в количестве разблокированных характеристик у модели. Что касается самих видеокарт, то по сравнению с GeForce GTX460 тактовая частота памяти GDDR5 была увеличена, чтобы обеспечить ей достаточную пропускную способность.

    В новом графическом процессоре GeForce GTX560Ti компания NVIDIA внедрила систему мониторинга энергопотребления, которая впервые была применена в высокопроизводительных видеокартах GeForce GTX580. Эта система состоит из специальных датчиков, которые фиксируют значения напряжения и силы тока в цепях питания видеокарты, и внутреннего программного модуля, отслеживающего запуск стресс-тестов типа Furmark, OCCT и др. При активации работы данных приложений программный модуль включает запуск режима троттлинга в случае возникновения перегрева или других опасных для видеокарты ситуаций. И хотя данная система далека от совершенства, что показывали предыдущие исследования, ее внедрение позволило повысить рабочие частоты GeForce GTX560Ti и более гибко увеличивать частотные характеристики. Нельзя обойти вниманием и то, что именно эта система спасает графический чип видеокарты от перегрева при максимальных нагрузках.

    В данной видеокарте используются такие же микросхемы памяти, как в референсной модели, — Hynix H5GQ1H24AFA с номинальной частотой 1250 МГц (5 ГГц QDR). Поскольку в этой видеокарте микросхемы памяти работают на частоте 4,3 ГГц QDR, то возможно увеличение частоты с помощью дополнительного программного обеспечения. Суммарный объем установленной видеопамяти у этой модели такой же, как у референсной видеокарты GeForce GTX560Ti, — 1024 Мбайт.

    Система охлаждения, применяемая в данной модели, не отличается от штатной системы, устанавливаемой на референсные видеокарты GeForce GTX560Ti. Для повышения эффективности отвода тепла от графического процессора видеокарты в конструкции системы охлаждения используется алюминиевый радиатор с медным основанием, который соприкасается с графическим процессором GF114 через небольшой слой термопасты. Для равномерного распределения тепла по поверхности радиатора применяются три медные тепловые трубки, которые переносят тепло от центрального радиатора на два других, расположенных от него по обе стороны. Чипы памяти и VRM-модули системы питания в этой модели также контактируют с системой охлаждения — все они накрыты массивным радиатором, который занимает практически всю площадь текстолита видеокарты. В данной видеокарте установлен один 60-миллиметровый управляемый вентилятор, который расположен непосредственно над графическим чипом видеокарты и охватывает воздушным потоком все элементы платы за счет свободного прохода воздуха через радиаторы.

    Однако, как показывает тестирование, такой системы недостаточно для эффективного охлаждения графического процессора. При нагрузке на графический процессор с помощью программы стресс-теста FurMark эта видеокарта проявляла себя следующим образом: в течение 1-2 минут температура графического процессора достигала 100 °С, а затем, по достижении порога в 100 °С, энергопотребление видеокарты падало. Максимальное фиксируемое энергопотребление стенда с этой видеокартой составило 415 Вт. Снижение энергопотребления, регистрируемое с помощью утилиты GPU-Z 0.5.2, при уменьшении нагрузки на графический процессор говорит о том, что при 100 °С графический чип уходил в режим троттлинга.

    В режиме простоя с пониженными частотами основных элементов видеокарты энергопотреб­ление модели со стендом составляло не более 85 Вт. Отметим, что без видеокарты при работе со встроенным в чипсет графическим ядром HD4290 энергопотребление стенда в режиме простоя было равно 80 Вт.

    Leadtek GeForce GTX570

    Видеокарта Leadtek GeForce GTX570 относится к классу высокопроизводительных решений. Эта модель имеет референсный дизайн платы и системы охлаждения, который был предложен компанией NVIDIA. У графического адаптера Leadtek GeForce GTX570 штатные частоты графической памяти и процессора — 950 и 732 МГц соответственно. Унифицированные процессоры, коих в этой видеокарте 480 штук, работают на частоте 1464 МГц. Хотя данная видеокарта имеет меньшую шину памяти (320 бит), меньший объем графический памяти и меньшее количество блоков блендинга, по производительности в ряде тестов она превосходит предыдущий флагман NVIDIA — видеокарту GeForce GTX480. Это достигается благодаря бо льшим частотам работы графического ядра, унифицированных процессоров и графической памяти. Также это объясняется несколько иной архитектурой графического ядра GF110, которое было модернизировано по сравнению с процессором GF100, используемым в видеокартах GeForce GTX480. По производительности данная видеокарта сопоставима с видеокартой XFX Radeon HD6970, которая является ее главным конкурентом, но в целом несколько уступает ей по производительности и энергопотреблению.

    Система охлаждения этой видеокарты базируется на небольшой испарительной камере, которая расположена между радиатором охлаждения и микросхемой графического процессора. Внутри испарительной камеры находится специальная жидкость, которая передает тепло от нижней части камеры к верхней части радиатора. В целом система охлаждения практически идентична той, что устанавливается в качестве штатной системы на видеокарты GeForce GTX580. Радиатор охлаждается управляемым вентилятором, выполненным в форме турбины. Отметим, что в этой модели применяется несколько иной алгоритм управления вентилятором, который позволяет более плавно изменять скорость его вращения в зависимости от температуры. Таким образом, шум, производимый системой охлаждения, несколько уменьшился по сравнению с издаваемым системой охлаждения в видеокарте GeForce GTX580.

    Энергопотребление видеокарты совместно со стендом в режиме максимальной нагрузки на графический процессор составляло порядка 445 Вт, что на 50 Вт меньше, чем у однопроцессорного флагмана — видеокарты GeForce GTX580. В режиме простоя энергопотребление данной видеокарты сопоставимо с остальными моделями.

    Leadtek GeForce GTX580

    Видеокарта Leadtek GeForce GTX580 обеспечивает самую высокую производительность в современных играх среди однопроцессорных видеокарт, имеющихся на рынке. Ее основные технические характеристики приведены в таблице, а здесь рассмотрим ее внешний вид и систему охлаждения. Облик новой модели повторяет дизайн референсных видеокарт предыдущей линейки — GeForce GTX460 и GTX470. Пластиковый корпус, скрывающий систему охлаждения, выполнен в форме прямо-угольника. На передней панели видеокарты располагаются три разъема для подключения мониторов: два DVI и один mini-HDMI. Поскольку последний разъем не распространен в достаточной мере, в комплекте с видеокартой поставляется кабель-переходник 6-метровой длины, на одном конце которого находится HDMI-разъем, а на другом — mini-HDMI.

    Кроме нововведений в аппаратной части графического чипа, изменения в модели GeForce GTX 580 коснулись системы охлаждения, а также отдельных элементов видеокарты. Так, несмотря на то что компания NVIDIA заявляет о сокращении энергопотреб­ления всего на 6 Вт по сравнению с видеокартой GeForce GTX 480, реальные цифры впечатляют. При максимальной нагрузке на графические карты GeForce GTX480 и GeForce GTX580 разница составляет порядка 25 Вт в пользу GeForce GTX580. То есть при увеличении производительности на 10-15% видеокарта GeForce GTX 580 потребляет меньше энергии при максимальной нагрузке на графический чип. В режиме ожидания энергопотребление видеокарт практически не различается.

    Для эффективного охлаждения графического ядра необходима правильно спроектированная система охлаждения. В видеокарте GeForce GTX480 система охлаждения была неоптимальной для такого типа графических процессоров, и компании NVIDIA пришлось прибегнуть к разработкам других компаний, чтобы добиться эффективного охлаждения GeForce GTX580. Новая видеокарта имеет повышенные частоты ядра, памяти и унифицированных процессоров. В целом о системе охлаждения для референсной модели GeForce GTX580 можно сказать, что это отлично проделанная работа над ошибками, которые были допущены в модели GTX480. За счет несколько пониженного энергопотреб­ления, применения испарительной камеры в радиаторе и модифицированного вентилятора инженеры добились уменьшения общего шума, издаваемого GeForce GTX580. Технология испарительной камеры получила известность благодаря оригинальным системам охлаждения некоторых производителей, например Sapphire Vapor-X. Медная испарительная камера отбирает тепло у графического ядра, которое затем рассеивается при помощи массивного алюминиевого радиатора.

    Отметим, что в данной модели применяется вентилятор с уменьшенной вибрацией и шумом, а новые алгоритмы управления частотой вращения PVM улучшают плавность вращения вентилятора при работе с большой нагрузкой на графический процессор. Кроме того, изменения коснулись системы мониторинга питания и нагрева. Если раньше видеокарты защищались от выхода из строя исключительно из-за недопущения работы GPU при превышении критической температуры, то теперь проводится наблюдение за энергопотреблением всей системы. Исходя из информации, полученной от компании NVIDIA, новые элементы аппаратного мониторинга следят за силой тока и напряжением на 12-вольтных линиях питания. Драйвер опрашивает значения этих параметров и может снизить тактовую частоту GPU при условии запущенных ресурсоемких приложений, если уровень питания превышает максимально возможный. Это ограничение работает только для заранее предопределенных в драйвере приложений, но не для игр. В процессе тестирования было выявлено, что данное ограничение работает только в случае запуска приложения FurMark (стрессовый тест).

    Массивный алюминиевый радиатор с никелированным покрытием и медным основанием, отводящий тепло от своего медного основания, имеет достаточно бо льшую площадь рассеивания. Основание радиатора замещает медная прослойка с узкой испарительной камерой, которая передает тепло от основания радиатора к его верхним точкам. В качестве вентилятора в этой модели используется 70-миллиметровый 4-контактный управляемый вентилятор производства компании Delta. При максимальной нагрузке на видеокарту ее графический чип нагревался до 86 °С, что на 6 °С меньше, чем у предыдущей модели GeForce GTX480.

    В верхней части платы на привычном мес­те расположены 6- и 8-контактный разъемы питания видеокарты. На этой же части платы, но ближе к интерфейсам размещен двойной разъем SLI для связки нескольких видеокарт.

    В видеокарте Leadtek GeForce GTX580 используются микросхемы памяти GDDR5 производства компании Hynix, а не Samsung. Чипы памяти имеют маркировку H5GQ1H24AFR и номинальную частоту 1,25 ГГц. Поскольку микросхемы памяти в видеокарте работают на частоте чуть более 1 ГГц, у этой видеокарты есть небольшой запас по разгону.

    При работе в режиме простоя графическое ядро нагревалось до температуры 46 °С, при этом общее энергопотребление стенда составляло 92 Вт, а вентилятора практически не было слышно. При максимальной нагрузке на видеокарту с помощью программы FurMark температура ядра поднималась до 86 °С и стабилизировалась на отметке 85 °С. При этом энергопотребление всей системы составляло 473 Вт, а вентилятор системы охлаждения усиленно вращался, не издавая ощутимого шума. Это довольно много, поэтому при установке такой видеокарты необходимо иметь мощный блок питания (не менее 700 Вт). По сравнению с предыдущими референсными системами охлаждения от NVIDIA новая система охлаждения стала работать значительно тише и эффективнее при бо льших тактовых частотах.

    Gigabyte GeForce GTX590

    Компания Gigabyte, как и другие игроки рынка видеокарт, анонсировала выпуск двухпроцессорной видеокарты на базе графического процессора GeForce GTX590 сразу же, как только чипы появились у поставщика. Посмотрим, что собой представляет новая двухпроцессорная видеокарта, которая стала флагманом всей линейки видеокарт на базе графических процессоров NVIDIA GeForce 500.

    Многопроцессорные решения всегда имеют очень высокую производительность, и это касается не только центральных, но и графических процессоров. Нельзя не отметить, что установка и объединение двух графических процессоров в одной видеокарте не дает 100-процентного прироста производительности, в большинстве случаев можно говорить о приросте примерно в полтора раза для большинства 3D-приложений. Безусловно, у таких решений есть свои недостатки: высокое энергопотребление, сильный нагрев элементов видеокарты, необходимость установки в просторный корпус и заоблачные цены за единицу производительности. Однако они имеют одно неоспоримое преимущество: предоставляют максимальную производительность в большинстве игровых приложений при наивысшем качестве изображения. И хотя видеокарты такой мощности практически не оказывают влияния на конечные продажи всей линейки видеокарт, которую они возглавляют, именно двухпроцессорные видеокарты являются лицом компании и влияют на престиж ее продукции в целом.

    После выпуска весьма спорного и «прожорливого» решения GeForce GTX295, которое относится к уже устаревшей линейке видеокарт на базе графических процессоров GT200, компания NVIDIA до сих пор не заявляла о выпуске двухпроцессорного флагмана. Объясняется это тем, что высокопроизводительные графические чипы GeForce GTX480, которые пришли на смену серии GT200, оказались несбалансированными в плане энергопотребления и тепловыделения, сорвав планы построения и выпуска двухпроцессорной видеокарты на их базе (GF100). С появлением обновленных графических процессоров GeForce GTX580 (кодовое название GF110), являющихся модернизированным вариантом чипов GF100, компания NVIDIA приняла решение выпустить двухпроцессорную видеокарту, которая возглавила бы линейку видеокарт серии GeForce GTX500.

    Отметим, что прямой конкурент NVIDIA — компания AMD, выпустив двухпроцессорные видеокарты Radeon HD5970, давно и прочно обосновалась в верхнем ценовом сегменте и выпуск графического процессора GeForce GTX580, который предоставляет максимальную производительность среди однопроцессорных графических решений, не пошатнул позиции AMD как лидера в сфере 3D-графики. Более того, совсем недавно компания AMD обновила своего двухпроцессорного монстра, выпустив видеокарту Radeon HD6990. И вот компания NVIDIA решилась на ответный шаг и выпустила новое решение, которое представляет собой видеокарту, имеющую два графических чипа GeForce GTX580, — NVIDIA GeForce GTX590. Отметим, что компания старается придерживаться строгих правил в именовании графических процессоров, поэтому двухпроцессорная карта имеет порядковый номер GTX590, а не GTX585.

    Среди особенностей новой видеокарты GeForce GTX 590 можно отметить наличие разъема SLI, что подразумевает возможность объединения двух подобных видеокарт в режиме Quad SLI. Такое решение рассчитано на компьютерных энтузиастов и геймеров, готовых отдать любую сумму за новейшие решения в области графических карт. Также отметим, что с большинством современных игр прекрасно справляются и однопроцессорные видеокарты верхнего ценового сегмента.

    Еще один способ применения двухпроцессорной видеокарты GeForce GTX590 — разделение работы двух установленных графических процессоров. То есть один процессор будет обсчитывать графику игры, а другой — работать с физическими эффектами PhysX, которые хорошо ускоряются на современных графических процессорах. Однако игровые приложения, которым необходим мощный процессор для обсчета физики, на данный момент можно пересчитать по пальцам. Да и сама технология PhysX, активно продвигаемая компанией NVIDIA, поддерживается далеко не всеми современными играми.

    Новая видеокарта позволяет вывести стерео-изображение сразу на три монитора высокого разрешения по технологии 3D Vision Surround. Эта возможность, безусловно, понравится любителям полноценного 3D и другим компьютерным энтузиастам. Напомним, что с другими видеокартами для такого трюка необходима установка нескольких видеокарт.

    Теперь поговорим о «начинке» видеокарты. Два графических процессора расположены на двух разных концах печатной платы. Между прочим, длина и размеры видеокарты практически идентичны видеокартам на базе GeForce GTX580, так что расположение двух самых мощных на данный момент графических процессоров и других элементов — нетривиальная задача для инженеров. Все элементы размещены очень компактно, пустого пространства нет. В видеокартах GeForce GTX 590 используется печатная плата, состоящая из более чем десятка слоев, а для эффективного отвода тепла от многочисленных элементов применяется большое количество меди. Питание графических процессоров осуществляется с помощью 10-фазной системы питания (по пять фаз на каждый графический процессор), при этом для микросхем памяти GDDR5 каждого графического процессора установлены отдельные двухфазные контроллеры. В качестве коммутатора шины PCI Express используется специальный чип NVIDIA NF200-P-SLI, который применялся ранее на видеокартах GeForce GTX295. Это обеспечивает каждому из графических процессоров видеокарты 16 каналов PCI-Express, однако с уменьшенной вдвое пропускной способностью. В целом связка двух графических процессоров не претерпела изменений со времен видеокарты GeForce GTX295.

    Графические процессоры в этой плате являются практически точной копией тех, что установлены в видеокартах GeForce GTX580, однако работают на меньших частотах. Частота графического ядра отдельного процессора составляет 601 МГц, а частота унифицированных процессоров — 1215 МГц. Графическая память GDDR5, представленная 12 микросхемами производства Samsung, расположенными на обеих сторонах печатной платы, работает на частоте 854 МГц. Такой шаг объясняется тем, что инженерам необходимо было создать высокопроизводительную, но в то же время сбалансированную по энергопотреблению и тепловыделению видеокарту. Конечно, из-за высокопроизводительных процессоров данная модель требует подключения дополнительного питания, что осуществляется с помощью двух 8-контактных разъемов PCI-E. Также следует отметить необходимость применения блока питания мощностью 800 Вт и более, чтобы обеспечить стабильное питание видеокарты при большой нагрузке.

    Видеокарта Gigabyte GeForce GTX590 имеет четыре интерфейса подключения монитора: три разъема DVI и один разъем mini-DisplayPort. Подключение к мониторам с разъемом VGA и HDMI осуществляется через переходники. Отметим, что видеокарта GeForce GTX 590 позволяет выводить картинку игры одновременно на три монитора в стереорежиме (3D Vision) и при этом не имеет ограничения на использование хотя бы одного монитора с Display Port.

    В референсных видеокартах, предложенных компанией NVIDIA, применяется специально разработанная система охлаждения. В видеокарте Gigabyte GeForce GTX590, которая участ­вовала в нашем тестировании, тоже установлена штатная система охлаждения. Она состоит из двух массивных радиаторов с медными основаниями, которые соприкасаются с графическими чипами. Медные основания имеют испарительные камеры, осуществляющие более эффективную передачу тепла от процессора к радиатору. Радиаторы установлены на специальной алюминиевой пластине, которая покрывает собой почти всю верхнюю часть печатной платы, совмещая функции дополнительного радиатора для других элементов видеокарты (микросхем питания, VRM-модулей и т.п.) и каркаса для крепления элементов системы охлаждения. Задняя сторона печатной платы также оборудована радиатором-пластиной, отвечающим за более эффективное рассеивание тепла микросхем памяти. Охлаждение основных радиаторов обеспечивается 4-контактным управляемым вентилятором диаметром 90 миллиметров, который установлен в центре конструкции системы охлаждения. Таким образом, вентилятор при вращении направляет воздушный поток в двух направлениях, охлаждая оба радиатора. Отметим, что подобная система, конечно, довольно эффективна, поскольку поток воздуха равномерно распределяется между обоими радиаторами, однако у такого решения есть и минусы. Дело в том, что выхлоп горячего воздуха производится не только наружу корпуса системного блока, но и внутрь корпуса компьютера. Поэтому для оптимальной установки данной видеокарты необходим хорошо охлаждаемый и просторный корпус: корзина жестких дисков должна располагаться перпендикулярно лицевой панели корпуса. Также нельзя не отметить наличие дополнительного датчика температуры, который закреплен на пластмассовом кожухе системы охлаждения у дальнего радиатора (по отношению к лицевой панели с интерфейсами). Видимо, для большей точности компания NVIDIA решила продублировать температурные датчики, установленные в графическом чипе, обеспечив более надежную защиту от перегрева видеокарты.

    В ходе тестирования видеокарта Gigabye GeForce GTX590 в режиме простоя потребляла вместе со стендом 128 Вт, что на 25-30 Вт больше, чем любая другая видеокарта. Для загрузки обоих графических процессоров этой видеокарты нами применялась утилита FurMark версии 1.8.2, так как версия 1.9.0 могла нагрузить лишь один из графических процессоров. В режиме максимальной нагрузки на графические ядра энергопотребление видеокарты со стендом составляло 478 Вт, что сопоставимо с энергопотреблением видеокарты GeForce GTX480. Температура обоих графических ядер при такой нагрузке колебалась в пределах 83-86 °С. В заключение можно сказать, что эта система охлаждения оказалась очень удачной, поскольку не издает сильного шума при работе на высоких оборотах и в полной мере охлаждает оба графических ядра.

    Компания Gigabyte решила оформить коробку с новой двухпроцессорной видеокартой GeForce GTX590 в стиле «милитари». Она напоминает сундук для транспортировки снайперских винтовок, а видеокарта GeForce GTX590 окрашена в цвет хаки. В коробке, выполненной из прорезиненного, приятного на ощупь пластика, пользователь найдет не только видеокарту, но и очень хорошую игровую мышку Gigabyte M8000X. Мышь имеет набор дополнительных грузиков, подсветку и возможность изменения оптического разрешения сканирования поверхности. С видеокартой поставляются также несколько красивых буклетов, описание видеокарты и мыши, два диска с программным обеспечением и переходники DVI — VGA и mini-DP — DisplayPort, а также два переходника Molex — PCI-E для подключения дополнительного питания.

    Стоимость данной модели пока неизвестна, но вполне вероятно, что она будет гораздо выше официально заявленной — 699 долл. Хотя за столь мощную видеокарту энтузиасты готовы заплатить и еще бо льшие деньги.

    Учитывая выдающиеся характеристики, высочайшую производительность и стильное оформление, модель Gigabyte GeForce GTX590 была отмечена знаком «Выбор редакции» как самое производительное решение в нашем тестировании.

    Клавиатура — это то устройство, без которого немыслим полноценный компьютер. Во всяком случае, такое положение вещей будет сохраняться до тех пор, пока не придумают какие-нибудь нейроинтерфейсы, в которых текст можно будет вводить одной только силой мысли. Клавиатура — это достаточно простое устройство, однако заядлые геймеры, например, обычно предъявляют к ней целый ряд насущно необходимых требований. В данном обзоре будет рассмотрена известная модель Cougar 700K игровой клавиатуры немецкого производителя Cougar

    В этой статье мы рассмотрим HyperX FURY объемом 120 Гбайт — универсальный SSD, позиционируемый компанией Kingston как оптимальное решение для начального уровня для геймеров и энтузиастов. Он имеет толщину всего 7 мм, что позволяет устанавливать его в современные ультрабуки. Второй и не менее интересный SSD в нашем обзоре — это HyperX SAVAGE объемом 480 Гбайт, который был анонсирован весной текущего года и уже появился на прилавках магазинов. Представители линейки HyperX SAVAGE ориентированы на требовательных пользователей, которым необходима высокая производительность дисковой подсистемы ПК для эффективной работы в многозадачном режиме

    Российская компания «Бизнес Бюро» объявила о начале продаж планшетного ПК bb-mobile Topol' LTE («Тополь LTE»). Новинка выполнена в прочном металлическом корпусе и оборудована ЖК-дисплеем типа IPS с 8-дюймовым сенсорным экраном, разрешение которого составляет 1280x800 пикселов (16:10)

    Если вы часто печатаете фотографии и уже утомились менять картриджи в своем принтере, обратите внимание на МФУ Epson L850. Большой ресурс расходных материалов, великолепное качество отпечатков, широчайший набор функциональных возможностей — вот лишь некоторые из достоинств данной модели

    Компания Kingston в очередной раз порадовала пользователей новой бюджетной моделью SSD-накопителя, ориентированной на конечного пользователя и на офисное использование. Кроме того, данный SSD-накопитель серии SSDNow UV300 будет весьма интересен и тем, что легко устанавливается в любой ноутбук или ультрабук, так как имеет толщину всего 7 мм

    Хотя широкое распространение и доступность специализированных сервисов для просмотра потокового видео в интернете в значительной степени подорвали позиции телевидения как основного источника развлекательного и новостного видеоконтента, ТВ-тюнеры еще рано списывать со счетов. Например, эти устройства могут здорово выручить в мобильных условиях, когда скорость интернет-соединения невелика, а трафик слишком дорог. Именно на эту нишу нацелена компактная внешняя модель AVerMedia TD310, о которой пойдет речь в данной публикации

    Предлагаем вниманию читателей обзор пяти моделей источников бесперебойного питания (ИБП) мощностью от 1000 до 3000 В•А, которые предназначены для защиты электропитания компьютеров, серверов и коммуникационного оборудования