Каталог
ZV
ездный б-р, 19
+7 (495) 974-3333 +7 (495) 974-3333 Выбрать город: Москва
Подождите...
Получить токен
Соединиться
X
Сюда
Туда
x
Не выбрано товаров для сравнения
x
Корзина пуста
Итого: 
Оформить заказ
Сохранить заказ
Открыть корзину
Калькуляция
Очистить корзину
x
Главная
Магазины
Каталог
Мои заказы
Корзина
Магазины Доставка по РФ
Город
Область
Ваш город - ?
От выбранного города зависят цены, наличие товара и
способы доставки

Понедельник, 6 декабря 2010 14:50

NVIDIA GeForce GTX 580: усовершенствованный флагман Fermi

короткая ссылка на новость:

Новый подход к энергетическим характеристикам GeForce GTX



   Помимо специфических архитектурных улучшений в GF110, которые мы обсудили ранее, NVIDIA переработала дизайн чипа и на более низком уровне в стремлении улучшить энергетическую эффективность GPU. Парочка GF100/GTX 480 быстро снискала репутацию горячего продукта, и нельзя сказать, что это было неоправданно. Даже притом, что в GTX 480 работали не все SM, карта имела заявленный уровень TDP в 250 Вт, и даже это чрезвычайно высокое для одночиповой платы значение могло быть превзойдено в ситуациях с экстремальной нагрузкой, вроде FurMark.

   Инженеры компании могли переработать систему охлаждения (и сделали это) для лучшего рассеивания тепла, но ограничение и снижение самого тепловыделения было не менее важно. Особенно в свете выпуска высокочастотных моделей со всеми активными блоками GF110 как на потребительском рынке в серии GeForce, так и на корпоративном в Tesla. Ведь если даже предположить, что в системных блоках игроков бывают установлены еще более горячие 3D-ускорители, то в HPC вопрос охлаждения стоит намного более остро. Понимая все это, NVIDIA принялась за оптимизацию дизайна новинки на транзисторном уровне.

   Полупроводники являются практически идеальными устройствами для перевода энергии в тепло, поэтому основная задача заключается в том, чтобы произвести как можно больше полезной работы, затрачивая при этом как можно меньше энергии. Это также напрямую связано с тем фактом, что динамическое питание (которое непосредственно используется для работы) формирует только часть энергопотребления — остальные ватты рассеиваются впустую из-за токов утечки. В случае с высокопроизводительным GPU, у NVIDIA нет строгой необходимости уменьшать динамическое питание чипа, так как это негативно повлияло бы на быстродействие графического процессора. Вместо этого, можно сконцентрироваться на минимизации рассеиваемой впустую энергии. Кроме того, не стоит забывать, что транзисторы начинают вести себя непредсказуемо именно на высоких частотах, и сделать с этим что-то практически невозможно, ведь стабильность находится в прямой зависимости от скорости переключения затвора.
Типичный CMOS-транзистор
Типичный CMOS-транзистор: малая толщина диэлектрика ведет к утечкам тока

   Фокус состоит в том, что для создания энергетически эффективного кристалла необходимо использовать высокопроизводительные транзисторы (пускай и не идеально стабильные) там, где это необходимо, и ограничиться более медленными компонентами во всех прочих случаях. Именно по этому пути NVIDIA пошла в GF100, используя в основном 2 типа транзисторов, которые можно дифференцировать по описанному выше признаку. Мы не уверены, какого типа «переключатели» были использованы для конкретных функциональных блоков, однако с высокой степенью вероятности можно утверждать, что весь массив шейдерных процессоров и прочие устройства, работающие на увеличенной частоте, были «сконструированы» с использованием быстрых транзисторов с большими значениями токов утечки. Прочие же модули, работающие на базовой частоте, использовали медленные транзисторы. Несмотря на такой грамотный подход, энергопотребление GF100 все равно зашкаливало, что и выражалось в чрезмерно большом тепловыделении. Нельзя сказать, что выбранный подход оказался удачным.

   В структуру GF110 NVIDIA включила третий тип транзисторов, который в официальной презентации компании описывается как «обладающий усредненными свойствами относительно использовавшихся ранее CMOS-элементов». Другими словами, NV стала использовать транзисторы, токи утечки которых превышали таковые для самых медленных «переключателей» из состава GF100, но были меньше, чем у быстрейших элементов. Опять же, точной информацией о применении тех или иных типов транзисторов в определенных блоках мы не обладаем, но именно использование подобной тройной комбинации позволило заметно снизить энергопотребление GPU без его замедления. Фактически, только благодаря тщательной работе по реконструкции имеющихся модулей с новыми «стройматериалами», GTX 580 при более высоких тактовых частотах и полноценном чипе имеет более скромный аппетит, чем GTX 480. Заметим, что число транзисторов в GF110 не изменилось на сколько-нибудь значимую величину, так что можно считать энергетическую эффективность GTX 580 настоящим достижением NVIDIA.

   Естественно, подход к оптимизации энергетических характеристик GPU должен быть комплексным, поэтому NVIDIA не ограничилась только лишь снижением токов утечки. Так, открытым оставался вопрос соответствия заявленного уровня TDP реальному тепловому пакету карты. Сегодня оба ведущих производителя определяют TDP своих графических процессоров, основываясь на работе в «реальных» приложениях и играх, причем политика NVIDIA здесь обычно более агрессивна. В любом случае, в мире AMD и NVIDIA таких синтетических программ, как FurMark и OCCT, попросту не существует. Ведь действительно проще окрестить подобные утилиты «вирусными», чем полностью переделывать подсистему питания плат в расчете на нагрузки, которые практически недостижимы при использовании обычного ПО.
FurMark
   После довольно неприятных инцидентов с FurMark, из-за которого горели VRM на серии Radeon HD 4000, AMD предприняла серьезные меры по защите цепей питания видеокарт следующей, 5000 линейки. Для этого у Evergreen в реальном времени отслеживалась температура VRM, и при достижении критической отметки частоты чипа автоматически сбрасывались до безопасных значений. Так как защита основывалась на температурном пределе, функционировала она очень эффективно. Платы работали с максимальной производительностью, и лишь в случае реальной опасности переходили в безопасный режим. На практике такое случалось довольно редко даже при целенаправленном запуске FurMark на длительное время. Пожалуй, лишь при разгоне автоматический контроль напоминал о себе, ограничивая устанавливаемые пользователем частоты во избежание необратимых физических повреждений.

   Для GTX 580 NVIDIA избрала иной, строгий подход. На этих платах система защиты еще более интеллектуальна; она не просто стремится уберечь дорогостоящее оборудование от повреждений, определяя нагрев компонентов. Две выделенных микросхемы, показанные на фотографии ниже, раздельно измеряют, какой ток забирает карта через слот PCI-Express от материнской платы и через дополнительные PCIe коннекторы. Информация передается драйверу GTX 580, и тот в случае слишком большого аппетита карты планомерно замедляет ее, чтобы не выходить за рамки TDP. Такой тип защиты нов для видеокарт, но в центральных процессорах он успешно применяется на протяжении довольно длительного времени.

   NVIDIA не скрывает причины для внедрения подобной технологии в свои видеокарты: необходимость что-либо противопоставлять программам вроде OCCT и FurMark. Для конечного пользователя они действительно могут представлять опасность — ведь даже если аппаратная защита препятствует поломке видеокарты, теоретически возможны и другие побочные эффекты от чересчур большой нагрузки на БП. Благодаря предложенному NV методу, риск порчи самой платы или иных компонентов ПК минимизируется. В тоже время, на уровне PR своей продукции, NVIDIA, похоже, очень хочет избавиться от негативных отзывов о GeForce, получаемых ими в результате запуска на них того же FurMark. Ведь пускай даже подготовленный читатель и верно оценит чрезвычайно высокое энергопотребление Fermi при взгляде на графики с результатами FurMark, новичок не будет знать, что в реальных приложениях требования GPU существенно понизятся. С новой системой защиты даже в FurMark и OCCT аппетиты GF110 должны быть приемлемыми. Несмотря ни на что, мы до сих пор считаем эти утилиты отличным инструментарием для определения «худших сценариев», и считаем важным предоставлять нашим читателям данные, которые можно использовать для построения системы с некоторым запасом прочности. Однако сложно поспорить, что с позиции NVIDIA действия по обеспечению контроля за TDP нелогичны.
Чипы для мониторинга подсистемы питания
Чипы для мониторинга подсистемы питания

   Интересно другое. Хотя для работы алгоритма необходимо определенное аппаратное обеспечение, решение о срабатывании принимается программно. И, похоже, что для конкретных исполняемых файлов программисты NVIDIA создали систему профилей, аналогичную применяемой в SLI. Так, согласно нашим исследованиям, при запуске FurMark и OCCT GTX 580 действительно замедляется. В то же время, существуют аналогичные, но менее известные программы, с помощью которых нам удалось имитировать сходное высокое энергопотребление. Естественно, если бы система была реализована только лишь на аппаратном уровне и не зависела от драйверов, подобного бы не случилось, и любые попытки вывести TDP за рамки дозволенных пресекались бы.

   На текущий момент это все только упрощает, так как тревожиться за неполноценное использование ресурсов GPU нет нужды. Однако без каких-либо «но» нам хотелось бы видеть в официальных драйверах какой-либо индикатор, в каком режиме находится графический процессор в данный момент. Дело в том, что, как и в случае с GDDR5 EDC, при разгоне троттлинг цепей питания очень сильно усложняет нахождение предела стабильности, так как нет никакого четкого обозначения момента срабатывания защиты. Платы AMD сбрасывают частоты моментально, однако драйвер NVIDIA продолжает рапортовать, что GPU работает на полной частоте и напряжении. Похоже, что NVIDIA использует какую-либо инструкцию вроде NOP или HLT для искусственного замедления GTX 580, и даже энтузиасты на данный момент не могут точно определить факт срабатывания защиты.

   Наконец, разобравшись со средним и максимальным энергопотреблением, инженеры NVIDIA обратили свое внимание на систему охлаждения GeForce GTX. Требовалось не только более производительное (по скорости рассеивания тепла) решение, но и более тихое. У GTX 480 кулер был, мягко говоря, не венцом технической мысли. Конечно, со своей прямой обязанностью с учетом необходимости распределения до 300 Вт тепла он справлялся, но методы при его проектировании были выбраны странные. Так, тепловые трубки существенно выступали за пределы печатной платы, а радиатор был прикрыт дополнительной металлической пластиной, о которую было легко обжечься, особенно при тестировании на открытом стенде. Пожалуй, самой лучшей деталью подобной СО стали отверстия в текстолите, перешедшие с GTX 295; они позволяли вентилятору забирать воздух с обеих сторон платы. Тем не менее, в целом СО была далека от идеала.

   Поэтому кулер GTX 580 был практически создан с нуля. Уже с первого взгляда на новый топ NVIDIA становится понятно, что это качественно новое решение. Первенец на базе GF110 не выглядит столь громоздко и неуклюже, как в свое время GTX 480, а конструкция охлаждения близка скорее к полностью закрытым кожухам серии GTX 200, чем к флагману предыдущего поколения. Выпирающие тепловые трубки вместе с «грилем» радиатора остались в прошлом, а при беглом осмотре GTX 580 и вовсе нетрудно перепутать с GTX 285. Все это стало возможным благодаря применению NVIDIA испарительной камеры вместо уже ставших традиционными тепловых трубок.
Радиатор с испарительной камерой в работе
Радиатор с испарительной камерой в работе. Теория…
Радиатор с испарительной камерой в работе
… и практика

   Испарительные камеры присутствуют на рынке в составе готовых решений довольно давно. Впервые в паре с GPU такой кулер массово устанавливался на ATI Radeon 2900XT, но сейчас по большей части подобные камеры можно встретить в предложениях сторонних компаний для энтузиастов оверклокинга. Кроме того, для Sapphire данная технология является в некотором роде эксклюзивом серии Vapor-X. Из недавних референсных дизайнов с использованием испарительных камер можно припомнить только Radeon HD 5970. Теперь и NVIDIA пошла по данной дороге, проектируя стандартное охлаждение для GTX 580. Это означает отказ от тепловых трубок, так как испарительная камера должна обеспечивать более эффективную передачу тепла от крышки теплораспределителя графического процессора на алюминиевые пластины радиатора. Кроме очевидного плюса равномерного нагрева радиатора, это одновременно ведет и к уменьшению скорости вращения радиального вентилятора, так как необходимости в максимизации разницы температур между радиатором и GPU больше нет.

   Еще одним изменением стала модернизация самого вентилятора. Трудно не согласиться, что из-за свиста воздуха он является основным генератором шума в СО. Исследования NVIDIA показали, что применяемая на GTX 480 модель подвержена резонансным колебаниям, из-за которых возникают дополнительные децибелы громкости и неприятный высокочастотный свист. Теперь кулер снабжен дополнительным пластиковым кольцом, призванным снизить вибрации. Опять же, как и испарительная камера, это решение не является первым в своем роде (посмотрите на конструкцию HD 5800), но именно на GTX 580 оно было применено NVIDIA в референсном дизайне.
Вентиляторы
Вентиляторы
Вентиляторы. Сверху: GTX 480. Снизу: GTX 580

   Наконец, отметим и оптимизированную для лучшего направления воздушного потока форму пластикового кожуха карты. Помимо небольшого расширения пространства у вентилятора для лучшего забора воздуха (при близком соседстве с прочими картами), в GTX 580 кожух сделали клиновидным. По словам NV, это улучшает циркуляцию воздуха вокруг установленных в SLI плат. [N4-Знакомство с GTX 580]    Систему охлаждения новинки мы уже подробно рассмотрели, давайте же теперь взглянем и на прочие особенности флагмана GF110.

   На данный момент была представлена всего одна карта семейства GTX 500, а именно имеющая только референсный дизайн PCB GTX 580. В ближайшие недели станут доступны модернизированные партнерами NV версии с сохраненной печатной платой, но измененным кулером. В этом контексте особенно интересным выглядит решение, принятое NVIDIA о проведении обязательных тестов для предложений вендоров с СО, отличными от стандартной. На нашей памяти такое происходит впервые: компания постановила, что на рынок не будут допущены изделия, обладающие худшими акустическими и температурными показателями, чем у стандартного кулера. Мы считаем этот шаг очень правильным для защиты репутации бренда. Ведь громкий, некорректно спроектированный производителем самостоятельно GeForce (это не относится к GTX 580, но справедливо в целом) все равно остается GeForce.
Сверху: GTX 480. Снизу: GTX 580
Сверху: GTX 480. Снизу: GTX 580

   Результирующая референсная карта оказалась очень похожей на гибрид GTX 285/480. От первой ей достался общий вид системы охлаждения, от второй — PCB. Длина новинки составляет 26,67 см, что полностью совпадает с соответствующим геометрическим измерением GTX 480 и несколько превышает длину GTX 285. Особых трудностей с установкой даже в средние компьютерные корпуса не предвидится. Что касается разъемов питания, TDP в 244 Вт определяет необходимость в схеме PCIe подключения 8 + 6 контактов (можно предположить, что будущей GTX 570 будет достаточно и упрощенной пары 6 + 6). Коннекторы располагаются сверху; это облегчает их подключение. Еще одним положительным моментом в конструкции охлаждения является возможность легкого снятия пластикового кожуха (например, для очистки радиатора от пыли) без затрагивания прочих элементов, причем в этот раз вместо ненадежных пластиковых крепежных элементов проектировщики решили использовать обычные винты.
Радиаторы
Радиаторы. Сверху: GTX 480. Снизу: GTX 580

   На передней стороне PCB расположено 12 чипов GDDR5, которыми и набирается 384-битная шина. К сожалению, термопрокладки сделали надписи на микросхемах нечитаемыми, так что мы затрудняемся определить производителя и модель. Впрочем, точно известно, что, как и в GTX 480, используются 5 Гбит/с модули. В центре печатной платы располагается массивный GF110, прикрытый теплораспределителем. Это вполне стандартная для современных high-end решений NVIDIA картина. На нашем тестовом экземпляре был установлен чип ревизии A1, что во внутренней системе обозначений NV соответствует первому коммерческому степпингу. Кроме того, на плате находятся 2 коннектора для организации tri-SLI из GTX 580. Заметим, что разводка PCB не претерпела практически никаких изменений относительно GTX 480. Лишь от сквозных вентиляционных отверстий инженеры отказались, да немного упростили цепи питания GPU благодаря уменьшившемуся энергопотреблению/тепловыделению.
GTX 580
   Ничего нового не откроет и взгляд на панель видеовыходов, которая также была перенесена с GTX 480. Под занимающим полный слот вентиляционным отверстием располагаются 2 DVI порта и 1 mini-HDMI. Зато внутренний контроллер интерфейсов подвергся некоторой доработке. К сожалению, о масштабах Barts (Radeon HD 6000) говорить не приходится; из новых интерфейсов реализован HDMI 1.4a, а вот полная поддержка вывода звука битстриммингом так и остается недоступной. Как и с GTX 480, пользователю предоставлен выбор между выводом 8-канального LPCM или обычных DD+/DTS на ресивер. Честно говоря, от GF110 можно было бы ожидать большего, но это лишь еще раз показывает, что GTX 580 является скорее усовершенствованной версией GTX 480, чем настоящей комбинацией GF100+GF104. Одновременно поддерживается подключение к карте только двух устройств вывода изображения, так что для использования 3DVision/NVIDIA Surround с тремя дисплеями необходима SLI конфигурация.
GTX 580
   Наконец, с некоторой самоиронией мы должны заметить, что в последнее время предъявляли AMD больше претензий за махинации с обозначениями видеокарт, чем NVIDIA. Хотя именно калифорнийский гигант сделал привычной практику продажи одних и тех же чипов под разными наименованиями в последние годы; взять хотя бы 8800GT и 9800GT, пропуск 300 серии GeForce и переход от GTX 285 сразу к GTX 480. Немалое удивление вызывает обозначение рассматриваемой карты и сейчас, ведь список изменений в GTX 580 относительно GTX 480 даже меньше, чем у AMD с Radeon HD 6800. Конечно, в оправдание NV стоит зачесть то, что GTX 580 хотя бы быстрее GTX 480, но, говоря начистоту, GF110 должен называться GTX 485, как в свое время GT200b получил индекс GTX 285. Похоже, что оба конкурента на рынке 3D-графики стремятся представить новое поколение видеокарт как можно быстрее, не принимая во внимание то, что сами GPU не были достаточно улучшены, чтобы получать столь громкие индексы, извещающие о смене поколений. [N5-Тестовая конфигурация и программы]    В этом тестовом марафоне был задействован последний набор тестовых программ, представленный впервые в статье по Radeon HD 6800 несколько недель назад. Все драйверы были обновлены до последних версий на момент проведения бенчмарков — Catalyst Hotfix 10.10d для AMD и ForceWare 262.99 для NVIDIA.

   Как мы уже отмечали ранее, прямого соперника для GTX 580 у AMD нет. Ближайшими решениями, подходящими под определение конкурента GF110, являются две 6870 в CrossFire, либо двухчиповая 5970. Интересно и то, что цены на GTX 470 опустились до такого уровня, что можно приобрести пару данных видеокарт по цене GTX 580. А ведь схватка двух немного урезанных плат GF100 с одной, пускай и полноценной GF110, не будет слишком «честной»... [N6-Тестирование — Crysis Warhead]
Crysis Warhead
Crysis Warhead
Crysis Warhead
   И с места — в карьер! Уже в первом тесте, Crysis Warhead, GTX 580 проявляет себя очень хорошо. Впрочем, от последователя и без того быстрейшей одночиповой карты не стоило бы ожидать худших результатов. В 2560x1600 новинка примерно на 16% опережает GTX 480, тогда как в 1920x1200 это преимущество падает до 12%. Стоит помнить, что теоретическое превосходство GF110 над GF100 по потоковым процессорам и частотам составляет 17%. Но в реальности повторить такие цифры «чисто» практически невозможно, так что архитектурные улучшения, определенно, играют свою роль.

   В то же время, «двойные» GPU AMD обходят GTX 580 вне зависимости от того, установлена ли на одну плату пара чипов (5970), или работает связка из двух ускорителей (6870 CF). В первом случае GTX 580 проиграл 12%, во втором — 27%. Удивляться этому не стоит, в большинстве прочих тестов картина будет сходной. Отрадно, что при этом цены на Radeon установлены AMD на очень разумном уровне, что делает пару Barts реальной альтернативой GF110. То же справедливо и для GTX 470 SLI: такая комбинация с легкостью обходит GTX 580. Впрочем, негативные стороны использования двух видеокарт станут ясны, когда дело дойдет до замеров энергопотребления.
Crysis Warhead
Crysis Warhead
Crysis Warhead
   В случае же с минимальным числом FPS картина несколько меняется. Проблемы с менеджментом памяти в Crysis на решениях AMD в 2560x1600 всегда досаждали Radeon, и это тестирование не стало исключением. Разница в минимальном фреймрейте между продуктами AMD и NVIDIA в высоком разрешении велика, и она отнюдь не в пользу Radeon HD. Правда, уже в 1920x1200 график отражает схожее со средними FPS расположение соперников, где GTX 580 превосходит GTX 480, но уступает многочиповым решениям. [N7-Тестирование — BattleForge, DX10]
BattleForge, DX10
BattleForge, DX10
BattleForge, DX10
   BattleForge является примером «средней» игры для GTX 580, в которой преимущество над GTX 480 не так велико. В численном выражении оно составляет 14%, что близко к усредненному показателю по всем тестам. SLI и CF конфигурации вновь оказываются быстрее новинки, но здесь отрыв 5970 и пары 6870 от одиночного GF110 меньше прежнего. [N8-Тестирование — Метро 2033]
Метро 2033
Метро 2033
Метро 2033
   Если BattleForge была средней игрой для GTX 580, то результаты GPU в Метро 2033 можно назвать поистине выдающимися! В самом высоком разрешении 2560x1600 новинка на целых 23% быстрее предшественника. С уменьшением числа пикселей на экране тает и превосходство, но даже в 1920x1200 дополнительных FPS достаточно, чтобы вывести игровой процесс на более высокий уровень комфорта. Конечно, тандемы CrossFire/SLI способны без особых проблем сделать возможной игру при максимальных настройках качества и в 2560, но среди одночиповых решений у GTX 580 равных нет. Радует, что в 1680x1050 стало возможным взять рубеж в 60 FPS с одной видеокартой, но чтобы сделать это потребуется GTX 480, 580 или 5970. [N9-Тестирование — H.A.W.X.]
H.A.W.X.
H.A.W.X.
H.A.W.X.
   Среди всех бенчмарков, именно в H.A.W.X. показатели GTX 580 по сравнению с GTX 480 смотрелись лучше всего. В 2560 разница достигала очень впечатляющих 27%, и даже в 1920 она составляла 25%. Похоже, что в H.A.W.X. применяются множественные операции FP16 текстурной фильтрации, потому как в ином случае сложно найти другое объяснение подобного доминирования GF110.

   На самом деле, GeForce в этой игре оказался настолько хорош, что в некоторых случаях обошел даже 5970. Проигрыш «двухголовой» платы AMD составил 10%, но к радости фанатов Radeon это скорее исключение, нежели правило. [N10-Тестирование — Civilization 5]
Civilization 5
Civilization 5
Civilization 5
   Civilization V продолжала досаждать нам по определенному ряду причин. Несмотря на все используемой игрой особенности DirectX 11, она оказалась чрезвычайно процессорозависимой. Добавление второй видеокарты все же оказывало влияние на результаты, однако значимые изменения были зафиксированы только на платформе с графикой от AMD. Даже при выборе специального профиля Civ 5 для SLI, разницы на платах NVIDIA не было практически никакой. Однако и неверными результаты для GTX 480 и 580 назвать нельзя, так как в высоких разрешениях прирост производительности был заметен.

   В любом случае, GTX 580 удалось стать практически самой быстрой видеокартой в 2560x1600. Перед нами тот самый случай, когда многочиповые конфигурации из-за не слишком хорошей масштабируемости выглядят не столь предпочтительно, как быстрая одиночная видеокарта. Стараниями программистов число таких ситуаций все уменьшается, но при недостатке процессорной мощности смысла в SLI/CF все равно нет. Однако уже в 1920x1200 AMD удается изменить ситуацию в свою сторону, превзойдя близкие GTX 480 и 580. [N11-Тестирование — Battlefield Bad Company 2]
Battlefield Bad Company 2
Battlefield Bad Company 2
Battlefield Bad Company 2
   В сравнении с GTX 480, у GTX 580 на 20% лучшие результаты как в 2560, так и 1920. Вновь демонстрируемые показатели превосходят теоретический максимум, который мог бы быть обеспечен только лишь частотами и количеством потоковых процессоров, так что архитектурные оптимизации налицо. При переходе к multi-GPU AMD вырывается вперед, но против пары GTX 580 в SLI устоять не может никто, хотя движок игры всегда более благосклонно относился к платам Radeon.
Battlefield Bad Company 2
   В сцене же для замеров минимального количества кадров в секунду преимущество AMD исчезает, и одиночный GTX 580 превосходит любые существующие конкурирующие решения. С учетом нацеленности Bad Company 2 на многопользовательские соревнования, это может сыграть решающую роль в победе. Нетрудно догадаться, что раз уж и один GF110 оказался быстрее соперников, связка SLI достигла и вовсе невиданных высот. [N12-Тестирование — S.T.A.L.K.E.R. Call of Pripyat]
S.T.A.L.K.E.R. Call of Pripyat
S.T.A.L.K.E.R. Call of Pripyat
S.T.A.L.K.E.R. Call of Pripyat
   В зависимости от разрешения, ситуация для GTX 580 меняется. Конечно, новинка в любом случае оказывается быстрее GTX 480, но в Call of Pripyat разница эта не столь ощутима, как в других играх. При этом GF110 удается даже выиграть у Hemlock 5970 в 2560x2600 перед тем, как уступить в 1920. Стоит заметить, что среди одночиповых GPU, GTX 580 стала первой и на данный момент единственной картой, преодолевшей планку 60 кадров в секунду в 1920. В SLI GTX 580, как и обычно, вне конкуренции. [N13-Тестирование — DiRT 2]
DiRT 2
DiRT 2
DiRT 2
   В прошлом решения NVIDIA смотрелись в DiRT 2 очень хорошо, и GTX 580 продолжает эту традицию. Особенно это удивительно с учетом того, что AMD выступала спонсором и рекламным партнером для данной игры. Здесь GTX 580 не только на 20% быстрее GTX 480, но и обходит 5970. Лишь 6870 CF лидирует над новым флагманом NV, но пара GF110 берет свое в любых режимах. [N14-Тестирование — Mass Effect 2]
Mass Effect 2
Mass Effect 2
Mass Effect 2
   Mass Effect 2 всегда удавалось удивить нас довольно напряженной борьбой между участниками тестирований, хотя Unreal Engine 3, на базе которого построена эта хитовая RPG, хорошо оптимизирован под широкий спектр конфигураций. В ME2 GTX 580 не удается оторваться от GTX 480 на существенную величину, предыдущий флагман уступает новинке лишь на 13%. Сопоставимые с GF110 решения AMD (да и GTX 470 SLI) выходят вперед, но GTX 580 SLI вновь недосягаем. [N15-Тестирование — Wolfenstein]
Wolfenstein
Wolfenstein
Wolfenstein
   Wolfenstein, самый «почтенный» по возрасту бенчмарк (к сожалению, до первой игры на id Tech 5 ждать еще довольно долго) быстро становится зависимым от скорости процессора. Лишь в 2560 карты могут по-настоящему показать, на что они способны. Показатели тройки, то есть 5970, GTX 580 и GTX 480, различаются на одинаковую величину в 17%. [N16-Тестирование — вычислительные возможности]
Тестирование — вычислительные возможности
   Ранее мы уже обсуждали, что в этом тесте NVIDIA выступает довольно хорошо, поэтому не должно стать сюрпризом, что GTX 580 становится здесь безоговорочным лидером. Даже без существенных архитектурных изменений GTX 580 оказывается впереди GTX 480 на 15%. Отличным выглядело выступление новинки и по сравнению с 5970, которому наличие пары графических процессоров не помогло не только выиграть у GF110, но и серьезно оторваться от обычного Cypress.
Тестирование — вычислительные возможности
   В тестовый марафон MediaEspresso 6 включен для того, чтобы показать, что не каждая программа, в описании которой заявлена поддержка аппаратного ускорения средствами видеокарты, может полностью использовать ресурсы GPGPU. Вследствие этого никакой разницы между GTX 480 и 580 нами зафиксировано не было.
Тестирование — вычислительные возможности
   В свою очередь, запросы у SmallLuxGPU очень просты: требуется как можно больше вычислительной мощности. Свое теоретическое превосходство GTX 580 удалось реализовать практически полностью, о чем свидетельствуют на 15% лучший результат, чем у GTX 480. Впрочем, даже таких показателей Fermi недостаточно, чтобы обойти решения от AMD в том случае, когда раскрывается весь потенциал архитектуры VLIW5.

   Последним из вычислительных тестов, использованных нами, стал Folding@Home, который последний раз мы использовали во время написания обзора оригинального GF100. Оптимизации Fermi под подобного рода вычисления могут быть особенно полезны в F@H, о чем красноречиво свидетельствует следующий график.
Тестирование — вычислительные возможности
   Никакого удивления 15% прирост GTX 580 не вызывает. Фактически, когда привязки к центральному процессору нет, GF110 оказывается быстрее ровно настолько, насколько ему позволяют это сделать дополнительный активный мультипроцессор и повышенные частоты. В сочетании с довольно тихой работой и меньшим нагревом, это должно сделать GTX 580 прекрасным выбором для энтузиастов GPGPU.
Тестирование — вычислительные возможности
Тестирование — вычислительные возможности
   В рекламных кампаниях NVIDIA стремится среди прочего сделать упор на преимущество своих решений над AMD Cypress и Barts по возможностям тесселяции. На сегодня это, пожалуй, единственное кардинальное различие между производительностью архитектур конкурентов. Неудивительно, что GTX 400/500 показывают себя с лучшей стороны. Новый флагман быстрее предшественника на 15% в тесте Microsoft, и на 18% — в Unigine Heaven.

   Степень важности данных показателей каждый для себя волен определить сам. Со стороны мы наблюдаем за стремлением обеих компаний подтолкнуть разработчиков к использованию новых техник в своих играх. От того, насколько успешно будет проходить такая политика, и сколько игр разных жанров будут использовать достоинства аппаратных тесселяторов для создания реалистичной геометрии, и зависит восприятие приведенных чисел. [N17-Энергопотребление, температурный режим, акустические показатели]    По традиции, после тестирования производительности мы производим замеры энергопотребления, температур и создаваемого картами шума. Для GTX 580 эти оценки особенно важны, так как GTX 480 по данным параметрам отнюдь не блистал.

   Эту часть статьи мы начнем с таблицы напряжений ядер GPU. Важно отметить, что, как и раньше, этот параметр разнится от экземпляра к экземпляру карт. В зависимости от VID могут несколько «плавать» интересующие нас показатели, так что не следует воспринимать наши данные как единственно верные. Ясно одно — как в покое, так и под нагрузкой напряжения питания GF110 выше, чем у GF100. Данная характеристика является косвенным доказательством того, что токи утечки в GTX 580 уменьшены, ведь установка низких VCore — одна из мер по борьбе с этим явлением. Даже притом, что напряжение питания GTX 580 выше, энергопотребление будет все равно меньше, чем у GF100. Интересно, что хотя значения VID изменились, базовая частота ядра без нагрузки осталась прежней и составляет 50.6 МГц.

Напряжения питания ядер GeForce GTX 480/580 (референсные PCB)
480 под нагрузкой 480 в покое 580 под нагрузкой 580 в покое
0.959 В 0.875 В 1.037 В 0.962 В
   Судя по показателям потребления энергии в покое, NVIDIA действительно успешно справилась с приведением величин токов утечки в разумные нормы. Такой вывод можно сделать потому, что без нагрузки GTX 580 теперь требует на 17 Вт меньше GTX 480, хотя рабочие частоты новинки не изменились, а напряжение даже повысилось. Официальных данных по GTX 580 NV не приводит, но мы можем рассчитать, что оно находится в рамках 30-35 Вт. Удивительно, но это все еще больше, чем 6870 CF, за что стоит благодарить меньший физический размер кристаллов у AMD и режим ULPS для дочерней карты.
   При взгляде на график Crysis становится понятно, для чего проводились NVIDIA все оптимизации, и по каким параметрам один быстрый GPU остается предпочтительнее связки, пусть и превосходящей его по скорости рендеринга. По сравнению с GTX 480, энергопотребление нового GeForce сократилось на 10% (и это при 15% увеличении быстродействия!), что делает карту более экономичной, чем сравнимые multi-GPU конфигурации. Отметим, что 5970 все-таки потребляет меньше энергии, чем GTX 580, но это лишь служит напоминанием о том, с какими мощными видеокартами мы имеем дело.

   Что касается FurMark, то из-за новой системы защиты цепей питания NVIDIA нам пришлось пойти нестандартным путем. В этой утилите начинало срабатывать автоматическое замедление платы по достижению системы с GTX 580 расхода в 360 Вт. После этого скорость GF110 падала примерно на 40%. В результате мы решили отказаться от FurMark в пользу иного ПО для искусственного генерирования нагрузки сходного принципа действия, название которого мы сообщать не будем. Делаем мы это для того, чтобы NVIDIA не создала трудностей в будущих тестированиях, блокировав и нашего инкогнито.

   В любом случае, в FurMark и неназванной программе мы можем наблюдать, что потребление энергии новинки упало, на этот раз — на 27 Вт или 6%. Худший вариант развития событий для GTX 580 теперь куда менее страшен, чем для GTX 480; более того, GF110 в пике потребляет даже меньше, чем Radeon HD 5970. Впрочем, не стоит переоценивать данный факт, так как GF110 остается большим, требовательным к качеству БП GPU, ведь он состоит из трех миллиардов транзисторов.
   С учетом улучшений системы охлаждения и оптимизаций энергопотребления, проведенных NVIDIA, можно было предположить, что температуры чипа снизятся. Однако о величине этого снижения можно было только догадываться. Оказывается, что GTX 580 не просто прохладнее предшественницы. Эта карта — среди самых холодных изо всех GPU среднего и верхнего диапазонов производительности, когда-либо протестированных нами. С 37 градусами в покое это настоящее достижение после GTX 480. Более того, как мы увидим в дальнейшем, большой цены за такую температуру заплатить не пришлось.
   Сказанное о температурах в покое во многом относится и к ситуации под нагрузкой. По сравнению с GTX 480 температура GTX 580 упала на очень значительную величину. С 79°C новинка уже не выделяется негативно среди соперников, находясь примерно в центре группы ускорителей, сопоставимых по скорости работы. По сути, единственная связка, которой GF110 в исполнении GTX 580 проигрывает по температуре, является 6870 CF. Тогда как о температуре GTX 480 под нагрузкой мы выражали опасения, GTX 580 не вызывает никаких вопросов по этому поводу.

   Под FurMark и «секретной» программой разница несколько сократилась, но GTX 580 по-прежнему не проиграл своих относительных позиций. Действительно, 87°C — это не самая желанная цель, но и серьезно беспокоиться по поводу достижений такого показателя под максимально возможной нагрузкой не стоит, так как до критической отметки еще далеко.

   Кроме того, NVIDIA исправила недочет, при котором вентилятор GTX 480 раскручивался с некоторой задержкой при достижении пограничной температурной зоны. Теперь кулер GTX 580 вступает в работу незамедлительно, что предотвращает нагрев GPU до действительно опасных температур.
   Помните, мы упоминали ранее, что цена низкой температуры GF110 в простое невелика? Имелся в виду именно уровень шума GeForce GTX 580 без нагрузки. С 44.4 дБ GTX 580 совсем немного (и мы действительно подразумеваем «немного») громче GTX 480, а вместе с тем и 5970 и 6870 CF. Но уровень шума, производимый видеокартой, превосходно соответствует температуре, обеспечиваемой системой охлаждения. Конечно, GTX 580 не полностью бесшумна, но, на наш взгляд, громкость кулера совершенно адекватна качеству его работы.
   Наконец, обратимся и к шуму под нагрузкой. Здесь флагманскому решению есть чем удивить даже самых взыскательных пользователей. Очевидно, что в стремлении снизить энергопотребление и улучшить температурный режим GTX 580, в NVIDIA не забыли и о шуме, генерируемом платой при полной загрузке функциональных блоков. В результате, там, где GTX 480 установила в свое время рекорд (конечно же, отрицательный) для одночипового GPU, GTX 580 оказалась тише GTX 285, GTX 470 и даже Radeon HD 5870. Более того! Лишь 1 дБ отделяет GF110 от 5850 — карты, которую мы длительное время называли оптимальной с точки зрения соотношения быстродействия и уровня шума. Графики просто не могут передать, насколько действительно велико отличие GTX 580 от GTX 480; опять же, мы не называем GF110 идеально тихим, но ни разу за все время тестирования акустический режим новинки не становился некомфортным, а создаваемый шум нельзя было охарактеризовать как громкий. Однозначно, в этой дисциплине GTX 580 сделала настоящий рывок вперед по сравнению с предшественницей.

   Довольно часто бывает так, что общее впечатление от видеокарты (да и многих других продуктов в IT-индустрии) складывается не только от быстродействия, но и от тщательно сбалансированной совокупности потребительских свойств. В случае с GTX 480 эти «весы» были однозначно нарушены. Говоря же о GTX 580, мы осмелимся заявить, что NVIDIA удалось найти то идеально сочетание характеристик, которое только может существовать для сверхпроизводительного чипа, состоящего из 3 миллиардов транзисторов. Даже опуская возросшую производительность, GTX 580 выглядит намного более цельной и завершенной благодаря уменьшившемуся энергопотреблению, снизившемуся нагреву и шуму. Иными словами, в GTX 580 мы наконец-то увидели GPU, который всегда хотели получить вместо GTX 480. [N18-Заключение]    Несмотря на то, что материал был посвящен выходу в свет лишь одной видеокарты, многие моменты нуждаются в комментариях.

   Все время после начала тестирования GeForce GTX 580 мы ломали голову над тем, как подойти к финальной оценке последнего детища NVIDIA. В первом варианте можно было во всей красе описать преимущества карты, возрадовавшись оптимальному балансу мощности и энергетических характеристик вместе с малым нагревом и шумом. Либо же, наоборот, пожурить компанию за то, что изначально предполагавшаяся на место GTX 480 плата вышла только сейчас.

&nbs

Источник: www.anandtech.com/

подписаться   |   обсудить в ВК   |