14 лет назад 17 мая 2010 в 20:00 996

BootSector: Когда та или иная вещь начинает считаться морально устаревшей? Мне кажется, тогда, когда при взгляде на тех, кто продолжает ею пользоваться, на лицах людей появляется то неповторимое надменно-сочувствующее выражение, с которым владелец новенькой иномарки смотрит на водителя, тщетно пытающегося завести свою прогнившую «Ладу», а обладатель «Айфона» – на того, кто украдкой, чтобы никто не видел, достает из кармана старинный мобильник с монохромным дисплеем и затертым до дыр корпусом.

Все вышесказанное справедливо и для мира компьютеров, только там сроки устаревания устройств существенно короче. Фраза «Да, у меня мощный игровой комп! Я его только три года назад купил!» способна вызвать у продвинутого айтишника приступ гомерического хохота, переходящего в истерику, – а все потому, что за это время машина, предназначенная для «тяжелых» игр, устаревает безнадежно.

Вернее, так было до недавнего времени. Но как раз в последние три-четыре года в сфере производства комплектующих для топовых геймерских компьютеров наметился некоторый застой. Процессоров это касается в меньшей степени (хотя все равно анонс серии камней Core ix от Intel не вызвал и половины того ажиотажа, который возник при появлении Core 2, да и AMD со времен выпуска Athlon XP не «выстреливала»), а вот к видеокартам относится целиком и полностью, особенно к тем, что украшены зеленым логотипом. Настоящей революцией стало появление в 2006 году «восьмитысячной» серии графических адаптеров от NVIDIA: радикально новая архитектура, новая конструкция СО и компоновка платы, и самое главное – высочайшая производительность.

Лишь спустя полтора года в ATI / AMD разработали серию Radeon HD 4xx0, представители которой смогли стать достойными соперниками новым «жирафам». Но, выйдя на рынок со столь удачными видеоускорителями, калифорнийцы (а именно в этом штате расположен головной офис NVIDIA) невольно сами создали конкуренцию своим последующим продуктам: все они являлись прямыми потомками архитектуры G80 и не очень-то опережали «родителей» по производительности. Даже более-менее серьезное обновление удачной серии, произошедшее в 2008 году (когда был разработан чип GT 200), не перевело 8800 GTS, GTX и Ultra в разряд древних и почти бесполезных артефактов вроде Voodoo2: карты продолжали «жарить» и во многих тестах уступали свежайшим аналогам лишь 30-50%. На первый взгляд, это довольно серьезное отставание, но негативное впечатление от него полностью нивелируется тем фактом, что новую видюху еще надо купить, причем за немаленькие деньги, а старая у вас уже есть.

Ну и потом, отсутствие поддержки новейших API (DirectX 10.1 и 11) тоже, прямо скажем, не великое горе. Далеко не во всех играх есть эффекты, реализация которых невозможна без совместимости с этими технологиями, да и в игрушках с подобными фишками кардинально на качество картинки они не влияют. Вон возьмите хотя бы Batman: Arkham Asylum: современная, интересная и красивая игра, а написана полностью под DirectX 9.

Я не просто так привел в пример именно эту игру. Она, как известно, в первую очередь предназначена не для ПК, а для приставок. И вот здесь-то, по мнению некоторых, и кроется корень – не скажу, что именно зла, но чего-то близкого: большая часть популярных игр для компа разрабатывается в том числе и в версии под консоли, а последние апгрейду основной вычислительной части в домашних условиях не подлежат, да и производителями модернизируются медленно и несущественно.

Внутри Xbox 360 стоит чип Xenos, архитектурно являющийся предшественником ATI R600, а в PlayStation 3 – кристалл RSX (модифицированная версия NVIDIA G70). Эти GPU были разработаны по меркам игровой индустрии очень давно. Таким образом, цепочка получается следующей: новые игры пишутся с прицелом на старые платформы – их графическая составляющая подстраивается под ограничения этих платформ – игрушки хорошо работают и на не слишком новых видеокартах – у покупателя нет резона покупать более мощные графические адаптеры – такие адаптеры разрабатываются долго, и в целом индустрия крайне вяло продвигается вперед.

Я не полностью разделяю эту идею, но здравое зерно в ней определенно есть. Тем не менее приведу несколько контраргументов: во-первых, существуют исключительно «компьютерные» игры, в которых разработчики могут позволить себе задействовать все возможности современных ПК. Во-вторых, кроссплатформенные проекты при грамотном и тщательном портировании можно хорошо оптимизировать под приставки, оставив при этом в PC-версии возможность установки куда более высокого качества графики (хороший пример – Metro 2033: The Last Refuge, к которой мы сегодня еще вернемся).

В-третьих, многие хотят и в старых играх иметь больше fps – для того, чтобы картинка двигалась плавнее, чтобы можно было прикрутить какое-нибудь нереальное сглаживание и в конечном итоге «омолодить» с графической точки зрения свою любимую игру. Ведь, согласитесь, в те же Half-Life 2 и Oblivion в момент их выхода большинство геймеров играли далеко не на максимальных настройках и потому не могли оценить всех возможностей их движков.

Также, несомненно, имеет место и просто торможение процессов разработки новых GPU ввиду множества технических трудностей и ограничений. Осваивать более тонкие техпроцессы с каждым разом становится все труднее, плюс нельзя вылезать за предельные величины тепловыделения, энергопотребления и габаритных размеров. Да и мировой финансовый кризис здесь тоже наверняка сыграл свою роль (вообще, какая универсальная вещь этот кризис – любую проблему на него можно списать, и будет звучать правдоподобно. – Прим. автора).

В итоге мы видим достаточно медленную эволюцию графических адаптеров для ПК. С каждым анонсом новой серии утверждается, что именно она является революционной и возносит производительность до небес, а реалистичность – до кинематографического уровня. Эти слоганы мы слышим уже без малого лет десять, так что вряд ли осталось много людей, которые на них падки, – ну разве что совсем зеленые новички.

При этом я вовсе не хочу сказать, что считаю выпуск новых серий видеокарт бесполезным занятием, – наоборот, каждая свежая линейка приносит какое-то важное усовершенствование. Да что там греха таить, как только в редакции появляется очередной тестовый сэмпл топовой видюхи, я спешу утащить его домой – не только исследовать, но и просто поиграть. Мне нравится запускать игры на максимальных настройках, и вообще, я считаю, что интересный сюжет / игровой процесс и хорошая графика – не взаимоисключающие, а, наоборот, замечательно дополняющие друг друга вещи.

Наконец, даже если не говорить непосредственно об игровой производительности, в свежих картах почти всегда есть какие-нибудь интересные вспомогательные фишки – новые выходные интерфейсы, встроенные звуковые процессоры, прикладной софт, позволяющий задействовать GPU для расчетов, и многое другое.

Надеюсь, мне удалось несколько выправить общее пессимистическое впечатление, которое наверняка сложилось у вас после прочтения вводной части статьи. Ведь сегодня у нас как-никак почти что праздник: выход новой архитектуры NVIDIA, в которой появилась поддержка DirectX 11 и много других «плюшек». Появления чипов на ее базе нам пришлось ждать очень долго: если считать от момента выпуска конкурирующего решения, совместимого с DX11, – ядра Cypress из серии Evergreen от ATI, – то получится, что ответ NVIDIA запоздал на целых полгода, что по меркам старой, более динамичной видеоиндустрии могло быть приравнено чуть ли не к целой эпохе. Так стоило ли фанатам считать дни до официальной презентации, делая зарубки на корпусе адаптера «двухсотой» серии? Сегодня это станет известно.

Знакомиться с архитектурой мы будем на примере единственного на данный момент ее воплощения в кремнии – графического процессора GF100, которому суждено стать флагманом новой линейки видеочипов. Итак, передаю слово коллеге.

Общий взгляд на Fermi
И. М.: Давайте для начала обрисуем портрет новинки в общих чертах. В состав GF100 входит 512 шейдерных процессоров, которые группами по 32 штуки объединены в 16 блоков, называемых потоковыми мультипроцессорами (Streaming Multiprocessor, SM). В состав каждого SM также входят блоки планировки и диспетчеризации, набор регистров и кэш первого уровня. Все мультипроцессоры подключены к общему кэшу L2 объемом 768 Кбайт и контроллерам памяти.

Блоки SM сгруппированы по четыре штуки в кластеры обработки графики (Graphics Processing Clusters, GPC). Каждый GPC снабжен своим растеризационным движком (Raster Engine, RE), а в предшественницах Fermi весь графический процессор обслуживался одним RE.

С памятью GF100 взаимодействует при помощи шести 64-разрядных контроллеров, формирующих единую 384-битную структуру. Столь выдающаяся ширинао шины вкупе с тем, что GF100 может работать с GDDR5, позволяет разрабатывать видеокарты, обладающие поистине огромной пропускной способностью памяти.

Также на общей схеме GF100 можно обнаружить интерфейс соединения с шиной PCI Express (Host Interface) и планировщик GigaThread, распределяющий блоки потоков между внутренними планировщиками мультипроцессоров. Очевидно, при создании производных вариантов GF100 в том, что касается вычислительной части чипа, минимальной «замораживаемой» единицей окажется именно один SM. В частности, именно такую ситуацию мы можем наблюдать в случае с картой GTX 480 (да-да, это не опечатка) – до полной конфигурации шейдерного блока ей не хватает как раз одного потокового мультипроцессора.

Вы спросите, почему NVIDIA не представила видеоускоритель, в котором использовалась бы полная версия GF100? Дело тут в том, что производство чипов по 40-нанометровому техпроцессу пока недостаточно отлажено и фабрики выпускают слишком мало кристаллов, совершенно лишенных дефектов. В таких условиях NVIDIA приняла решение не изготавливать пока карт GeForce на основе «полного» GF100.

Потоковый мультипроцессор
В состав каждого из 16 потоковых мультипроцессоров входит 32 так называемых CUDA-ядра. Те, в свою очередь, включают в себя по одному арифметико-логическому устройству и блоку вычислений с плавающей запятой. В архитектуре Fermi нашел широкое применение новый стандарт вычислений IEEE 754-2008, подразумевающий возможность выполнения операций совмещенного сложения-умножения (Fused Multiply-Add, FMA) как одинарной, так и двойной точности. Если говорить о предшественнике GF100, GT200, то там схема FMA использовалась только в операциях двойной точности.

Преимущество FMA перед старым подходом (Multiply-Add, MAD) заключается в более высокой точности вычислений, так как в рамках FMA не производится округление промежуточного результата – соответствующее действие затрагивает только итоговое значение.

В состав каждого из 16 потоковых мультипроцессоров входит 32 так называемых CUDA-ядра. Те, в свою очередь, включают в себя по одному ALU.

Еще одно достоинство архитектуры Fermi по сравнению с предшественницей заключается в разрядности АЛУ для операций умножения – 32 бита против 24. Кроме того, новое арифметико-логическое устройство дополнительно оптимизировано под выполнение 64-разрядных операций. С кэшем и основной памятью потоковый мультипроцессор взаимодействует при помощи 16 блоков загрузки / сохранения данных, каждый из которых может быть отдан на откуп своему потоку. Также в состав SM входят четыре устройства специального назначения (Special Function Units, SFU), отвечающих за выполнение трансцендентных функций (например, тригонометрических).

Планировщик warp’ов
Так как ранее о warp’ах мы не говорили, самое время объяснить, что это за зверь. Так называются группы, состоящие из 32 параллельных потоков, – именно такими скоплениями потоки и поступают в мультипроцессор. Наличие в SM двух планировщиков warp’ов при благоприятном сочетании поступающих операций позволяет загружать работой все исполнительные блоки мультипроцессора (32 CUDA-ядра, 16 устройств загрузки / сохранения и четыре SFU), распределяя по ним содержимое сразу пары warp’ов.

Работа с текстурами
При определении места текстурных блоков в архитектуре Fermi инженеры NVIDIA применили абсолютно тот же подход, что и в отношении вышеупомянутых движков растеризации, – то есть они предпочли разделить крупные модули на мелкие составляющие. Если в GT200 на каждые три мультипроцессора была выделена единая группа из восьми текстурников, то в GF100 в состав одного SM входит четыре «личных» текстурных модуля. Что любопытно, несмотря на меньшее общее количество TMU (64 штуки против 80), GF100 превосходит GT200 по производительности в операциях текстурирования.

Тесселяция
Еще одна группа функциональных блоков, при проектировании которой NVIDIA сделала ставку на небольшое количество мелких модулей, а не на один крупный, отвечает за работу с геометрическими данными. Каждому из потоковых мультипроцессоров GF100 выделен свой PolyMorph Engine, который среди прочего занимается и тесселяцией.

Если кто забыл, напомню, что тесселяция – это автоматическое разбиение крупных полигонов на более мелкие. Использование такой техники совместно с картами смещения (специальными текстурами, в которых закодирована информация о том, на сколько нужно сместить определенные вершины геометрической модели) позволяет значительно повысить детализацию изображения без увеличения объема хранимых в ЗУ данных и роста нагрузки на шину памяти.

Кстати говоря, компания AMD к разработке своего последнего тесселятора подошла по-другому – в видеопроцессорах Evergreen весь чип обслуживается одним таким блоком.

Блоки растровых операций
В процессоре GF100 суммарно насчитывается 48 блоков растровых операций (ROP’ов). Они разделены на шесть групп, каждая из которых состоит из восьми таких модулей и относится к своему контроллеру памяти (в случае GT200 на один контроллер приходилось лишь по четыре ROP’а). Еще одно отличие GF100 от GT200 заключается в том, какое запоминающее устройство используют ROP’ы при работе, – в «двухсотом» им было выделено отдельное ЗУ, а в «сотенном» они имеют доступ к общему кэшу второго уровня.

Новая организация блоков растровых операций позволяет существенно снизить потери производительности при переходе от сглаживания MSAA 4x к MSAA 8x. Кроме того, существенно возросшая мощь ROP’ов дала основание NVIDIA ввести новый алгоритм сглаживания – CSAA (Coverage Sampling Antialiasing) 32x.

Работа с памятью
Существенно от своих предшественниц Fermi отличается в плане иерархии памяти, которая благодаря появлению кэшей общего назначения стала включать в себя три уровня вместо прежних двух. На первом из них находится ОЗУ, на втором – кэш L2, а затем следует ступень, на которой располагаются кэш L1 и разделяемая память, необходимая для обмена данными между разными потоками из одного блока.

Объем изменений, которым подвергся старый графический процессор, весьма существенен, но радикально архитектура не перекраивалась.

Здесь стоит отметить последнюю пару запоминающих устройств. Если в чипах G80 и GT200 каждый потоковый мультипроцессор включал в себя только 16 Кбайт разделяемой памяти, то в случае с GF100 все несколько занятнее. Разделяемая память и кэш первого уровня представляются здесь как части единого 64-килобайтного ЗУ, а пропорция их объемов в зависимости от ситуации может иметь вид либо «16 / 48 Кбайт», либо «48 / 16 Кбайт».

Частоты
Как вы наверняка помните, во всех своих видеопроцессорах, основанных на унифицированной шейдерной архитектуре (то есть в чипе G80 и его потомках), NVIDIA применяла схему с раздельной синхронизацией шейдерного домена и прочих блоков GPU. Причем между собой соответствующие частоты связывались относительно слабо – на них было наложено лишь одно ограничение, согласно которому шейдерные процессоры по быстродействию должны были превосходить остальные модули минимум в два раза. При разработке же GF100 калифорнийские инженеры решили отказаться от такой схемы, но все же от самой идеи разночастотности они не отреклись.

Итак, в новых графических процессорах NVIDIA на «базовой» частоте работают шейдерный домен и кэш первого уровня, а на строго вдвое меньшей – все остальные модули, кроме блоков растровых операций и кэша L2 (эта пара живет обособленно).
Как видите, кардинально здесь ничего не изменилось, но вот у оверклокеров при разгоне новых видеокарт свободы действий поубавилось.

Осмотр на месте
BootSector: Ну как, составили впечатление о новинке? Как видите, объем произведенных изменений весьма существенен, но радикально архитектура не перекраивалась. Можно говорить о том, что переход GT200-GF100 похож на переход G80-G92-GT200. Тогда, как вы помните, производительность сопоставимых по ценовому позиционированию видеокарт повысилась, но не настолько, чтобы это поразило воображение; а как будет сейчас? Это нам удастся выяснить при помощи инженерного сэмпла видеокарты GTX 480 производства самой NVIDIA и уже знакомой вам тестовой системы, описанной в таблице #2. Но для начала давайте внимательно рассмотрим видеокарту.

Если компания ATI / AMD придумала для своих последних видеокарт броский и агрессивный дизайн, больше наводящий на мысли о суровых хищниках, чем о мирных вечнозеленых растениях, то в NVIDIA пример с конкурента брать не стали. Видеокарта выглядит строго и аккуратно, очертания ее корпуса остались почти неизменными, если сравнивать с предыдущим одночиповым фрагманом – GTX 285, так что, если налепить на нее цветастый шильдик, можно сразу и не понять, что перед тобой – представитель новой серии.

Наиболее заметные особенности GTX 480 – четыре толстые теплотрубки, выходящие за пределы корпуса (внутри притаилась пятая), да никелированный участок радиатора, вынесенный на лицевую панель кожуха. Карта обещает быть очень горячей (заявленное тепловыделение рекордно для одночипового продукта – 250 Вт), поэтому подобные меры вполне оправданны.

Только вот от дополнительной поверхности теплообмена вряд ли будет много толку, так как в большей части корпусов она окажется смотрящей вниз и расположенной в «мертвой зоне». Кожух, кстати, можно снять с видеокарты, «отжав» шесть язычков, – похожее решение применялось в одноплатных GTX 295 с вентилятором посередине. Также схожесть между вышеупомянутыми картами проявляется в наличии отверстий в печатной плате, предназначенных для дополнительного захвата воздуха турбиной.

По длине GTX 480 полностью идентична GTX 285, причем выяснить это мне удалось без помощи штангенциркуля: дело в том, что вторая из упомянутых карт, владельцем которой я являюсь, впритык входит в корпус Ascot 6AR6, в буквальном смысле прочерчивая борозду по отсеку для винчестеров. Точно так же плотно, но без лишних усилий в кейс втиснулась и «480-я». Уже плюс: скажем, Radeon HD 5870 в мой не самый тесный кузовок, не извлекая отсек с винчестерами, поставить нельзя.

GTX 470 имеет схожие с GTX 480 форму и размеры, но лишена выступающих теплотрубок и фрагмента радиатора на кожухе – ее тепловыделение не должно выходить за рамки 215 Вт. В плане же количества, типов и расположения выходных интерфейсов для монитора GTX 480 сильно отличается от HD 5870: на свежей «зеленой» карте в рядок стоят два DVI и один нестандартный mini HDMI. Набирающий популярность интерфейс DisplayPort отсутствует полностью, и это минус, зато для выброса горячего воздуха задействуется вентиляционное отверстие размером в полный слот, что, несомненно, является плюсом.

Объем установленной на карте памяти составляет целых 1,5 Гбайт – этого будет достаточно для всех современных игр с самыми качественными текстурами. Причем эта память – стандарта GDDR5, который впервые используется в топовых решениях NVIDIA (исторически же, если говорить о «зеленых» картах, он появился сначала на GT 240, выпущенной в конце 2009-го). Ширина шины – 384 бита (как у 8800 Ultra), а эффективная частота – аж 3696 МГц, так что, казалось бы, в плане пропускной способности GTX 480 должна стать абсолютной чемпионкой. Но на самом деле в архитектуре GF100 проявилось уже другое ограничение, не связанное непосредственно ни с разрядностью, ни с частотой: возможности контроллера ввода-вывода. Он не позволяет на все 100% реализовать потенциал подсистемы памяти, так что по реальной пропускной способности GTX 480 и HD 5870 идут примерно на равных.

Наличие трех разъемов на тестовом сэмпле GTX 480 может кого-то натолкнуть на мысли о поддержке одновременной работы трех мониторов… и да, она таки есть! NVIDIA решила дать свой, немного асимметричный, ответ на технологию ATI Eyefinity: она предлагает пользователю задействовать сразу три устройства отображения по технологии NVIDIA Surround, которая при необходимости очень легко может превратиться в 3DVision Surround – когда юзер, окруженный мониторами, как индеец Зоркий Глаз из известного анекдота, наденет еще и затворные 3D-очки. Но для этого, разумеется, моники должны поддерживать частоту обновления в 120 Гц.

Забегая вперед, скажу, что в тестовой бета-версии драйверов ни одна из двух вышеупомянутых технологий еще не функционирует. Жаль, но некоторым утешением может послужить тот факт, что работа Surround в дальнейшем заявлена и для GT200.

Важное отличие GTX 480 от своих предков – присутствие встроенного звукового процессора (наконец-то!). Теперь не нужно втыкать в видюху шнурок, ведущий от интерфейса S/P-DIF на аудиокарте, чтобы передавать звук по интерфейсу HDMI. В ATI, кстати, до интеграции аудиочипа в видеоакселератор додумались давно – еще во времена серии HD 3000.

И справедливости ради замечу, что звуковые процессоры, которые ставятся на современные карты от «красных», совершеннее: сверх того, что умеет проигрывать чип от NVIDIA, они могут декодировать еще и сжатые без потерь форматы DTS-HD и Dolby TrueHD, которые недоступны процессорам видеокарт на базе GF100.

Им придется довольствоваться 8-канальным звуком, сжатым с потерями, или lossless, но без какой-либо компрессии (LPCM). С аппаратным же декодированием видео у GTX 480 все в порядке: чип VP4 не даст «призадуматься» ни одному фильму, пожатому при помощи H.264, MPEG-2, VC-1 или MPEG-4 ASP.

Еще интересно вот что: в своих официальных презентациях NVIDIA акцентирует внимание на поддержке ECC (Error-Correcting Code) для регистровой, кэш- и оперативной памяти видеокарт GF100. ЗУ типа ECC обычно применяется в серверных системах – там, где нужна повышенная надежность.

Наиболее распространенные реализации алгоритмов данного кода требуют наличия дополнительного девятого бита в каждом байте, который бы хранил информацию о четности восьми значащих битов. В модулях памяти для этого вводят дополнительный 9-й (ну или, соответственно, дополнительные 17-й и 18-й и так далее) чип памяти, но в NVIDIA решили поступить по-другому и просто предусмотреть «отъедание» одной девятой объема всей памяти под нужды ECC, буде необходимость в нем возникнет. По умолчанию в видеокартах код исправления ошибок не используется.

Кульминация
Наверное, хватит уже теории, вам ведь не терпится узнать, какова карта в деле. Вот и нам тоже. Включать в тестовую подборку слишком много видеокарт мы не стали: понятное дело, что основной конкурент GeForce GTX 480 – это Radeon HD 5870. Также интересно сравнить новую карту с GTX 285 – предыдущим одночиповым флагманом, и еще с GTX 295 и HD 5970 – просто самыми мощными продуктами основных игроков рынка.

Последние крупные испытания видеокарт мы проводили почти полгода назад, и с тех пор пакет тестовых программ изменился: из него исчезли старые игры вроде Call of Duty: World at War, Left 4 Dead и S.T.A.L.K.E.R.: Clear Sky, зато появились новые: Battlefield: Bad Company 2, Left 4 Dead 2, S.T.A.L.K.E.R.: Call of Pripyat, Batman: Arkham Asylum и Metro 2033: The Last Refuge. Как видите, почти равноценная замена (смайл). Настройки везде мы выставляли на абсолютный максимум, что вполне логично, учитывая позиционирование новой видеокарты.

Но начнем мы с богомерзкой синтетики, чтобы сразу с ней и расправиться. Из нее у нас – неизменный 3DMark Vantage (дань традициям) и бенчмарк Unigine Heaven версии 2.0, использующий возможности DirectX 11. Про 3DMark что-либо говорить излишне, а вот на втором остановлюсь подробнее. Во-первых, он создан нашими с вами собратьями, а во-вторых, крайне красив – его можно запустить просто ради того, чтобы полюбоваться оригинальной фэнтезийной графикой. Но, когда лирическое настроение вас покинет, самое время вспомнить об одной из основных особенностей бенчмарка – хорошей поддержке программно-аппаратной тесселяции.

Вообще, тесселяция – это замечательная технология, возможности которой по повышению визуального качества картинки едва ли не безграничны. Совмещая использование так называемой карты высот и дробления полигонов на мелкие составные части, она позволяет буквально «выращивать» на ровном месте сложный рельеф. Причем этот рельеф – всамделишный, а не бутафорский, как у технологии Parallax Mapping: грубо говоря, взглянув сбоку на стену из необработанного камня, вы не увидите, что на самом деле она плоская, как стол, – наоборот, отдельные булыжники будут выделяться еще больше.

Но при этом не стоит считать видеокарты на базе GF100 или Cypress (в которых реализована поддержка этой технологии) эдакими «универсальными улучшателями», которые за счет тесселяции делают все игры краше и живее: если разработчики не предусмотрели использования этой возможности или реализовали ее чисто для галочки, то сама по себе она не заработает так, как вы бы хотели, и потенциал видюхи просто не будет использован. Точно так же не стоит ждать тесселяции в любой из игр, несовместимых с DirectX 11 (а таких сейчас подавляющее большинство).

Если говорить о результатах, то в бенчмарке от Unigine побеждает карта от NVIDIA, причем отрыв тем серьезнее, чем более высокая степень тесселяции включена (кстати, перебарщивать с данным параметром не стоит – это тот самый случай, когда кашу можно испортить маслом). А вот 3DMark Vantage не продемонстрировал серьезных преимуществ новой архитектуры NVIDIA над Cypress: GTX 480 отстала от HD 5870. Впрочем, если взглянуть на результат GTX 285, можно заметить, что прогресс однозначно есть.

Ситуация в двух играх, задействующих возможности DX9, складывается в пользу свежей карты от NVIDIA: она либо идет вровень с HD 5870, либо заметно обходит ее, а отрыв от собственного одночипового предшественника и вовсе ошеломляющий. В Batman: AA на руку GF100 однозначно сыграла поддержка PhysX, который в новой ревизии этой игры применяется очень широко.
В Crysis Warhead GTX 480 ненамного обгоняет основного конкурента, особенно по минимальной скорости смены кадров. А вот Battlefield: Bad Company 2, неожиданно оказавшаяся весьма «тяжелой» с графической точки зрения игрой, в большей части сцен отдала предпочтение HD 5870.

Встроенный бенчмарк вечно молодящегося S.T.A.L.K.E.R. (на этот раз версии Call of Pripyat) по-прежнему способен поставить на колени почти любую видеокарту, но GTX 480 в нем показывает себя немного лучше HD 5870. И наконец, новинка последних недель – Metro 2033: The Last Refuge. Очень атмосферная игра с великолепными графикой и сюжетом. Выкрутив все настройки на максимум и включив тесселяцию, мы смогли убедиться, что эту игрушку еще долго можно будет использовать как мерило производительности. GTX 480 здесь может праздновать победу – основные конкуренты повержены.

Отдельно нужно остановиться на качестве антиалиасинга во всех играх: коллега упомянул о новом режиме CSAA 32x, но не сказал, что в NVIDIA наконец-то решили проблему, которая меня всегда просто выводила из себя: раньше сглаживанию были подвержены лишь края трехмерных объектов, а вот детали, созданные при помощи текстур с элементами прозрачности (трава, листья, сетка-рабица, колючая проволока), оставались «рваными» даже при максимальных настройках качества графики.

Зато теперь алгоритм CSAA Alpha to Coverage умеет пересчитывать в более высоком разрешении и такие текстуры, вводя для их краев промежуточные уровни прозрачности, – и все смотрится просто шоколадно. Нет, в самом деле, это великолепное усовершенствование, пусть и дается оно путем некоторого снижения fps и работает пока не со всеми движками.

А дальше?
После завершения игровых испытаний на умолчальных настройках должен последовать разгон и тестирование вычислительных возможностей архитектуры Fermi. Вернее, должен был бы, но, увы, тестовый сэмпл GTX 480 оказался очень тестовым, и, лишь услышав о возможном разгоне, гордая видеокарта решила, что не станет терпеть эти измывательства и сама наложила на себя руки.

Я уронил скупую мужскую слезу и принял нелегкое решение отложить продолжение испытаний до того момента, как нам пришлют новый образец. Вас же призываю не пугаться такого поведения карты: на ней были все необходимые наклейки, извещающие меня о том, что если данный «экспериментальный» экземпляр хотя бы раз запустится, это уже будет счастье.
Тщательные замеры уровня шума и тепловыделения я по уже понятным причинам провести не успел, но беглая оценка этих показателей позволяет мне говорить, что карта вышла очень горячей и довольно шумной при максимальной нагрузке.

Заключение
Выводы на этот раз будут неоднозначные. Да, NVIDIA вновь забрала себе переходящий приз обладателя самой мощной одночиповой видеокарты. Наша тестовая подборка получилась достаточно репрезентативной, и, проанализировав еще и результаты сторонних тестов, можно сказать, что в среднем мы имеем около 10-12% превосходства GeForce GTX 480 над Radeon HD 5870. Плюс здесь еще можно сделать поправку на бета-версию драйверов для «зеленой» карты – в будущем этот разрыв должен увеличиться до 15-20%.

Но не стоит забывать и о том, что AMD и ее партнеры готовят к выпуску версии HD 5870 с 2 Гбайт памяти, повышенными частотами или даже тем и другим сразу. А основное преимущество продукции «красных» – это, как обычно, низкая стоимость. GTX 480 и 470 поступят в продажу 12 апреля по цене $500 и $350 соответственно. Даже если вспомнить о том, что свежие карты всегда продаются с наценкой, все равно мы сомневаемся, что в ближайшие месяцы NVIDIA опустит цены на GTX 480 до отметки хотя бы $400.

В рукаве NVIDIA – козыри в виде высоких вычислительных мощностей архитектуры Fermi, эффективной тесселяции, хорошей поддержки PhysX и сравнительного богатого набора CUDA-приложений. Но игра на рынке дискретной графики нечасто складывается так, чтобы эти козыри можно было использовать. Наиболее перспективными мне пока кажутся тесселяция и CUDA – если программисты будут активнее работать в этих направлениях, мы получим более красивые игры, более быстрое выполнение тяжелых задач и, в конечном счете, более полное использование возможностей GF100.

Пока же мы видим, что со своей новой видеокартой NVIDIA однозначно не провалилась, но и не «выстрелила». Посмотрим, что будет дальше.

Никто не прокомментировал материал. Есть мысли?

Здравствуйте! Купили в апреле номер с этой статьей и были поражены красотой фотографии GF100. Помогите найти это фото в высоком разрешении, хотим распечатать как картину-))) заранее спасибо-)))