14 лет назад 25 января 2010 в 17:58 749

Причины большинства всяческих войн и конфликтов – ресурсы. Ресурсы, которые затем можно выразить в денежном эквиваленте (ну и в процессе ведения военных действий тоже можно срубить денежку). Как говорится, ничего личного, just business, – такая вот жесткая форма конкуренции. Неважно, насколько сложные экономические образования спонсируют столкнувшиеся военные машины, работает одно общее правило: кто платит деньги, тот заказывает музыку, а патриотические марши – один из музыкальных стилей.

Но совсем не таковы священные войны. Я не о мелких конфликтах, которые заводят только для поддержания оружия в боеспособном состоянии (иначе ржавеет) или тестирования нового. За настоящими священными войнами стоит нечто более важное, чем деньги. Что заказывающие музыку небожители любят больше своих денег? Гарантированные и хорошо прогнозируемые прибыли, конечно. Стабильность, которую дает монополия единственно верного священного бренда, неважно, из какой области.

В наше мирное время стычки брендолюбов, жертв пропагандистских кампаний, нередко происходят в «каментах». На ветвях форумов, украшающих самые их верхушки, эти раскидистые горячие темы называют одинаково – «holy war». Это споры о вкусах. Какой iPod предпочитаешь ты? Хоругви какой компании поднимешь, преданность какой марке выразишь? Ради какой наклеечки станешь брызгать слюной в монитор и ломать клавиатуру?

Вот, к примеру, ATI и NVIDIA. Старые, непримиримые конкуренты на рынке видеокарт. Мощнейшие бренды. На какую сторону встать, кому поклониться? Сделать выбор нам поможет реклама. И стереотипы. Вам больше по душе зеленый цвет или красный? Какой из рекламных образов ближе – девушка в красном по имени Руби или фэнтезийные существа? Кому вы сочувствовали в военном конфликте, развязанном жителями South Park, канадцам или американцам? Выбрали? Ну, и становитесь под правильные знамена – все просто.

Сложнее разобраться с неопровержимыми доводами, чтобы не выставить на посмешище перед неверными себя или, того хуже, боготворимый бренд. И неплохо еще настоящему фанату знать слабые места противоположной стороны. Что ж, давайте разберемся с самыми распространенными аргументами оппонентов.

Атака на ATI
Начнем в алфавитном порядке. А посему первой под обстрел попадает ATI. ATI отстает от NVIDIA по продажам, у американцев всегда будет больше денег на исследования, и они первыми будут придумывать и внедрять разработки. В общем до некоторого времени так и было, но ситуация изменчива. Продажи все же зависят не только и не столько от качества продуктов, сколько от популярности бренда, а усиливать давление на умы – работа маркетинга.

Ценовая политика компании тоже играет роль. С тех пор как ATI сконцентрировалась на чипах средней производительности, а в качестве дорогих акселераторов решила выпускать двухчиповые карточки, она существенно поправила свои финансовые дела. В ущерб конкуренту, конечно. В общем не стоит использовать этот аргумент в споре с подготовленным противником.

ATI не придумывает ничего своего, все ее разработки нагло уворованы у единственного истинного «движителя прогресса видеокарт» – NVIDIA. Вот! Сама формулировка очень правильная. Между делом, вскользь обвинить идейного врага в нарушении авторских прав и умственной неполноценности, да еще не терпящим возражения тоном, – это сильно. Что до фактической стороны, то тут такое дело: не поймешь, кто и у кого что «ворует».

Заимствование идей у конкурентов и их альтернативная реализация (как раз чтобы в воровстве не обвинили) – дело обычное. Когда одна компания предлагает новые возможности, другая просто обязана ответить симметрично – иначе потеряет часть покупателей. Даже если при этом идея позаимствована, практически выпилена из чужого чипа и воплощена по-другому… нет, ну а что, людям с голодухи помирать (смайл)?

Канадцы вводят в заблуждение покупателя невнятными названиями карт на одном и том же чипе. Хороший аргумент. Действительно, непонятно, зачем канадцы городили огород со всякими GT, XT, XTX, GTX, GTS, да еще и путаницу с цифровым обозначением чипов устраивали. Только сейчас уже ничего этого нет. Почти. Точного представления о карте, исходя из одной маркировки, не получить, хотя правило «чем выше номер модели, тем качественнее видюхи» работает. Более или менее. С поправками, которые справедливы и для видеокарт NVIDIA.

У ATI картинка хуже, чем у NVIDIA (причем сама по себе, без всяких сглаживаний-фильтраций), у NVIDIA шейдеры красивше. Сильная тема. Среди аудиофилов есть особая каста избранных – Слышащие, они отгораживаются от нечестивых просто: разница в звуке есть (даже если ее в принципе быть не может или она объясняется какими-то мистическими процессами), и она огромна, а если ты не согласен, значит, просто не слышишь. Не дано. Легенду о животворных святых шейдерах надо излагать в том же снисходительно-наглом ключе – шансов на успех тем больше, чем сильнее прокачан навык троллинга. Кстати, аргумент можно с равным успехом применять в обратную сторону, против сторонников компании NVIDIA.

На самом деле это мракобесие. Есть нарисованные, так сказать высеченные в коде раз и навсегда, модели и текстуры, есть API, в котором они описаны, есть инструкции для процессора – они либо выполняются, либо нет. Вариантов типа «выполнены лучше или хуже» не бывает (при условии полной поддержки API видеокартой). Это не означает, что на компьютере с карточкой NVIDIA картинка не может быть сочнее, чем на соседнем ПК с Radeon на борту (если только монитор не подключен по аналогу), но отличия не будут иметь никакого отношения к акселератору. Смотрим в настройки монитора и профиля карты (яркость, контрастность, возможно коррекция цветовой гаммы) и находим причину там.

Все, что видно глазу, – разница в алгоритмах мипмэппинга и фильтрации, незначительно сказывающаяся на картинке (несогласные – см. выше), и глюки. В разных играх эти глюки проявляются по-разному, они могут касаться и отображения текстур и моделей, и наложения фильтров. Перечислять частные случаи нет смысла – уж больно велико разнообразие багов, и не сказать, что есть перевес в ту или иную сторону; к тому же с каждым апдейтом драйверов обновляются и версии глюков – исчезают старые, а иногда появляются свеженькие.

У ATI нет аналогов профессиональных видеокарт Quadro. Ни разу не соответствующее реальному положению дел, хотя отчего-то расхожее высказывание. И что заставило некоторых людей так думать и говорить? Разве что смена названия: профессиональные карты ATI теперь именуются не FireGL, а FirePro – видимо, выпали из поля зрения. Изменение торговой марки не связано с маркетинговыми делами, просто разработчики хотели уйти от ассоциаций с OpenGL.

Если верить опубликованным в интернете тестам, Quadro FX от NVIDIA не превосходят своих канадских конкурентов. В одних приложениях и режимах они выглядят лучше, в других – хуже. Главное достоинство профессиональных карт NVIDIA – поддержка технологии SLI, пара карт уже позволяет добиться преимущества перед решениями ATI, однако цена вопроса… она несопоставима. Топовая карта ATI, FirePro 8700, стоит от $1200 до $1500 (если верить предложениям на Price.ru, которых много), за топовую же FX 5800 хотят около четырех тысяч баксов, а особо жадные товарищи не стесняются заряжать восемь. Менее производительная, но достаточно мощная модель FX 5600 стоит 2,5-3 «килограмма зелени». Нетрудно посчитать, во что обойдется SLI-конфигурация… Решение исключительно для тех, кто не считает деньги.

Получается как обычно: NVIDIA бьет рекорды, AMD и купленная ею ATI считают деньги. Самый экономичный fps у канадцев, небывалые высоты – у NVIDIA, но, чтобы к ним подняться, потребуется насыпь из зеленых купюр. У ATI нет поддержки CUDA. Да, поддержки CUDA у ATI нет и быть не может, так как название является со всех сторон запатентованной собственностью NVIDIA, но аналогичная технология у канадцев имеется, и называется ATI Stream. На стороне американцев – большее количество приложений, способных использовать CUDA, что к качеству и производительности не имеет никакого отношения. Это недоработка маркетингового департамента канадцев, возможно, ее со временем устранят.

По поводу самого качества. К ATI были справедливые претензии: технология ATI Stream поначалу была сырой, но сейчас баги пофиксены, и она жизнеспособна чуть более чем на 100 процентов. Если верить результатам независимых тестов, по производительности конкуренты демонстрируют примерно равные показатели.
Что за вычисления берут на себя GPU с поддержкой ATI Stream и CUDA? Если не принимать во внимание жирные сети для распределенных вычислений (поиск пришельцев, разработка лекарственных препаратов), от которых обычному человеку толку – ноль, технологии нужны для конвертации видео.

Компания Microsoft уже представила одиннадцатую версию API DirectX. Однако в ближайший год нам вряд ли стоит ожидать существенного скачка качества графики в играх
Компания Microsoft уже представила одиннадцатую версию API DirectX. Однако в ближайший год нам вряд ли стоит ожидать существенного скачка качества графики в играх

Полезная фича? Разве что для профессиональных пиратов и онлайновых торговцев мультимедиаконтентом под разные платформы. Плагины-фильтры типа upscale теоретически интересны, но по факту унылы до неприличия. Остается поддержка игровых технологий, но это другая песня и отдельный повод для перепалок. К нему и перейдем. У ATI нет поддержки PhysX. Вот и самый мощный аргумент сторонников NVIDIA. Чего у ATI нет, того нет. И даже не предвидится, поскольку NVIDIA удачно прикупила на распродаже Ageia со всеми интеллектуальными пожитками, выпуск отдельных физических ускорителей свернула и продавать конкурентам лицензию на свой эксклюзив желанием не горит.

AMD и ATI делали ставку на Havok, точнее его расширение Havok FX: инструкции из нового набора позволяли обсчитывать физику на графических процессорах. Просчитались: в конце прошлого года компанию Havok приобрела Intel, после чего работы над Havok FX были заморожены. Теперь ATI нечего противопоставить поддержке PhysX, и перспективы канадцев на этом поле туманны.

У NVIDIA самые быстрые процессоры, ATI может их побить только двухчиповками. Двое на одного нечестно! У NVIDIA, как правило, действительно самые быстрые одночиповые карты (хотя уже выпущен Radeon HD5870, и пока что в этом сегменте он король). Как повод гордиться любимым брендом и аргумент в споре – да, годится. Но по существу… У ATI достаточно моделей, которые по соотношению кадросекунд к вложенным рублям смотрятся выгоднее соперников. Намного. И у NVIDIA удачных карт достаточно. Например, если хотите самую быструю карту на сегодня – вам к американцам.

Какое простому прагматику дело до абсолютного лидерства GPU той или иной компании? Разве все себе поголовно high-end покупают? Нет, на топовые карты раскошеливаются единицы юзеров, основная масса народа сидит на middle-end. Ну, и о количестве чипов. Греться «двуглавая» карта будет сильнее одночиповой, но просто потому, что выбрасывающих тепло элементов больше. На износ видюхи это не влияет. В плохо продуваемом корпусе проблемы могут быть, но что тут скажешь – надо выбирать адекватный комплектующим кейс и вентиляцию в нем разумно организовывать. А что до честности… честно, нечестно – какая разница? Главное, у кого fps толще.

Процессоры G300 разорвут чипы ATI в клочья, у них гораздо более впечатляющие ТТХ. По мне, так меряться длиной гипотетического графического конвейера (образно выражаясь, если что) – просто моветон. Прикол из серии «побьет Рэмбо ниндзю или не побьет». Один в один, отличий нет. До будущего же еще дожить надо.
Хочется всем напомнить историю с жесткими дисками IBM. Такими козырными-козырными, быстрыми, большими, со стеклянными блинчиками. Как их все резво раскупали (и в UPgrade их тоже заказали, на рабочие машины) и как громко потом рыдали под характерные песни умирающих «дятлов» – помните? У кого погибли тонны бесценной инфы, тот точно не забудет.

Еще были все из себя такие замечательные, но, как позже выяснилось, перегревающиеся (и даже славно горящие!) приставки Xbox 360. Были интересные модели сотовых со взрывоопасными аккумуляторами. И камни AMD Phenom были, которые мало того что «не шмогли», так еще и оказались глючными. И чтоб совсем все стало понятно, были пятитысячные GeForce, на которые все смотрели с надеждой – напрасной, как выяснилось чуть позже. Поживем – увидим, кто с новыми GPU сядет в лужу (смайл).

ATI продала свой бренд, чем подписалась под собственной несостоятельностью. Один из лучших текстовых «прямых ударов» в потасовках по переписке. Практически не блокируется. Хорошо идет в комбо с аргументами о безотносительном (то есть цена во внимание не принимается) лидерстве чипов NVIDIA по производительности, внезапными переходами на личности и максимально высокомерными обвинениями оппонента в нищебродстве.

Можно много рассуждать о взаимовыгодном слиянии двух компаний, нарыть какую-нибудь «близость идеологий», но лично меня ничто не переубедит в том, что от хорошей жизни подобные сделки не совершаются. Тем более что слияние было больше похоже на дружественное, эстетичное поглощение. Сужу исключительно по результатам. Бренд ATI теперь подпорка для более крупного и жизнеспособного, AMD. Согласившись уйти в тень, канадцы признали, что сами, в одиночку, конкуренцию NVIDIA продули. Красивые оправдания значения не имеют – поступки и их последствия значат гораздо больше.

У ATI уже нет 512-битной шины памяти. Архитухлый довод, таким словесным выпадом можно поразить разве что кондового ламера. Причем словосочетание «512-битная шина памяти» нанесет ему морального ущерба куда больше, чем смысловая составляющая фразы. Широченной необъятной шине ATI противопоставляет GDDR5, в итоге «мозги» получают от чипа никак не меньше гигабайт данных в секунду, но само техническое решение выходит дешевле, чем реализация 512-битного интерфейса. И потом, использование графической памяти нового типа уменьшает энергопотребление и тепловыделение видеоакселератора. (Хозяйке на заметку: графическая память GDDR5 применяется не на всех моделях видеокарт ATI, равно как не все двухсотые GeForce оснащены 512-битной шиной.)

Контрнаступление
Как видим, среди всех расхожих аргументов большинство – по сути, это демагогия. Либо сомнительные достижения, не имеющие преимущества на практике. Посмотрим, что говорят в противоборствующем идеологическом лагере. NVIDIA все еще копается с 55-нанометровым техпроцессом, канадцы давно перешли на 40 нм. Это правда, американцы пока только планируют перевести свое производство на новый технологический процесс.

Столь судьбоносное решение стыкуется с другим, не менее знаковым, – выпуском чипа G300, так что, как выразилась бы цирковая гадалка из небезызвестного фильма, «самое важное событие в жизни» у американцев впереди. Впрочем, нельзя сказать, что нынешние, 55-нанометровые GPU NVIDIA в чем-то теряют из-за избытка нанометров. Тепловыделение у них примерно на уровне конкурентов, производительность та же, и энергопотребление сопоставимо. Значимых на практике минусов сейчас нет, а появится ли преимущество при переходе на более тонкие технологии… поглядим.

Видеокарты NVIDIA очень сильно греются, а это и износ, и лишний градус в системнике, и подразогнать карту не получится. В общем до недавнего времени поклонникам бренда из страны звездно-полосатых Микки-Маусов на этот аргумент возразить было нечего. По существу. Потому что возможность сказать: «Меня это не колышет, я поставил хорошую СО, а корпус у меня большой и полный сквозняков», – была и остается у любого желающего. Сказать ведь – не кулер купить да поставить, поди проверь.

В SLI один из акселераторов можно отрядить под обсчет физики. Так что тандем даст не только лишние fps: станут доступны некоторые эффекты, которые без активации PhysX не увидишь
В SLI один из акселераторов можно отрядить под обсчет физики. Так что тандем даст не только лишние fps: станут доступны некоторые эффекты, которые без активации PhysX не увидишь

Теперь уже все непросто. С переходом с 65 на 55 нм тепловыделение у ремейков всех GPU NVIDIA сильно упало. Очень сильно. Новые графические процессоры по тепловыделению практически сравнялись с конкурирующими чипами ATI, а двухголовые канадские монстры жгут куда как веселее, чем их «зеленые» одночиповые конкуренты. Ну а в общем и целом по TDP у компаний сегодня паритет. Есть еще кое-что. Можно, конечно, прикрутить и нештатный кулер, но обычно на картах стоит внушительный недешевый радиатор с крыльчаткой и бловером, и на цену он влияет неслабо.

Менять его – значит выкинуть часть потраченных денег в помойку, да еще придется заплатить за новую СО. Так что, если есть возможность, лучше поверить производителю карточки и оставить кулер на месте. Так вот, с качеством штатных кулеров бывает всякое. Поднимите побольше тестов разных моделей карточек, увидите интересную картину: нередко случается, что реально карта на чипе с меньшим TDP греется так сильно, что легко переплевывает более горячих конкурентов. Очень многое зависит от фирмы-изготовителя акселератора.

На middle-end-картах NVIDIA и графика еле ворочается, куда им еще PhysX с поддержкой физики? Ну, во-первых, никто не отменял SLI – один из акселераторов можно отрядить под обсчет физики. Это даст не только лишние кадросекунды: станут доступны некоторых эффекты, которые без активации PhysX не увидишь. Ну и главное: даже на картах класса middle-end прирост производительности от активации PhysX есть. И он не мал – до ста процентов доходит. Местами, временами. Конечно, далеко не все игры поддерживают технологию, некогда принадлежавшую Ageia, а теперь ставшую собственностью NVIDIA. Но в числе избранных такие must have-проекты, как Mass Effect, Age of Empires III (хотя зачем стратегии мощный физический движок?), Gothic 3, Rainbow Six и, конечно, Unreal Tournament 3 («тройка» – прямо магическая цифра (смайл)).

CrossFire – мощнейшая вещь, гораздо лучше SLI. Эм-м-м… Не совсем понятно, от чего отталкивается народ, когда сравнивает эффективность CrossFire и SLI в целом. От теоретических соображений, от массовых синтетических тестов? Реальные показатели, то есть прирост эффективности от установки второй видеокарты, зависят от конкретной игры. И да, положение дел в конкретной игре может измениться с обновлением драйверов.

Ну так вот, по поводу невиданной мощи «перекрестного огня»: эта информация несколько устарела. Да, в играх на движке Source Engine из Half-Life 2 CrossFire по-прежнему несколько эффективнее (хотя не всегда, пример – зомборубка Left 4 Dead). Да, обреченная еще до рождения на статус культовой игры Far Cry 2 на движке собственного сочинения до неприличия тесно дружит с технологией ATI – подозреваю, что отсюда и расхожесть столь спорного мнения. Однако, дорогие друзья, не будем забывать о непростых, мелодраматичных отношениях CrossFire и движка Unreal Tournament 3. В некоторых играх на его базе прироста от второй видеокарты практически нет… ATI исправляет ситуацию выпуском новых драйверов, но, судя по тому, что после релиза каждой свежей игрушки на Unreal Tournament 3 приходится ждать апдейта софта для видюхи, не все ладно в канадском королевстве. Мягко говоря.

ATI использует новую GDDR5, а у NVIDIA – GDDR3 (GDDR4). Еще один очень расхожий аргумент, и еще одно «зеркало». Да, память у NVIDIA слабее, но ее тип компенсируется шиной, а конечные результаты… А они у соперников подозрительно близки по соотношению «цена-качество», да? Из поколения в поколение карт мы видим суперские и потому хорошо продаваемые модели у каждой из компаний. Вас это не наводит на мысли о мировом заговоре? (Смотрим врезку.) В общем формально – да, в плане используемой памяти ATI впереди, но на сравнительной производительности карт это не сказывается.

NVIDIA рулит только в простых режимах, без наворотов. Непонятное утверждение. Если вы читали статью подряд, а не выборочно, то наверняка догадываетесь, что я скажу. Во-первых, в разных играх ситуация разная. К примеру, в F.E.A.R. 2 при максимальных настройках качества карта 4870 X2 заметно (процентов на 15) обгоняет GeForce 295, а в Far Cry 2 ситуация обратная: американский двухместный болид опережает канадский на 60%. Это только один частный случай. Хотите составить полное представление и вычислить, кто все-таки круче в целом в каком режиме, ищите в Сети тест-чарты, берите калькулятор в руки, придумывайте систему, подсчитывайте. Свихнетесь, я это вам гарантирую (смайл).

Прирост эффективности от установки второй видеокарты зависит от конкретной игры. Причем положение дел может измениться с обновлением драйверов
Прирост эффективности от установки второй видеокарты зависит от конкретной игры. Причем положение дел может измениться с обновлением драйверов

Во-вторых, как я уже писал, у каждой компании есть свои удачные модели, в каждом ценовом мини-сегменте (всего их – почти что по количеству конкурирующих моделей) свой лидер. Причем нередко явный, опережающий соперника как при низких, так и при высоких настройках качества. Вариант с неадекватно слабым центральным процессором ПК в расчет не принимаем – CPU к видеоакселераторам непосредственного отношения не имеет.

Младшие «атишки» спокойно тянут декодирование HD-видео, у NVIDIA с этим сложнее. Аргумент правильный в фактическом плане, только, скорее всего, он останется без внимания. Кому интересны маломощные, низкопрофильные карточки? Тем, кто собирает HTPC (домашний кинотеатр на базе ПК) или просто хочет сделать свою печатную машинку с выходом в интернет медиаплеером на полставки. Такие люди, как правило, мало интересуются священными войнами и практически не троллятся. Какие буржуи, а? Нет бы разбивать лоб за маркетинговую идею – сидят в креслах, пузо чешут и лениво косятся в монитор. Отвратительно!

Ну а если вы сами из таких, озадачены выбором маленькой неигровой карты, способной переварить HD Video, и увидели эту статью, то имейте в виду: Radeon в данном секторе действительно превосходит GeForce, причем как на контенте H/264, так и на VC-1. Сказанное касается и интегрированных в чипсет ядер. При этом канадские чипы еще и холоднее в силу того, что сделаны по более «тонкому» техпроцессу: некоторые модели спокойно работают с пассивным охлаждением и потому абсолютно бесшумны. Большая эффективность видеоакселераторов также означает, что в компьютер можно поставить менее мощный и, соответственно, более прохладный камень, что, опять-таки, подразумевает меньшее количество децибел излучаемого шума. Профит со всех сторон.

Карты NVIDIA не поддерживают антиалиасинг начиная с восьмитысячной серии. Пару раз приходилось сталкиваться и с таким экзотическим утверждением. По существу, конечно, ересь. Пруфлинка на любую карту NVIDIA без поддержки этой фильтрации нет и быть не может. С другой стороны, есть подозрение по поводу того, откуда у странного слуха растут ноги: на одном из форумов нашел тему о проблемах со сглаживанием у 8800. Отписались несколько человек, лейтмотив один и тот же: антиалиасинг внезапно перестал работать без всяких видимых причин. Разумных объяснений и методов борьбы с глюком никто не предложил, да в общем и непонятно, в чем дело. Способов накосячить в системе множество – поди угадай, что там конкретный пользователь учудил. А может статься, что это искаженное эхо проблемы, описанной ниже.

Со своей стороны, добавлю, что три человека с похожими глюками видеосистемы – не статистика. GeForce до сих пор один из самых популярных видеоускорителей, у большинства моих знакомых установлены именно такие карты, и ни о каких похожих глюках я не слыхал – у всех антиалиасинг присутствует. Были бы косяки – обязательно посмотрел своими глазами и доложил, что да как. NVIDIA первая реализовала HDR в своих картах, но ATI умеет его использовать вместе со сглаживанием.

В стародавние времена, когда HDR только входил в моду, то есть появлялся в новых играх, действительно были проблемы с активацией поддержки этой технологии на картах американской компании. Но и у ATI все было далеко не гладко: поддержка расширенного динамического диапазона и третьих шейдеров была неидеальна. Однако, как бы там ни было, это дела давно минувших дней, информация устарела и неактуальна.

Покупать карты позапозапрошлого поколения никому не интересно… надеюсь. На «железных» формах гораздо больше тем по проблемам NVIDIA. Интересное замечание. На первый взгляд так и может показаться. На самом же деле в конференциях больше тем, посвященных «зеленым» видеокартам, но это не значит, что все они наполнены криками о помощи. Достаточно и простых обсуждений. Видимо, у NVIDIA в нашей стране поклонников побольше, чем у ATI.

Выводы
Давайте посмотрим, что получится, если резюмировать все вышесказанное. Кто у нас на сегодня получается круче? Получается, что – тадам! – NVIDIA. Потому, что у нее есть CUDA, а канадцы только представили широкой общественности ее аналог. Означает ли это, что всем теперь надо мчаться сломя голову в магазин за «зелеными» карточками? Гляньте в окно, что это там за клубы пыли? Может, это я в магазин несусь?

Не, точно не я. Мне, например, интересны только ММО РПГ – как подсел на онлайновые ролевые, с компьютером играть не могу. Тоска. И зачем мне эта CUDA? А зачем она, например, любителю стратегий или тому, кто в основном в консольные порты играет? Так что хоть и перспективная технология CUDA, но пока далеко не всем нужна.

Все остальное, господа хорошие, годится только либо в качестве аргументов в споре о вкусах, либо не годится вообще. Ну, использует ATI прогрессивную память DDR5 и более тонкий техпроцесс, и что? Смотрим на производительность, тепловыделение, энергопотребление – и значительного профита не видим. Значительного – это такого, чтобы забыть про существование конкурента.

Ну, есть у NVIDIA более мощный бренд – и что, теперь если зеленую наклейку налепить на карточку, она шустрее заработает? И так далее, по всему тексту. Разумным подходом к выбору видеокарты остается прежний: определяемся с суммой, смотрим, что умеют карточки за эту цену, почем у каждой fps, надо ли менять кулер, можно ли гнать, если играем против компа в шутеры – вспоминаем про поддержку CUDA, и вперед. Чтобы славно потроллить на форумах, совершенно не нужно, чтобы у вас стояла какая-то определенная карта. Проверять-то никто не будет.

Как бы адекватно о мировом заговоре
Около года назад на ряде новостных сайтов проскочила информация о некоем коллективном иске против AMD / ATI и NVIDIA (пруфлинк на новости гуглим с ключом «ATI NVIDIA сговор» (без кавычек), на страницах переводных новостей смотрим ссылки на первоисточники). Если верить обвинению, компании примерно с 2003 года согласовывают и цены на аналогичную продукцию, и сроки релиза чипов / видеоакселераторов.

Для наглядности приведены диаграммы в стиле «до «Гербалайфа» и «после «Гербалайфа». Красочные столбики сообщают, что до предполагаемого заключения сделки разброс в цене на сходные модели составлял до $250, после – резко усох до нуля, а сроки релизов изначально имели расхождение от полугода до года, а затем сократились самое большее до трех месяцев.

Сообщалось, что к делу было приобщено некое электронное письмо (в виде «нотариально заверенного скриншота», надо полагать), из которого следовало, что обсуждение и совместное утверждение ценников происходили регулярно. Целью этих соглашений было, естественно, уклонение от честной капиталистической конкуренции и поддержание достаточно высоких цен на продукцию. Больше всего умиляет исход тяжбы: компании своей вины не признали, но согласились выплатить истцам $1,6 млн.

Комментировать эту историю не стану, незачем, просто добавлю еще немного информации. Оба производителя долго и плодотворно трудятся над самыми распространенными в играх API: они входят в состав группы разработчиков OpenGL, а также тесно сотрудничают с Microsoft в работе над DirectX. Опыт поиска компромиссов у американцев и канадцев богатый. А еще у них есть общий враг в лице Intel, который не любит не только AMD (а следовательно и ATI), но и NVIDIA и вынашивает собственные планы покорения мира. А воевать на два фронта, как нам всем известно, всегда тяжелее.

Никто не прокомментировал материал. Есть мысли?