13 лет назад 14 января 2008 в 17:12 502

Помимо GeForce 2, в общем-то, почти ничего. В своих различных воплощениях он покрывал все потребительские ниши: от копеечных Gee Force 2 MX100 для «печатных машинок» до дорогих и редких GeForce 2 Ultra. За альтернативой можно было обратиться разве что к ATI Radeon. В 2001 году появился GeForce 3 и поначалу с трудом вписывался в сложившуюся картину. Действительно, свежий и достаточно дорогой чип на момент выхода не предлагал ничего нового в отношении скорости и даже уступал бывшему лидеру GeForce 2 Ultra, ибо при такой же конфигурации текстурных модулей – четыре конвейера с двумя модулями на каждом – работал на частоте на 50 МГц ниже. Все его преимущества были рассчитаны на будущее.

Самое главное из них заключалось в том, что GeForce 3 наконец-то обзавелся программируемыми пиксельными и вершинными шейдерами. К этому времени как раз подоспела свежая восьмая версия DirectX. Конечно же, в скорости работы шейдеров третий «джифорс» не мог поспорить с современными картами, но имеющиеся четыре блока пиксельных шейдеров и один – вершинных позволяли наконец-то запускать тест Nature из 3DMark 2001 и давали надежду увидеть такие же красоты в играх. Увы, ждать пришлось долго: шейдеры появились в массовых приложениях уже после официального ухода GeForce 3 на покой. Зато можно было увидеть эффект от восьмисэмпловой анизотропной фильтрации – текстуры на наклонных поверхностях наконец-то сделались четкими, пусть и ценой серьезного падения производительности (поправив реестр, можно было использовать до 64 сэмплов – с еще большей потерей скорости). Антиалиасинг тоже стал более доступен: жадный до ресурсов GPU суперсэмплинг сменился более легким методом мультисэмплинга, и только в этом режиме Gee Force 3 обходил своего предшественника, хотя еще нескоро антиалиасинг стало возможным использовать в современных играх с приличным разрешением. Кроме того, NVIDIA наконец запустила свою технологию сбережения филлрейта и пропускной полосы памяти, подобно Hyper-Z у Radeon предотвращавшую рендеринг невидимых пикселей и сжимавшую Z-буфер, –  LMA (Lightspeed Memory Architecture).

Всю свою коммерческую жизнь Gee Force 3 оставался выбором обеспеченных пользователей и никогда не покидал ниши high-end. Выпущенная со временем версия GeForce 3 Titanium 500 стала еще дороже благодаря разогнанному чипу и более быстрой памяти: частоты теперь достигли 240 и 500 МГц и примерно сравнялись с GeForce 2 Ultra. И даже удешевленные карты GeForce 3 Titanium 200, на которые, по слухам, шли чипы, отбракованные от Ti 500, не опускались по цене и производительности ниже верхнего middle-end. Эти же карты, единственные из всего семейства, оснащались 128 Мбайт памяти, но практика показала, что чип не извлекал никакой выгоды из дополнительного объема.

В то же время крепнувшей монополии NVIDIA на производительные видеокарты неожиданно настал конец. Удар пришел со стороны ATI, до той поры находившейся среди производителей, лишь более или менее успешно догонявших флагмана индустрии. После вполне успешного Radeon 256 канадская компания выпустила чип, по возможностям и производительности способный тягаться с Gee Force 3, – Radeon 8500. Его отличия от предшественника были значительны и начинались с конфигурации текстурных модулей: странная схема 2х3 ушла в прошлое и сменилась стандартной для видеокарт NVIDIA 4х2 – четыре конвейера с двумя текстурными модулями на каждом. 

При этом, несмотря на то что конвейеры потеряли по одному текстурному модулю, два оставшихся могли за раз адресовать до трех текстур и накладывать их последовательно за один проход обработки геометрии. Без этой возможности чипу для наложения шести текстур на пиксель пришлось бы три раза подряд строить всю сцену от начала до конца и терять fps. 
Вслед за GeForce 3 Radeon 8500 приобрел функциональность DirectX 8, и даже в большем объеме. Движок T&L, названный Charisma Engine II, содержал два модуля вершинных шейдеров – на один больше, чем у GeForce. Модулей пиксельных шейдеров под общим названии ем Pixel Tapestry II было не больше, чем у конкурента, – четыре штуки, зато все поддерживали пиксельные шейдеры версии 1.4 – пока это не играло большой роли, но вскоре, в играх эпохи шейдеров 2.0, оказалось весьма кстати. Помимо всего этого Radeon 8500 обладал самой продвинутой в своем времени технологией сбережения пропускной полосы памяти Hyper-Z II, поддержкой двух раздельных дисплеев и мощными возможностями декодирования видео.

От Radeon 256 достался и хорошо прогрессировал оригинальный алгоритм анизотропной фильтрации RIP-mapping. В то время, когда честная «анизотропка» на GeForce 3 съедала немалое количество fps, RIP-mapping был более хитрым и дешевым вариантом, хотя и имел свои недостатки качества и к тому же работал лишь совместно с билинейной фильтрацией. Качество его широко обсуждалось в обзорах карт. Еще одним предметом дискуссий стала технология TruForm – с ее помощью чип на ходу наращивал количество полигонов в моделях, доводя их до совершенно гладкого состояния без чрезмерной потери скорости. ATI активно пиарила эту фишку Radeon 8500, которая на самом деле давала впечатляющий результат. Трудность для разработчиков заключалась в том, что для нормального функционирования TruForm модели нужно было создавать специально с расчетом на нее, иначе получались печально знаменитые «надувные стволы». Так как ATI была отнюдь не монополистом на рынке, большинство компаний предпочли не морочиться с TruForm.

Первые тесты Radeon 8500 в сравнении с GeForce 3 по меньшей мере разочаровывали – сырые драйверы испортили дебют. Хуже того, в них вскоре вскрылись оптимизации под Quake 3, за счет которых, жертвуя качеством, Radeon 8500 держал более-менее приличный уровень fps, и ATI оказалась опозорена. Со временем софт пришел в норму, и карте удалось сравняться не только с GeForce 3, но и с GeForce 3 Ti 500, который NVIDIA выпустила в качестве ответного хода, при том, что Radeon 8500 был ощутимо дешевле. Да, кстати, бонус получили и отдельные карты с 128 Мбайт памяти – она использовалась в режиме чередования банков.
Для соревнования с GeForce 3 Ti 200 от Radeon 8500 отпочковался урезанный по частотам Radeon 8500 LE, а со временем – целый выводок чипов, легших в основу младших карт Radeon девятитысячной серии. Вверх Radeon 8500 не пошел, а для того, чтобы закрыть нижние ценовые ниши, ATI обновила старый чип R100, использовавшийся в Radeon 256: более тонкий техпроцесс позволил поднять частоты со 166 до 290 МГц у чипа, а у памяти – до 460 МГц и успешно противостоять многочисленным производным GeForce 2 GTS.

В качестве настоящего ответа на атаку ATI NVIDIA выставила серию GeForce 4 Titanium – тот же GeForce 3, разогнанный настолько, чтобы поставить на место Radeon 8500. Структурные отличия ограничились более эффективным контроллером памяти, дополнительным блоком вершинных шейдеров, усовершенствованным антиалиасингом и поддержкой двух дисплеев. Остальное сделали новый техпроцесс и возросшие частоты. Старшая модель Ti 4600 достигла 300 и 650 МГц по чипу и памяти. Карта Ti 4400 ограничилась более скромными 275 и 550 МГц. Еще более простой Ti 4200 рее шили до поры придержать, пока склады не очистятся от GeForce 3. В результате его место заняли карты Radeon 8500 и LE. Когда же нижний GeForce 4 Ti наконец появился в продаже, то получил не только более простую печатную плату и частоту ядра в 250 МГц, но и память с частотой 444 МГц для 1288мегабайтных версий. Картам с вдвое меньшим объемом досталась более приличествующая 5000мегагерцевая память. Несмотря на это, а также и благодаря тому, что производители частенько игнорировали рекомендации NVIDIA и ставили такую память, какую хотели, Ti 4200 начал раскупаться великолепно и совершенно вытеснил своего старшего брата Ti 4400 – жаждавшие максимума fps покупали сразу Ti 4600. Вскоре все семейство GeForce 4 Ti переехало на APG 8x и получило новые названия, Ti 4200 при этом приобрело прибавку в 13 МГц по памяти.

Серия GeForce 4 MX

Как видно, о серии GeForce 4 можно сказать немного. Бюджетная линейка GeForce 4 MX более интересна. Несмотря на заманчивое для несведущих покупателей название, эти карты были в гораздо большей степени MX, чем GeForce 4. Их прототипом был старый добрый GeForce 2 MX. Единственное, что изменилось, – это техпроцесс и частоты. Плюс от полноценных GeForce 4 достался улучшенный контроллер памяти и технология, сберегающая ее пропускную полосу и филлрейт, – LMA. Благодаря всему этому даже средняя модель – MX 440 – с частотами чипа и памяти 270 и 400 МГц побеждала более мощный, но менее эффективный GeForce 2 Ultra, при том, что стоила лишь на 30% больше, чем GeForce 2 MX. Как и последний, GeForce 4 MX стал популярен в сфере OEM и оказался новым лидером продаж.  Не разбиравшиеся в железе или экономные покупатели тоже охотно покупали эти карты, хотя энтузиасты презрительно воротили носы. Сам Джон Кармак, наблюдая их успех, отговаривал людей от покупки, боясь, что это задержит развитие новых игр, использующих возможности DirectX 8. Однако все обошлось, и в конце концов GeForce 4 MX стала единственной картой без поддержки шейдеров, попавшей в список совместимости с Doom 3. И, как ни странно, MX снова оказался впереди полноценных чипов по части мультимедиа: в этой серии дебютировал движок VPE (Video Processing Engine), не худший, чем у Radeon.

Кроме 4400й модели GeForce 4 MX существовал еще в двух вариантах – MX 420 и MX 460. Первый комплектовался памятью SDRAM с частотой 166 МГц и лишь едва обходил GeForce 2 MX 400 – для «печатных  машинок», в которые он ставился, это не было проблемой. Сложнее пришлось MX 460. Благодаря увеличенной частоте и быстрой памяти это была совсем не медленная карта, но при цене, приближавшейся к младшим картам с поддержкой DirectX 8, успеха она не снискала. Остальные же получили неожиданно долгую жизнь и даже успешно перешли на PCI-E.

NVIDIA полностью обновила свой модельный ряд и наступала по всему фронту, в то время как ATI обладала лишь парой современных моделей, уже опустившихся в средний ценовой диапазон. Вполне естественно было бы запустить апгрейд Radeon 8500. Разгон этих карт в домашних условиях показывал, что порох в пороховницах еще есть: стоило немного поднять напряжения, обеспечить адекватное охлаждение и повысить частоты до 300 МГц, и получался эквивалент запланированного к выходу Radeon 8500XT. Тем не менее, быть может памятуя о судьбе 3dfx, ATI не решилась выпустить его на рынок и вместо этого вложила все силы в разработку чипа нового поколения. История показала правильность этого решения, т. к. с ним ATI впервые покинула позицию догоняющее го и вырвалась далеко вперед NVIDIA. Более того, скачок в эволюции GPU, который ознаменовал собой новый чип R300, сопоставим с такими прорывами, как выход GeForce 256.

R300 отличался от своего предшественника практически во всем. Новый дизайн позволил при старом техпроцессе в 0,15 мкм удвоить число транзисторов и одновременно установить частоту дебютной модели Radeon 9700 Pro на 325 МГц. Между прочим, покорить эту планку помогла корпусировка чипа FCPGA – голый кристалл способствует лучшему охлаждению, но до той поры на видеокартах он не использовался.
Сама архитектура чипа сохранила лучшие черты  R200, но в остальном отличалась радикально. Изменилась компоновка текстурных модулей: те же восемь штук распределились на восемь текстурных конвейеров. Развитые возможности мультитекстурирования при этом не пострадали: каждый модуль теперь мог последовательно накладывать на пиксель до шестнадцати любых текстур за один проход геометрии. Вместе с шейдерами модели 2.0 это позволило чипу полностью вписаться в спецификации DirectX 9.0, причем сделать это первым в истории. Сам шейдерный блок R300 ощутимо прибавил в мощности – число модулей пиксельных и вершинных шейдеров удвоилось до восьми и четырех штук соответственно.

Между прочим, до всей полноты реализации библиотеки DirectX 9.0 новый Radeon все же не дотянул: стандарт предполагал 1288битную точность при расчете шейдеров, а ATI ограничилась 96 битами. Этот минимум, который допустила Microsoft, был наиболее рационален при текущем техпроцессе, причем разница в качестве на глаз не обнаруживалась. Включить полную точность вычислений ATI еще долго не считала нужным.
В нагрузку ко всем нововведениям R300 получил новую 256-битную шину памяти. Вместе с расширением полосы снизилась и латентность: нагрузка на шину распределялась между четырьмя независимыми 64-битными контроллерами. Дополнительную эффективность придавала технология Hyper-Z в своей третьей редакции.


Radeon 9700 наконец сделал по-настоящему популярным антиалиасинг. Суперсэмплинг на старых «Радеонах» сменился быстрым мультисэмплингом, к тому же более качественным, чем у NVIDIA. В этом режиме R300 потрясал: сглаживание наконец-то стало можно использовать в современных играх с приемлемой скоростью, а топовая карта из лагеря NVIDIA – GeForce 4 Ti 4600 – была побита на 40-100% fps. Технология анизотропной фильтрации была в очередной раз проапгрейжена – прибавила в качестве и стала совместима с трилинейной фильтрацией.

На славу постарались и программисты ATI. Памятуя о дебюте Radeon 8500, испорченном кривыми драйверами, они сопроводили новинку идеально вылизанным софтом. Благодаря ему R300 сходу показал превосходство над главным конкурентом в 15-20% даже в самых легких режимах, которое быстро превращалось в полутора-двукратное преимущество, стоило включить анизотропную фильтрацию с антиалиасингом. Radeon 9700 и его потомки котировались как карты, подходящие для современных игр, еще нее сколько лет, да и сегодня худо-бедно годны к использованию.

Вскоре после своего триумфального релиза Radeon 9700 обзавелся младшим братом под названием Radeon 9500. Его вариант с приставкой «Pro» знаменит тем, что легким взмахом паяльника превращался в 9700 «не Про». Ассортимент его аналогов потом неоднократно менялся, а о развитии верхушки линейки мы еще расскажем ниже. В отличие от прошлых времен, ATI клепала эти карты уже не одна – тягаться в одиночку с объединенными мощностями всех производителей, работавших на NVIDIA, было никак нельзя. Камни для Radeon 8500 уже частично отдавались сторонним компаниям, но только вместе с новой линейкой такая стратегия стала основной и позволила ATI неуклонно завладевать рынком, пока NVIDIA медленно готовила реванш.

Ответный проект был частично основан на наследии 3dfx, и, по иронии судьбы, идеи, обещавшие воплотиться в Rampage, снова забуксовали на пути к реализации. Первым препятствием стали карты GeForce 4, забравшие основное внимание NVIDIA, – нужно было срочно отбить нападки ATI. А все остальные ресурсы пошли на совместный проект NVIDIA с Microsoft – приставку Xbox. Кроме того, однажды партнеры поссорились из-за оплаты производства: при снизившейся себестоимости NVIDIA требовала за графический чип для консоли все те же деньги, которые Microsoft могла бы сэкономить. Конфликт со  временем разрешился, но привел к тому, что обиженный гигант при разработке спецификаций нового API DirectX 9 не проводил консультаций с NVIDIA, в то время как Radeon 9700 был спроектирован в соответствии с ними. Даже шейдерный компилятор был создан Microsoft с расчетом на эту карту.

Серия GeForce FX 5ххх


Первой картой на NV30 стал незабвенный медный бутерброд GeForce FX 5800 Ultra, впервые явивший миру двухэтажную систему охлаждения (стоит отметить, что позже партнеры компании NVIDIA стали выпускать эти видеокарты и с однослотовым охлаждением) и память GDDR2. 

Чип вместе с памятью вкалывали изо всех сил на частоте в 500 МГц, но узкая 1288битная шина и все вышеописанные недостатки позволили обходить соперника из стана ATI только в сценах, бедных шейдерами. Благо у него были те же самые восемь текстурных блоков и значительно большие частоты. Вслед за монстром выступили более успешный в своем секторе GeForce FX 5600 и бюджетный GeForce FX 5200 (каждый в двух ипостасях с разными частотами), который, несмотря на поддержку шейдеров, оказался хуже древних GeForce 4 MX и со временем обратно уступил бюджетную нишу их обновленным модификациям. От этих же долгожителей всей линейке досталось еще одно незначительное нововведение – улучшенный видеодвижок VPE. Впоследствии NVIDIA провела серьезную работу над ошибками: все новые хай-эндные GeForce FX отказались от  GDDR2 и страшной системы охлаждения, приобрели 256-битную шину памяти, дополнительный блок вершинных шейдеров, новые драйверы, и выбор между NVIDIA и ATI стал уже не таким однозначным. Последняя к тому времени, разумеется, тоже не сидела на месте и выложила на прилавки различные варианты сверхпопулярного Radeon 9800. Что характерно, канадцы при этом обладали ощутимо меньшими частотами и размерами систем охлаждения.

Разлад с дядей Биллом обошелся NVIDIA неправильной оценкой особенностей нового API. Несмотря на то же количество модулей, что и у R300, шейдерный блок нового чипа NV30 оказался значительно слабее, чем было нужно, и, кроме того, имел совершенно нерациональные режимы работы. ATI выбрала золотую середину между качеством и скоростью шейдеров: R300 работал с 94-битной точностью, что было ощутимо быстрее 1288битного режима и почти не менее качественно. В отличие от него, NV30 был вынужден либо считать все в 128 битах, либо пользоваться 64-битным режимом ценой вполне ощутимого падения качества. Мало того, что такой режим не попадал в строгие рамки спецификаций DirectX 9, так еще и требовал от программистов дополнительных усилий по оптимизации кода. В будущем большинство разработчиков посчитали, что дело того не стоит, обрекая карты с NV30 на непосильную работу в «полной точности». С Radeon 9700 ему, разумеется, невозможно было тягаться на равных. Отставание временами было просто чудовищным: до 120% в первой демке Half-Life 2.

NVIDIA из кожи вон лезла, чтобы хоть как-то компенсировать такой позор. На счастье, NV30 оказался весьма отзывчивым на оптимизацию шейдерного кода, и его создатели пользовались этим вовсю: наставляли на путь истинный разработчиков игр, вылизывали драйверы и даже создали совместно с Microsoft спецификацию Shader Model 2.a. Больше всего помог делу специальный софт в драйверах, перекомпилировавший шейдерный код в более удобный для GPU. Всего этого, увы, оказалось недостаточно, и NVIDIA пошла на отчаянные меры. В драйверах тайно снижалось качество фильтрации текстур, и даже создавались облегченные шейдерные программы для использования в популярном софте вместо родного кода. Вообще, «твики» в играх – обычное дело для повышения скорости и устранения багов, но NVIDIA дошла до крайности, применяя такие «допинги» в 3DMark 2003, что чип пропускал целые части тестовых сцен. Futuremark только и успевала прикрывать очередные «оптимизации». Еще одним невиданным ранее явлением в софтовой войне стала демка Dawn: впервые видеокарту рекламировали столь обворожительные создания, как знаменитая компьютерная феечка с незабываемыми формами. Ни русалки, ни пузатые мужики, которых NVIDIA привлекала к пиару позже, не шли с ней в сравнение, в особенности из-за того, что похотливые компьютерщики быстро нашли заранее предусмотренный способ ее раздеть.

Впервые после краха 3dfx NVIDIA оказалась в догоняющих, и догоняла не слишком успешно, в то время как ATI относительно небольшими усилиями поддерживала статус технологического лидера. Тем не менее и та и другая компании примерно в одно и то же время вышли на новый виток прогресса. Это был значительный шаг: отрыв новинок от предшественников был велик как никогда. Последний раз такой скачок производительности произошел в пору первого Gee Force, если не Voodoo 2.

NVIDIA удалось незначительно опередить конкурента с релизом карты под названием GeForce 6800 Ultra. Вместе с несчастливыми буквами FX в названии бренда чип NV40 избавился от всех досадных недостатков предшественника. Шейдерные блоки GeForce FX были переработаны, а число их возросло в нее сколько раз, поднимая скорость обсчета шейдеров на ранее недосягаемую высоту: пиксельных блоков стало шестнадцать, а вершинных – шесть. Филлрейт чипа тоже радикально увеличился, т. к. текстурных модулей стало больше в два раза. 256-битной шины памяти чипу пока хватало, как и объема в 256 Мбайт, но тип памяти сменили на недавно появившийся GDDR3, гораздо более удачный, чем так и не ставший популярным стандарт GDDR2. В функциональном отношении шестая серия GeForce принесла с собой набор весьма полезных новшеств. Пиксельные и вершинные шейдеры развились до версии 3.0 и еще больше похорошели. Появился создавший в играх немало красот HDR и такая перспективная, но до сих пор нераспространенная технология, как карты смещения. Алгоритм анизотропной фильтрации чипа сменился на более быстрый и оптимизированный. Придирчивое изучение скриншотов позволило заключить, что качество его работы упало, но поддержка рее жимов вплоть до 16x не давала никаких поводов для недовольства картинкой в реальных задачах. В очередной раз продвинулись вперед возможности декодирования видео. 

Такая масштабная и успешная работа над ошибками позволила оставить неудачный GeForce FX далеко позади: флагман новой серии опережал в бенчмарках флагман бывшего лидера – GeForce FX 5950 Ultra – больше чем в два раза. Скромнее себя показали вскоре появившиеся GeForce 6800 GT и «просто» GeForce 6800. Первый представлял собой версию топовой карты с уменьшенными частотами GPU и памяти – с 400 и 1100 МГц до 350 и 1000 МГц – и упрощенной системой питания: 6800 Ultra первым среди видеочипов потребовал использования двух разъемов питания, GT обошелся одним. Младшая разновидность 6800 понесла куда большие потери: от всех вычислительных блоков чипа остались лишь пять вершинных шейдеров, двенадцать пиксельных и двенадцать текстурных модулей. Частота работы снизилась еще сильнее – до 325 МГц, а память заменили на GDDR1 c частотой 700 МГц. Получившийся продукт уже значительно уступал двум своим старшим братьям, хотя для энтузиастов оставалась надежда на возвращение отключенных блоков в строй путем программных манипуляций. Удавалось не всем, т. к. на эти карты частично шли отбракованные камни с «битыми» блоками. Тем не менее даже младшая версия GeForce 6800 держалась молодцом по сравнению с картами предыдущего поколения.
Выход шестой серии совпал с моментом миграции видеокарт на разъем PCIE. Чип NV40 изначально умел работать лишь с AGP, но со временем переходный мост подружил его с новым интерфейсом. Что характерно, чип был связан с ним шиной AGP, тактованной на частоте 12x или даже 16x. PCIE в то время не давал никакого преимущества в скорости этим картам, которым хватало даже AGP 4x в большинстве игр, зато позволил вернуть из прошлого сочетание в одной системе двух видеокарт, так успешно использовавшееся 3dfx. Даже название осталось прежним – SLI, хотя приобрело новый смысл: Scalable Link Interface. Технология поначалу показывала отнюдь не двойное увеличение fps и была чисто имиджевой штукой. Теперь она сильно повзрослела, хотя, по сути, все еще остается имиджевой.

В качестве заполнения бюджетного сектора NVIDIA выпустила серию GeForce 6600. Чип NV43, лежавший в ее основе, представлял собой уполовиненный NV40: количество всех вычислии тельных блоков физически уменьшилось в два раза, как и шина памяти. Однако хорошей компенсацией стала частота работы: новый техпроцесс 0,11 мкм позволил поднять ее до 500 МГц. Основная версия карты – GeForce 6600 GT – оснащалась памятью GDDR3 с частотой 1000 МГц. По производительности она не сильно уступала младшей GeForce 6800 в легких режимах без антиалиасинн га. Кроме нее чип использовался во множестве разных конфигураций с разными частотами и типами памяти. Наконец, существовала бюджетная серия GeForce 6200: количество блоков снова уменьшилось в два раза, исключая вершинные шейдеры, которых осталось три, упали частоты чипа и памяти, исчезла возможность SLI.

В то время как GeForce 6800 продвинулся вперед не только в производительности, но и функционально, представив поддержку Shader Model 3.0, ATI пошла по простому, экстенсивному пути. Хотя чип R400, полностью совместимый с нововведениями DirectX 9.0c, уже давно был в разработке, создатели усомнились в том, что его поддержка стоит потенциальных сложностей в производстве. Поэтому R400 был отменен, и его место в планах на выпуск занял более простой камень R420. Этот чип, по сути, был производным заслуженного R300. Шейдерные возможности изменились лишь слегка, перейдя к модели 2.0b. Совместимость с DirectX, таким образом, ограничилась версией 9.0b. Другое значимое изменение коснулось сглаживания – появился оригинальный режим Temporal Anti-aliasing, работающий, однако, только при фреймрейте, превышающем 60 fps.

Все остальное в чипе R420 было так же, как в R300, только больше: число текстурных модулей и блоков пиксельных шейдеров удвоилось, блоков вершинных шейдеров стало шесть. Контроллер памяти вместе со своими технологиями сбережения пропускной полосы перекочевал в новый кристалл без существенных изменений, лишь приобрел поддержку GDDR3, которая у флагманской карты Radeon X800 XT PE работала на 1160 МГц. Сам чип пахал на частоте 520 МГц. Удешевленные производные этой модели довольствовались более низкими частотами, а еще более простые карты, начиная с X800 Pro, ко всему прочему имели четыре отключенных текстурных модуля, которые иногда удавалось вернуть к работе.

Нелегко однозначно сказать, чип какой фирмы был быстрее. Как уже не раз бывало, каждый из конкурентов рулил в комфортной для него области. Карты ATI побеждали своих аналогов из ассортимента NVIDIA в приложениях под Direct3D. «Джифорсы» держали победу в OpenGL, временами сокрушительную для противника. Свое превосходство ATI смогла утвердить лишь с помощью чипа R480. Инженерные хитрости позволили ему прибавить еще пару десятков мегагерц частоты. Топовая карта на его основе – Radeon X850 XT PE – дошла до частот 540 и 1180 МГц по чипу и памяти. Впрочем, и на нее находилась управа в виде специальных разогнанных версий GeForce 6800 Ultra.

Нижние ценовые ниши ATI заполнила сериями X300 и X600, представлявшими собой не что иное, как карты Radeon 9600 с интерфейсом PCIE. Середину между ними и старшей серией заняла линейка X700. Шина памяти и все блоки, кроме вершинных шейдеров, у ее чипов были уполовинены по сравнению с R420, меньше были и частоты. 

На этом наш рассказ кончается. Про карты, вышедшие после, писать уже нет смысла – достоянием истории они станут еще нескоро, и постоянные читатели UPgrade наверняка сами о них все знают и могут рассказать.

Никто не прокомментировал материал. Есть мысли?