UPgrade - сообщество людей, которые стремятся понимать мир правильно.

Присоединяйся и следи за нами ...

/ Рейтинг: 2k / 18 Марта 2017 Как это было / В журнале

Ныне уже не существующие как самостоятельные бизнес-единицы компании ATI и NVIDIA во многом сформировали IT-рынок, сделали его таким, каким мы его знаем. И про то, как это происходило написан вот такой текст.

Первой из героинь сегодняшней статьи на старт ушла ATI.

Дело было так. Жили-были в городке Маркхэм канадской провинции Онтарио три китайца (Квок Йен Хо, Ли Лау и Бенни Лау) и однажды летом далекого 1985 года решили они какую-нибудь IT-фирму основать. Денег поначалу было относительно мало - всего 300 тысяч долларов, поэтому выбор их пал на малозатратную тогда графическую отрасль. В наши дни подобный начальный капитал для организации, занимающейся высокотехнологичными разработками смотрелся бы как минимум очень странно, но в те дремучие времена такая сумма не считалась чем-то из ряда вон выходящим, ведь никаких меганаворотов в компьютерной графике не было, главное, чтоб машина работала, а уж что там под крышкой корпуса картинку обрабатывает, дело десятое - все равно показывать особо нечего.

Ну так вот. Новообразованная компания получила имя Array Technology Industry (отсюда и аббревиатура), в том же году превращенное сначала в Array Technologies Incorporated, а потом и в ATI Technologies Incorporated. Директором стал выходец из Гонконга (Сянгана), инженер по образованию Квок Йен Хо. Во многом именно благодаря его успешному руководству ATI сумела стать одним из ведущих разработчиков полупроводниковой продукции в мире.

Уставный фонд, большая часть которого была потрачена на раскручивание бренда, иссяк за четыре месяца. От голодной смерти спасли молодую фирму два кредита. Вместе с деньгами к канадцам пришел и первый крупный успех: в 1985 году удалось заключить договор о поставке видеочипов с небезызвестной Commodore. Эта сделка принесла S10 млн в казну компании за один год, а также добавила известности АTI. Кстати, первоначально штат фирмы насчитывал всего шесть (!) человек

В 1991 году канадцы явили миру семейство GPU под кодовым названием Mach. Первый его представитель носил гордое имя Mach 8. В 1992 году был выпущен Mach 32, а еще через два года был создан первый 64-битный видеопроцессор Mach 64 (этот меганавороченный монстр с 4 Мбайт памяти VRAM стоил около $400) Но по производственным причинам он появился на рынке позднее установленного срока, что привело к потере значительной части запланированных доходов и падению цены акций ATI на 30%. Модернизированная версия этого чипа позднее была положена в основу первого продукта ATI с поддержкой трехмерной графики - 3D Rage.

В середине 90-х начали появляться первые 30-игры, что ознаменовало собой наступление новой эпохи в видеосегменте IT-индустрии - эры третьего измерения. Старожилам отрасли пришлось поменять приоритеты при разработке новых GPU, ведь одной лишь 20-графики пользователю стало мало, а тут еще и конкуренция ужесточилась с появлением новых претендентов на звание короля рынка видеокарт - 3dfx и NVIDIA (в связи с тематикой нашей статьи биографию первого из них мы подробно рассматривать не будем, но зато по второму пройдемся хорошенько).

О роли китайцев в истории мира известно много интересного: они построили Великую китайскую стену, изобрели порох и чернила, дали миру Джекки Чана и Брюса Ли, плюс, как мы сегодня выяснили, именно они основали фирму АTI. Все? А вот и нет - в этом списке не хватает одной существенной детали. Предваряя ваши удивленные восклицания, поспешу вас успокоить: нет. Чак Норрис родом не из Поднебесной, но зато один из основателей NVIDIA и по совместительству бессменный президент и генеральный директор Чжен Суь Хуанг (он же Дженсен Хуанг) принадпежит именно к китайской диаспоре США. Правда, надо признать, что в нелегком деле закладки фундамента новой компании в 1993 году ему помогали более «привычные» для нас американцы - Кертис Прем и Крис Малаховски (хоть фамилия последнего и дает нам повод немного углубиться в изучение влияния славян на мировую историю. мы делать этого не будем, а обратим свой взор на саму корпорацию, абстрагировавшись от этнической принадлежности ее отцов-основателей - Прим автора).

Молодая NVIDIA попыталась сразу рвануть с места в карьер в 1995 году - черно-зеленые представили чип NV1, способный обрабатывать помимо двух- и трехмерного изображения еще и звук. Несмотря на то, что никто из конкурентов подобной функциональностью своей продукции похвастаться не мог, успеха калифорнийцам все эти нововведения не принесли. Во-первых, комбинирование стольких задач в одном видеоадаптере привело к его неоправданному удорожанию и не лучшим образом сказалось на его потребительских характеристиках, а, во-вторых, в качество полигона, на основе которого следует строить изображение, первенец NVIDIA использовал не треугольник, успешно применяемый в этой области и по сей день, а четырехугольник, что вызывало определенные проблемы с совместимостью. Слишком много оказалось нововведений для отдельно взятого продукта, не была еще тогда готова технологическая база для обьединения стольких функциональных блоков в одной видеокарте: как показала дальнейшая история, пальма первенства перешла к 3dfx именно благодаря ее дискретным трехмерным ускорителям.

С развитием технологий обработки видео нелишним бонусом для графических адаптеров стала аппаратная поддержка декодирования MPEG-2, что в 1996 году нашло отражение в анонсированной канадцами серии All-m-Wonder, представители которой отличались от своих сородичей наличием встроенного ТВ-тюнера и упомянутого выше декодера. Пожалуй, появление этого семейства, в определенном смысле стало следствием традиционно сильных позиций видеокарт ATI в области качества изображения.

После неудачи со своим первенцем NVIDIA отказалась от архитектуры NV1 и, не мудрствуя лукаво, сделала ставку на работу с универсальными API - DirectX от Microsoft и OpenGL от SGI. По тому же пути пошла и ATI, в то время как королева трехмерной графики того времени 3dfx продвигала свой API. На первых порах из-за низкого качества "директрисы", а также из-за полной гегемонии трехмерных акселераторов с шаманским названием Voodoo у 3dfx было преимущество, но затем фирме Билла Гейтса вместе с остальными производителями видеоадаптеров удалось выправить ситуацию в свою пользу. Думаю, не стоит объяснять что, опираясь на "мелкомягких", в те времена проиграть было практически невозможно.

Первым продуктом NVIDIA, предназначенным для работы с DirectX (пятой версии) стал выпущенный в 1997 году видеоадаптер RIVA 128 на базе чипа NV3. Аббревиатура RIVA, которая стала родной для всего модельного ряда калифорнийцев на последующие два года, расшифровывается как Realtime Interactive Video and Animation.

Чтобы подтвердить правомерность получения такого многообещающего названия делом видеочип, выпускавшийся по 350-нанометровому техпроцессу, получил в свое распоряжение один пиксельный конвейер, один текстурный блок и 128-битную шину плюс 4 Мбайта памяти SGRAM RAMDAC с тактовой частотой 250 МГц и поддержку прогрессивного на тот момент графического порта AGP 2х. Но проблемы с драйверами не позволили RIVA 128 достичь рыночного успеха и даже довольно перспективная аппаратная часть оказалась бессильна против программных неурядиц.

Ну а к началу 1998 года ATI заняла бопее тридцати процентов рынка, впервые опередив по популярности своей продукции всех конкурентов, главным из которых была S3, чьи разработки для бюджетного ценового сегмента имели немало поклонников. И в том же году заслуги президента ATI были отмечены наградой: господина Хо признали лучшим предпринимателем Канады.

A NVIDIA тем временем выпустила второй продукт серии RIVA - RIVA TNT на основе процессора NV4. По характеристикам (техпроцесс 350 нм., два пиксельных конвейера, два текстурных блока, 16 Мбайт видеопамяти, 128-битная шина, 250 MГц RAMDAC, поддержка 32-битного цвета DirectX 6), он уделывал даже великий Voodoo 2, проигрывая тому лишь из-за закрытости широко распространенного API Gude для сторонних разрабо1чиков. Во многом именно появление этого процессора возвестило о грядущих переменах в видеоиндустрии, - ведь тогда лагерь DirectX и OpenGL приобрел весьма серьезную аппаратную основу, благодаря чему интерес игроделов к этим API начал повышаться. С появлением RIVA TNT доходы калифорнийцев резко пошли вверх, за 1998 год в их казну поступило $158.2 млн против прошлогоднего показателя $13.3 млн., при этом чистая прибыль увеличилась с $1 3 млн до $4,1 млн.

Ну, а что же творилось в стане АTI? Устаревший к тому времени Rage Pro постепенно сдавал свои рыночные позиции, держа марку лишь в мобильном секторе, в настольном же симпатии пользователей завоевали RIVA TNT и Voodoo 2. Противостоять американской экспансии был призвал процессор Rage 128 (техпроцесс 250 нм., 8 млн транзисторов, два пиксельных конвейера, два текстурных блока, 128-битная шина RAMDAC 250 МГц, поддержка до 32 Мбайт памяти SDR, AGP 2х, DirectX 6 0), но он был явно не готов к борьбе с конкурентами.

Казалось, с такими характеристиками нужно если не побеждать соперников, то хотя бы сражаться с ними на равных Но на деле все вышло иначе Особомные нарекания вызывали драйверы. да вдобавок из-за задержки с выводом данного поодукта на рынок ему пришлось противостоять уже картам NVIDIA RIVA TNT 2 на основе GPU NV5 (этот процессор был разогнан- ным 250-нанометровым перевоплощением NV4). на что он понятное депо, рассчитан не был, плюс ко всему и инженеры внесли посильный вклад в список недостатков новинки, криво реализовав в своем творении поддержку билинейной фильтрации и снабдив ее другими "бонусными" - глюками.

Следующий процессор ATI - Rage 128 Pro, при разработке которого была исправлена часть недостатков предшественника (но не бопее - это был обезглюченный и разогнанный Rage 128), по славной канадской традиции тоже опоздал, попав на GeForce 256 (NV10). В общем-то, в играх использующих бибпиотеки Direct3D, при 32-битной глубине цвета результаты у него были весьма неплохими, но программисты явно недоработали над оптимизацией поддержки популярного API OpenGL, из-за чего во многих приложениях производительность находилась на низком уровне.

А тем временем GeForce 256 начал свое победное шествие но планете - наметившаяся еще во времена RIVA TNT тенденция по отбору у 3dfx звания разработчика самых быстрых ЗD-ускорителеи после запуска нового бренда видеокарт NVIDIA приобрела неотвратимый для родительницы Voodoo характер. NV10 совместил в себе четыре пиксельных конвейера, столько же текстурных блоков, 128-битную шину памяти, RAMDAC с частотой 350 МГц и аппаратный T&L (transformation and Lighting). Все это богатство, в 2000 году получив шее в свое распоряжение до 64 Мбайт памяти DDR (первоначальные модификации работали не более чем с 32 Мбайт SDR), просто не имело себе равных и утвердило калифорнийскую компанию в статусе технологического лидера отрасли. Также на основе NV10 создавались первые версии карт серии профессиональных графических ускорителей Quadго. запущенные в производство осенью 1999 года.

Благодаря успеху GeForce финансовые показатели NVIDIA продолжили стремительно улучшаться: доход с прошлогодних S158.2 млн увеличился до $374.5 млн, а прибыль - с $4.1 млн до $41 млн., то есть в десять раз.

Понимая, что ее видеокарты стремительно теряют популярность, и в то же время осознавая, что чип, сгюсобный расправиться с мегаудачным GeForce 256, она выпустить не в состоянии, ATI решила взяться за разработку технологий, способных обьединять ресурсы двух видеопроцессоров. В пользу правильности такого пути говорил успех Voodoo 2 SLI от 3dfx. Технология разрабатываемая ATI под кодовым названием Aurora, но прожившая свою коммерческую жизнь под именем МАХХ, вылезла на рынок в конце 1999 года. Новым флагманом канадцев стала видеокарта Rage Fury МАХХ (два чипа Rage 128 Pro, 64 Мбайт памяти) Но ожидания, возложенные "красными" на новинку, не оправдались, хоть в тяжелых 32-битных режимах с высоким разрешением эта фурия и выносила большинство соперников в одну калитку, но под бопее легкими нагрузками становилась вовсе безобидной, ничем из серой массы не выделяясь.

В 2000 году состоялся дебют так популярной ныне серии Radeon. Но получился он, прямо скажем, не слишком удачным. Роль первого блина, который в полном соответствии с русской поговоркой вышел комом, досталась чипу R100 (180 нм, два пиксельных конвейера, шесть текстурных блоков, 128-битная шина, до 128 Мбайт памяти DDR, 350 МГц RAMDAC, аппаратный T&L, DirectX 7 0, AGP 4х). Именно на основе этого процессора создавались первые видеокарты с торговой маркой Radeon, уступившие GeForce 2 (NV15, 180 нм., четыре пиксельных конвейера, восемь текстурных блоков, 128-битная шина, до 64 (потенциально и до 128) Мбайт памяти DDR, 350 МГц RAMDAC, аппаратный T&L, DirectX 7.0, AGP 4х). Чип был неудачным и чисто характеристически, и по традиционным для ATI производственным причинам: опоздание и плохие драйверы. От полного коллапса маркхэмскую компанию спасли лишь бюджетные Radeon LE.

Но даже в низшем ценовом сегменте "жирафы" устроили порядочную головомойку "радикам" - ведь туда NVIDIA отправила одну из самых успешных своих карт GeForce 2 MX. Этот - изувеченный - практически по всем пунктам характеристик GeForce 2 GTS благодаря своей низкой цене был весьма популярен у экономных потребителей. На столь благоприятном фоне экономический рост NVIDIA продолжился, годовой доход увеличился с $374.5 млн до $735,3 млн, а прибыль - с $41 млн до $98.5 млн.

А еще этот год можно назвать годом крайне удачных покупок, причем как для стана ATI, так и для стана NVIDIA. Канадцы раскошелились на 400 миллионов долларов ради приобретения фирмы ArtX, в числе заслуг которой значится выпуск видеочипа Flipper для игровой консоли Nintendo GarneCube. Усовершенствованная версия Flipper под кодовым названием Hollywood через несколько лет стала основой для графической подсистемы еще одной игровой приставки Nintendo - Wii. Также выходцы из ArtX принимали деятельное участие в разработке будущей "бомбы" - R300. А вот NVIDIA "заглотила" рыбу покрупнее - саму 3dfx, причем ее наработки были реализованы в процессоре NV30, ставшем конкурентом R300.

Второй год третьего тысячелетия по праву можно считать переломным для ATI. Этот самый перелом состоялся благодаря видеокарте Radeon 8500 на чипе R200 (150 нм, 62 млн транзисторов, четыре пиксельных и два вершинных конвейера, восемь текстурных блоков, 128-битная шина, до 128 Мбайт памяти DDR RAMDAC 400 МГц, AGP 4х, DirectX 8.1). Впервые за долгое время "красные" потеснили «зеленых» в лице GeForce 3/NV20 (150 нм., 57 млн транзисторов, четыре пиксельных конвейера, восемь текстурных блоков, 128-битная шина, до 128 Мбайт видеопамяти DDR, 350 МГц RAMDAC, DirectX 8.0). Именно видеокарты этих двух семейств стали первыми 3D-ускорителями с поддержкой программируемых шейдеров.

Вместе с успехом у потребителей к канадцам пришло признание разработчиков игр (в частности, великая и ужасная вторая часть игры про знаменитого бородатого очкарика с монтировкой была заточена на работу именно с видеоадаптерами ATI). 

На "восьмитысячник" американцы позднее удачно ответили "титанической" серией GeForce 4 Ti, но стратегическую инициативу они уже упустили. Сам процессор NV25, на котором и основана линейка 4 Ti, характеризуется 150-нанометровым техпроцессом, наличием четырех пиксельных и двух вершинных конвейеров, восьми текстурных блоков, двух RAMDAC с частотой 350 МГц, 128-битной шиной памяти и поддержкой DirectX 8.1. Хоть ничего принципиально нового по сравнению с предшественником это графическое ядро не демонстрировало, но повышенные частоты позволили NV25 превзойти по уровню быстродействия R200.

Но даже успех R200 не смог помешать годовому доходу NVIDIA перешагнуть миллиардный рубеж - в 2001-м компания получила 1,37 млрд. долларов при чистой прибыли 176,9 млн. в той же самой валюте.

Казалось бы, NVIDIA без труда поставила непонятно откуда взявшуюся на вершине прогресса ATI на прежнее место, и теперь опять наступит долгая эпоха правления "зеленой" королевы. Но не тут-то было! R2C0 суждено было стать предвестником настоящей революции на рынке, в ходе которой канадская компания мигом вернула себе утраченные в конце 90-х позиции.

Жарким летом 2002 года были выпущены легендарный чип R30Q и семейство карт Radeon 9700 (техпроцесс 150 нм., 107 мпн. транзисторов, восемь пиксельных и четыре вершинных конвейера, восемь текстурных блоков, 256-битная шина, 128 Мбайт видеопамяти DDR2, AGP 8х DirectX 9.0) на его основе, ставшее новым абсолютным лидером по производительности. На R300 у NVIDIA, забуксовавшей при освоении новых технологических норм, достойного ответа вовремя не нашлось, и вышедшая только в начале следующего года серия FX на чипах NV3x не была готова противостоять сопернику. Ни FX 5800 (NV30), удививший всех 128-битной шиной памяти, ни более поздние FX 5900 / 5950 (NV35 / 38) с расширенной до 256 бит шиной так и не смогли превзойти шустрые Radeon 9700 и Radeon 9800 (R350 / R360) соответственно.

Практически сразу после появления продуктов на базе NV30 в продаже сам президент NVIDIA назвал этот чип неудачным, а следующий процессор NV35 был анонсирован примерно через месяц (!) после появления видеокарт семейства FX 5800 в продаже.

А у маркетологов ATI после успеха их компании похоже спегка снесло башню, и началась череда довольно странных переименований, связанная с появлением других модификаций Даже карты прошлого поколения были захвачены этим ужасным процессом - R200 переселился из Radeon 85С0 в Radeon 9100. А в случаях с разгоном дело вообще доходило до полного абсурда - в частности, Radeon 9200 с уменьшенными (!) частотами назвали Radeon 9250, причем сама модель 9200 была медленнее, чем 9100.

В 2004 году в модельном ряду ATI появились четырехсотые чипы и видеокарты с названием вида X’" на их основе. Первоначальный флагман - R420 / Radeon Х800 (техпроцесс 130 нм., 160 млн. транзисторов, 16 пиксельных и шесть вершинных конвейеров, 16 текстурных блоков, 256-битная шина, поддержка до 512 Мбайт памяти GDDR3, DirectX 9.0b, AGP 8х), позднее его сменила X85Q (R480 для AGP и R481 для PEG), отличающаяся от предшественника лишь немного повышенными частотами. Но и NVIDIA не дремала, подготовив весьма удачную линейку GeForce 6ххх главной ударной силой которой стала модель 6800 Ultra на базе чипа NV40, базовые характеристики которого по большей части совпали с таковыми у R420. Отличия заключались в том, что у чипа NVIDIA имелись 222 млн. транзисторов и поддержка DirectX 9.0с.

Обе эти серии получились весьма удачными, превзойдя по пронзводитепьности своих предшественников почти в два (!) раза. В борьбе графических гигантов победителя за тот период выявить крайне сложно, преимущество капифорнийцев лежало в технологической плоскости (поддержка шейдеров третьей версии и других ноу-хау), канадская же компания сделала ставку на повышенные тактовые частоты и пониженное энергопотребление. Также 2004 год знаменателен тем, что в июне первый генеральный директор ATI Квок Йен Хо покинул свои пост, и ему на смену пришел Дэвид Ортон.

Вместе со своими "шеститысячниками" NVIDIA представила и технологию SLI. Наверняка эта аббревиатуоа знакома многим по видеокартам Voodoo 2 SU но, в отличие от 3dtx, NVIDIA подразумевает под этими буквами не - Scan Line Interleaving a Scalable Link Interlace, так что в отсутствии фантазии и банальном "слизывании" людей, придумавших наименование для SLI от NVIDIA, упрекнуть нельзя. Ответ со стороны канадцев последовал на следующий год - схожая технология получила "крутое" название CrossFire (перекрестный огонь), которое позднее было переработано в еще более "крутое" CrossFire X. Куда там какому-то SLI (смайл)!

В 2005 году NVIDIA выпустила семейство видеокарт GeForce 7ххх на чипах G7x. Роль флагмана взял на себя GeForce 7800GTX.

Ответ со стороны "общества красных" последовал только осенью, защищать честь ATI в сегменте high-end были призваны процессор R520 (техпроцесс 90 нм, 321 млн. транзисторов, 16 пиксельных и восемь вершинных конвейеров, 16 текстурных блоков, 256-битная шина, Shader Model 3.0, поддержка до 1 Гбайт GDDR3) и соответствующая ему линейка Х1800. Со своей задачей архитектура справлялась довольно успешно - хоть уничтожить соперников и не получилось, но паритет был восстановлен.

В начале 2006 года состоялось новое сражение между ATI и NVIDIA, - в январе канадцы жахнули чипом R580 с увеличенным относительно R520 количеством транзисторов (384 млн) и пиксельных конвейеров (48), а также большими частотами. Позднее вышла слегка модернизированная версия R580 под названием R580+, обеспечивающая поддержку новомодной памяти GDDR4.

Контратаку "зеленые" осуществили весной, выпустив G71. Они фактически перевели G70 на 90-нанометровый техпроцесс, попутно уменьшив до 279 млн. количество транзисторов и подняв частоты. Кроме того, G71 стал первым GPU с поддержкой Quad SLI, - реализовать эту технологию на практике позволила возможность обьединения пары двухпроцессорных видеокарт GeForce 7950 GX2. После появления семейства GeForce 7900 (G71) в продаже, вырвавшийся до этого в явные лидеры Radeon XI900 (R580) был усмирен, и на рынке одночиповых продуктов (не забываем про GX2. который, как ему и положено, уделал всех) вновь воцарилось примерное равенство.

Выпуск видеопроцессоров этого поколения четко обрисовал настоящие на тот момент приоритеты AMD и NVIDIA. При разработке новых GPU канадцы делают ставку на голую вычислительную мощь своих продуктов, увеличивая количество конвейеров (а теперь уже универсальных шейдерных процессоров), калифорнийцы же больше внимания уделяют работе с текстурами, повышая число TMU.

Противостояние между станами ATI и NVIDIA распространилось и на консоли нового поколения, канадцы спроектировали чипы Xenos и упомянутый ниже Hollywood для Microsoil Xbox 360 и Nintendo Wii соответственно, а калифорнийцы разработали GPU RSX для Sony PlayStation 3. Если учитывать бешеную популярность детища, то следует, пожалуй, признать, что "красные" тогда более дальновидно подошли к налаживанию связей среди производителей приставок.

2006 год стал, пожалуй, важнейшим в истории ATI, -  закончилась эпоха ее суверенитета. Богатые американские дядьки из компании Advanced Micro Devices в июле того года взяли да и купили контрольный пакет акций канадской фирмы за $5.4 млрд. И осенью того же года ATI стала графическим подразделением своего нового владельца.

Серьезные перемены затронули не только деловую сферу существования маркхэмской компании, в плане принципов функционирования GPU также произошли значительные изменения: наступило время унифицированной шейдерной архитектуры видеочипов, главной особенностью которой является отсутствие разделения конвейеров на вершинные и пиксельные. Вслед за консолями PS3 и Xbox 360 чипами нового типа обзавелись и персональные компьютеры. Первопроходцем стал калифорниец G80 (90-нанометровый техпроцесс, 681 млн транзисторов, 128 шейдерных процессоров, 32 текстурных блока, 384-битная шина Shader Model 4.0, поддержка до 768 Мбайт памяти GDDR4). Появившиеся осенью 2006 года видеокарты серии GeForce 8800 на долгое время стали властителями самого дорогого и престижного ценового сегмента рынка графических ускорителей. До следующего лета у этой линейки не было даже номинальных конкурентов!

Пошатнуть позиции прочно обосновавшегося на Олимпе лидера были призваны GPU R600 и адаптер Radeon HD 2900 XT (80-нанометровый техпроцесс, 700 млн. транзисторов, 320 потоковых процессоров, 16 текстурных блоков, 512-битная шина, Shader Model 4 0, поддержка до 1 Гбайт памяти GDDR4). Но в связи с солидным опозданием и тем, что на номинальных частотах HD2900XT не мог тягаться с флагманами конкурента, новичку не суждено было стать знаковым явлением в индустрии. Против детища ATI сыграла некоторая несбалансированность характеристик, в частности слишком малое число блоков растеризации - 16 против 20 у G80 - и низкая частота шейдерного домена "красной"  карты.

В четвертом квартале 2007 года компания AMD начала выпуск 55-намометровых видеопроцессоров RV670, являющихся ответом на G92. Самую удачную разработку калифорнийцев за последние пять лет, по заявлениям их главы (интересно, что GPU этой фирмы по прогрессивности техпроцесса превзошли 65-нанометровые CPU). Но так получилось, что HD38XX (RV670) и 8800 GT / GTS (G92) попали в разные ценовые сегменты и, проигрывая по производительности, продукты ATI выигрывали по цене (версия 8800 GT с 256 Мбайт памяти из-за дефицита G92 в рознице появлялась в довольно небольших количествах). Сама новинка от AMD стала модифицированной версией R600, усовершенствовались технологические нормы, уменьшилось до "дьявольских" 666 млн. количество транзисторов, более чем в два раза сократилась площадь кристалла, снизилось энергопотребление, добавилась поддержка PCI Express 2 0 и DirectX 10, но шина памяти была сужена вдвое - до 256 бит. При этом был унаследован и отличный разгонный по!енциал предшественника, при помощи аппаратных модификаций удавалось разогнать карту HD3870 со штатных 775 до 1200 МГц. Отличия G92 от прародителя G80 примерно те же самые, разве что транзисторов стало не меньше, а больше - 754 млн., число блоков растеризации сократилось до 16, и не добавилась поддержка новых версий API.

Позволю себе небольшое лирическое отступление от темы. Если с конца 2007 года ATI заменила буквенные суффиксы в названиях видеокарт более наглядными цифровыми обозначениями, чем упростила ориентирование покупателя в модельном ряду компании, то в маркетологов NVIDIA словно бес вселился. Им. похоже, настолько понравилось название GeForce 8800 GTS, что эта модель видеокарты выпускалась на основе двух разных чипов (G80 и G92), с тремя вариантами количества шейдерных процессоров (96, 112 и 128) и тремя вариациями обьема видеопамяти (320, 512 и 640 Мбайт).

Но этого "аццким" маркетологам оказалось мало: они переименовали GeForce 8800 GS в 9600 GSO и до кучи, чтоб покупателю жизнь медом не казалась, для GeForce 9300 придумали новый суффикс - GE. Мне, как человеку, после выхода серии Radeon HD3xxx практически уверовавшему в то, что светлое будущее не за горами и единственное, что ему мешает наступить уже сейчас - это буквы HD. Все эти действия нанесли страшную психологическую травму (смайл). Шутки шутками, но, по-моему, любому покупателю было проще и удобнее ориентироваться среди видеоадаптеров, руководствуясь принципом "больше цифра - круче карта" (в разумных пределах, конечно, без утверждений типа "GeForce 9800 был в три раза мощнее Radeon HD38xx"), чем держать в памяти все эти Ultra, GTX, GTS, GT, GSO, GS, GE.

К началу 2008 года доля ATI на рынке дискретной графики упала примерно до 30%. Причем те же цифры, которые, как я уже говорил выше, в 1998 году означали безоговорочный успех бизнеса, через десять лет стали индикатором упадка компании - вот такая вот гримаса судьбы.

Если AMD в связи с ее тяжелым на тот момент финансовым положением стремилась любыми способами сократить затратную часть своего бюджета, то преуспевающая NVIDIA решила вложить деньги в приобретение молодой компании Ageia, разработчика новомодного физического ускорителя PhysX и одноименного программного движка. Сказано - сделано: в феврале 2008 года операция была успешно завершена. Руководство "зеленых" связывало с этим поглощением надежды на быструю и успешную адаптацию своих видеочипов к выполнению физических расчетов. После этого события AMD оказалась словно wжду двух огней, ведь оба применяемых в играх физических движка (Havok и PhysX) были в руках ее конкурентов - Intel и NVIDIA соответственно Что интересно, приоритетной платформой AMD решила выбрать более распространенный Havok, благо Intel препятствий конкуренту в этом вопросе чинить не собиралась.

Через несколько месяцев после анонса чипов RV670 и G92 на их базе были разработаны двухпроцессорные видеокарты Radeon HD3870X2 и GeForce 9800 GX2. Они лишь утвердили ставшую привычной расстановку сил между ATI и NVIDIA на стороне первой - низкие цены, козырь второй - высокая производительность. Причем отношение к таким тандемам у конкурирующих компаний разное, - если канадцы собирались впредь засылать в верхний ценовой сегмент только двухпроцессорные видеокарты, основанные на двух чипах из middle-end-сектора, то калифорнийцы планировали, как и в стародавние времена, выпускать сначала большой и дорогой GPU-флагман, а когда тому уже будет пора на пенсию, создавать на его основе двуглавого монстра. Преимущества обоих подходов очевидны: первый позволял сократить расходы на разработку и производство видеокарт, второй же упрощал написание драйверов и уменьшал количество глюков при работе адаптера.

Итак, господа, наш сегодняшний разговор подошел к логическому завершению. но история заклятых друзей ATI и NVIDIA на этом не кончается. О том, что было дальше, вы прочитаете в одном из ближайших номеров.

 

Дэвид Ортон

Дэвид Ортон присоединился к ATI в 2000 году в результате покупки канадцами компании ArtX, в которой он на тот момент занимал посты президента и генерального директора. Через четыре года он уже возглавил фирму из Онтарио.

Ранее Ортон работал в небезызвестной SGI (именно от нее отпочковалась ArtX и эта же компания разработала OpenGL), проведя там почти десять лет в качестве старшего вице-президента. Также в свое время он был инженером в компаниях General Electric и Bell Laboratories.

После слияния AMO и ATI Дэвид Ортон занял пост исполнительного вице-президента в Advanced Micro Devices. В дальнейшем он приложил немало усилий для быстрой и безболезненной интеграции двух титанов полупроводниковой индустрии. По завершении объединительных процессов, в июле 2007 года, Ортон покинул AMD, заявив напоследок, что верит в светлое будущее "новой AMD"..

Та должность, которую он занимал, с его уходом упразднилась. Как говорится, мавр сделал свое дело.

 

Зарегистрируйтесь, чтобы проголосовать!

Если поделиться, то людям поможет

Комментируй, обсуждай, участвуй

Загрузка
Вы не можете оставлять комментарии. Для этого Вам необходимо Авторизоваться
ITWiki
Rambler's Top100