10 лет назад 7 апреля 2009 в 16:34 64

начало

Теперь же настало время вновь окунуться в прошлое и совершить путешествие сквозь эти годы в настоящее. Однако цель повторного погружения в «глубины» времени будет несколько иная – вместо наблюдения за эволюцией рынка ЦП мы сконцентрируем свое внимание на развитии и достижениях остального «тяжелого» железа.

Девять лет покою нет

Прежде чем отправиться в видеокарточный 2000 год, нам, чтобы не попасть в положение какого-нибудь вымышленного персонажа, случайно угодившего в прошлое и недоумевающего, откуда у него во дворе вместо купленной вчера Ferrari оказался настоящий гарцующий жеребец из плоти и крови, потребуется небольшое вступление, отражающее тенденции, действовавшие на тот момент в сфере разработки графических процессоров.

Мы им покажем!
Во-первых, к началу нового тысячелетия среди множества компаний, занимавшихся в девяностые годы проектированием видеочипов, стали выделяться явные лидеры, на фоне которых более мелкие фирмы просто меркли и были вынуждены либо смещать вектор своего развития в сторону освоения какой-либо узкой рыночной ниши, либо вовсе прекращать работу. Во главе этой лидерской группы уверенно расположилась NVIDIA, за ней с относительно небольшим отставанием шла 3dfx, а замыкали «золотой» список S3, ATI и Matrox.

А во-вторых, наметилась явная тенденция к расширению «полномочий» графических процессоров – помимо традиционных для них функций (вроде наложения текстур) передовой на тот момент видеочип NV10 от NVIDIA получил возможность обрабатывать геометрическую составляющую сцены при помощи блока T&L. Не за горами было появление GPU с программируемым конвейером. Вот и все, теперь ничто из действительности 2000 года не способно ввести нас в ступор, поэтому можно приступать непосредственно к делу.

Пожалуй, именно в это время процесс уменьшения количества компаний, способных удерживать за собой хоть сколько-нибудь заметное место в индустрии графических ускорителей, достиг своего апогея. Из всех фирм, занятых разработкой видеочипов, только NVIDIA может признать тот год полностью удачным – остальным же участникам «большой пятерки» пришлось довольно туго, особенно S3 и 3dfx. С них-то и начнется печальная часть нашего рассказа.

Бедой некогда великой 3dfx стало отсутствие существенного прогресса в архитектуре ее видеочипов – она, видимо, слишком сильно уверовала в непобедимость своих Voodoo первых поколений и упустила из виду, что постепенно эволюционировавшие творения конкурентов уже не те мальчики для битья, которыми они были в середине девяностых. В результате против видеокарт, способных обрабатывать геометрию и освещение и обладающих поддержкой памяти DDR с различными технологиями экономии ресурсов ее полосы пропускания, 3dfx выставила эдаких гостей из прошлого – Voodoo 4 и 5 на основе процессоров VSA-100, ничем из вышеперечисленного не обладавших.

Даже комбинирование на одной печатной плате нескольких (реально – одного и двух, в проекте – до четырех) видеочипов, на которое 3dfx изначально делала ставку при разработке VSA-100, не помогло этим продуктам вернуть компании прежние (или хотя бы близкие к ним) позиции. Выход же соответствующего требованиям времени GPU Rampage постоянно откладывался, и в итоге карты на его основе так и не появились в продаже. Сама же 3dfx в конце 2000 года была куплена NVIDIA и осталась жить лишь в памяти своих поклонников.

Схожая участь постигла и S3 – правда, к такому концу ее привела другая тропа. В отличие от 3dfx, S3 специализировалась в основном на бюджетной части рынка, поэтому никаких мифов о превосходстве своего «оружия» над чужим у этой компании не могло быть. Но в то же время и на своем поле с 1998 года она терпела все больше и больше поражений.

Чтобы исправить эту нездоровую ситуацию, к концу 1999 года инженеры S3 подготовили довольно современный на тот момент процессор Savage 2000, по характеристикам сопоставимый с NV10. Конечно, c готовившимися тогда к выпуску NV15 и R100 он тягаться не мог, но в традиционном для продукции компании рыночном секторе должен был чувствовать себя весьма комфортно.

Однако возложенные на новинку надежды, к сожалению, не оправдались – сниженные относительно запланированных частоты и сырые драйверы не позволили Savage 2000 завоевать признание потребителей. После этой неудачи руководители S3 решили, что продолжать разработку видеопроцессоров бессмысленно, и в январе 2001 года графическое подразделение компании было продано VIA за 320 с небольшим миллионов долларов. Остальная же часть фирмы под названием SONICblue занялась потребительской электроникой. В составе VIA выходцы из S3 и по сей день разрабатывают интегрированные в чипсеты материнских плат GPU, а также бюджетные дискретные видеокарты серии Chrome.

Теперь обратим внимание на компанию Matrox. Качество и скорость работы в двухмерном режиме всегда являлись козырями GPU ее разработки, поэтому до середины 90-х дело этой канадской фирмы процветало. Но с наступлением эры 3D в компьютерной графике потребителям стало мало сочетания лишь двух этих сильных сторон в одном продукте – появилась необходимость в корректной работе с третьим измерением. А вот с 3D-картинкой у инженеров Matrox начались серьезные проблемы.
По скорости обработки трехмерного изображения их творения практически всегда проигрывали продуктам конкурентов. Постепенно для Matrox рынок специализированных профессиональных видеокарт стал более значимым и прибыльным, нежели сегмент адаптеров для домашних компьютеров.

Matrox
Несмотря на то что продукты компании Matrox не смогли выдержать конкуренции на рынке трехмерных акселераторов, именно она первой представила карты, использующие несколько дисплеев

2000 год для этой компании оказался лишь одним из этапов полной переориентации ее деятельности на узкий круг потребителей. Вышедший тогда чип G450 (кстати, моя первая видеокарта – это именно Matrox Millennium G450. – Прим. И. М.) был не более чем небольшим усовершенствованием годовалого G400. Еще через несколько месяцев был выпущен не более прогрессивный G550 – понятное дело, с таким подходом к обновлению архитектуры GPU рассчитывать на широкий успех своей продукции канадцам не приходилось. Затем Matrox постаралась громко хлопнуть дверью при помощи видеокарты Parhelia (что не особо получилось) и окончательно завязала с попытками захватить рынок «обычных» видеокарт, тихо оставив его на растерзание ATI и NVIDIA. О них-то и пойдет речь далее.

К 2000 году NVIDIA довольно серьезно технологически и экономически опережала всех конкурентов, поэтому в планах на ближайшие месяцы у нее значился лишь выпуск чипа NV15 (GeForce 2), представляющего собой незначительно усовершенствованный NV10. Среди отличий новинки от предшественника стоит выделить возможность работы с непрограммируемыми аналогами будущих шейдеров, с помощью которых, в частности, можно было реализовать такую технику имитирования неровностей рельефа, как Bump Mapping.

В активе компании ATI же на тот момент было лишь безнадежно устаревшее ядро Rage 128 Pro, так что инженерам «красных» пришлось серьезно попотеть, дабы преодолеть технологическое отставание от главного конкурента. Однако им это удалось! Вышедший несколько позднее NV15 процессор R100 был сопоставим по функциональности с аналогом от NVIDIA. Но плохие драйверы, а также слишком малое число пиксельных конвейеров (два против четырех) и текстурных модулей (шесть против восьми) вкупе с их неудачной конфигурацией не позволили первому поколению Radeon встать на одну ступень с GeForce 2. Достойно держались разве что только бюджетные видеокарты канадской фирмы.

Следующий год ознаменовался двумя значительными событиями: неожиданно хорошим дебютом второго поколения Radeon и тем, что наконец-то были выпущены графические процессоры, способные работать с программируемыми шейдерами, – R200 и NV20. На руку ATI сыграл тот факт, что поддержкой шейдеров существенные архитектурные отличия NV20 от предшественника и ограничились, в то время как R200 получил в свое распоряжение четыре пиксельных и (впервые в настольном сегменте) два вершинных конвейера, а также восемь текстурных блоков и улучшенный RAMDAC.

К тому же GeForce 3 поддерживали лишь Shader Model 1.1, тогда как новые Radeon помимо этого работали и с пиксельными шейдерами версии 1.4. Однако все же в целом на рынке впервые за несколько лет установилось приблизительное равновесие, и общественность осознала, что ATI в состоянии оказывать NVIDIA достойное сопротивление.

В начале 2002 года «зеленые» представили процессор NV25 (серия GeForce 4), по характеристикам схожий с R200, но за счет высоких частот побеждавший основного оппонента. Для ATI же такой выпад конкурирующей фирмы был совсем не страшен, ведь ее инженеры готовили настоящую революцию – R300. Появившиеся летом того же года видеокарты Radeon 9xxx вывели канадскую компанию на позицию безоговорочного технологического лидера.

Новый флагман Radeon 9700 имел удвоенное число пиксельных и вершинных конвейеров, выросшую во столько же раз ширину шины памяти, а также повышенные относительно своего предшественника частоты и вдобавок соответствовал спецификациям Shader Model 2.0. NVIDIA еще долго не могла выпустить ничего сопоставимого с R300 по производительности – даже представленному в начале 2003 года чипу NV30 дерзкий новичок оказался не по зубам!

Поражения, которые начала терпеть NVIDIA после появления R200 и R300, не могли не отразиться на стоимости акций калифорнийской компании: в конце декабря 2001 года их курс начал снижаться, и к октябрю 2002 завершил самое большое свое падение за всю историю этой фирмы – почти на 90%! Причем его предкризисное значение было восстановлено лишь через четыре года.

Затем пальму технологического первенства вновь захватила NVIDIA – ведь новое поколение ее графических процессоров NV4x было рассчитано на работу
с Shader Model 3.0, тогда как ATI сделала ставку на простое повышение производительности старой архитектуры, разве что добавив ей совместимость с пиксельными шейдерами версии 2.1.

ATI R300
Ядро ATI R300 получилось настолько успешным, что вместе со своими потомками смогло более двух лет удерживать лидерство

Новые флагманы модельных рядов компаний R420 и NV40, представленные в 2004 году, превзошли по быстродействию «старичков» практически в два раза! Соотношение же сил между двумя этими монстрами было примерно равным. В том же году начали появляться и первые видеокарты с шиной PCI Express, которая, впрочем, не давала им никаких преимуществ перед их собратьями, «сидящими» на AGP, ведь пропускная способность старого порта была все еще избыточна. Однако возможность размещения нескольких слотов PEG на одной материнской плате позволила сначала NVIDIA, а затем и ATI вспомнить о технологиях, обеспечивающих совместную работу пары графических ускорителей в одной системе. Вместе с первыми видеокартами, поддерживающими новый интерфейс, на свет появилась соответствующая разработка NVIDIA под названием SLI, а чуть позже и ее аналог от ATI – CrossFire.

После выпуска GPU  следующего поколения от ATI и NVIDIA (R(V)5xx и G7x соответственно) стрелка рыночных весов хоть и начала потихоньку смещаться в сторону калифорнийской фирмы (во многом из-за опоздания канадцев с выпуском своих новых изделий), но все-таки о тотальной гегемонии одной из компаний речь не шла.
В июле 2006 года ATI была куплена AMD за 5,4 млрд долларов. Впрочем, несколько позже представители последней заявили, что серьезно переплатили при совершении этой сделки – ведь всего чуть больше, чем через год после этого, стоимость объединенной (!) компании упала ниже данной суммы.

NVIDIA GeForce 256 является первым в мире графическим процессором, предназначенным для рядового пользователя
NVIDIA GeForce 256 является первым в мире графическим процессором, предназначенным для рядового пользователя

NVIDIA, не обремененная проблемами реорганизации управленческого механизма, тем временем спокойно довела до ума и представила осенью того года чип G80, открывший эпоху унифицированной шейдерной архитектуры GPU, которая подразумевает отсутствие деления конвейеров на пиксельные и вершинные и использование вместо них универсальных потоковых процессоров. Затем компания, прочно завладевшая стратегической инициативой, вплоть до лета этого года теснила AMD практически во всех сегментах рынка. И лишь появившиеся недавно чипы RV770 помогли «красным» остановить наступление «зеленых» и даже обратить тех в «ценовое» бегство.

В скором времени гонка вооружений на графическом фронте возобновится – в новом году нас ожидает появление первых GPU на основе 40-нанометрового техпроцесса. Пока сведений о них довольно мало, но одно ясно точно: время безоговорочного доминирования одной стороны в данной сфере промышленности прошло, и теперь в ней возрождается прежний соревновательный дух, подразумевающий равные шансы на успех у обоих конкурентов. В целом же за последние восемь лет статус видеокарты изменился довольно серьезно – от «штуки, которая, конечно, не процессор, но тоже важна» до основного узла любой игровой машины. И предпосылок для потери ею права на этот титул пока не наблюдается.

Хард и драйв
После серии жизнерадостных некрологов я хотел бы рассказать вам о событиях несколько более позитивных. Не одними процессорами и видеокартами жив высокотехнологичный рынок, и в других его областях в течение последних восьми лет застоя тоже не наблюдалось. Возьмем, к примеру, жесткие диски. Объем среднестатистического винчестера 2000 года составлял от 8 до 20 Гбайт, и подключался он к материнке при помощи одной из ипостасей параллельного интерфейса ATA (самой скоростной ревизией на тот момент являлась ATA/100) или, куда реже, SCSI.

Несмотря на то что скоростные возможности AT Attachment на тот момент отнюдь не были исчерпаны, на смену ему уже спешил молодой и дерзкий соперник, получивший имя SATA. Будучи последовательным, он устранял множество проблем старого, чувствительного к наводкам и длине кабеля ATA и открывал перед производителями дисков большие возможности для дальнейшего совершенствования своих продуктов. И после того, как у пользователей прошла волна первоначального неприятия SATA, эти самые продукты активно «пошли в рост».

Причем не только в плане объема, но и по своим скоростным и функциональным характеристикам. Вместимости хардов вместо десятков стали исчисляться сотнями гигабайт, улучшилась самодиагностическая система S.M.A.R.T., а в 2006 году на свет появилась технология перпендикулярной магнитной записи, позволившая заметно отодвинуть барьер плотности «упаковки» данных. Первой в своих дисках ее применила фирма Seagate, что поспособствовало росту популярности ее продукции и ощутимо подняло котировки акций компании. Вообще количество игроков на рынке жестких дисков с 2000 года заметно сократилось: Quantum вошла в состав Maxtor, которая впоследствии была куплена Seagate, Fujitsu окончательно перекочевала на рынок исключительно ноутбучных винчестеров, а IBM продала свой «жесткий» бизнес фирме Hitachi.

За прошедшие годы в домашних машинах получили относительно широкое распространение RAID-массивы, которые до того можно было встретить лишь в серверах, а объемы персональных файлохранилищ выросли многократно. Год от года снижалась шумность винчестеров, и их раздражающие гудение и стрекот к настоящему моменту сменились на легкий свист и едва слышное пощелкивание, чему были несказанно рады любители ночной работы (в число которых волею судеб попал и я). Диски стали более устойчивыми к сотрясениям и падениям, а благодаря развитию технологий автомониторинга появилась возможность с большой долей вероятности предсказать время начала «умирания» харда, что для нас, пользователей, означает снижение риска в одночасье потерять все, что нажито непосильным трудом.

Глобальное потепление
На взгляд неискушенного человека, тепловыделение вычислительных машин с течением времени менялось весьма нелинейно. От огромных ламповых монстров, рассеивавших в окружающее пространство киловатты тепла, мы якобы постепенно перешли к тихим и холодным ПК, которым для нормальной работы было достаточно одного-единственного вентилятора в БП. Однако затем «горячесть» компьютерных компонентов вроде как вновь пошла по нарастающей, заставляя производителей изобретать все более и более изощренные системы охлаждения.

Подобный анализ ошибочен в корне: нельзя сравнивать между собой компьютеры на принципиально различной базе, равно как и недопустимо ставить в один ряд мейнфреймы и персоналки. Если брать для рассмотрения исключительно настольные машины (скажем, начиная с первого IBM PC на процессоре Intel 8088), то мы получим, что, несмотря на постоянное «утоньшение» техпроцесса, тепловыделение компов уверенно росло. Конечно, вычислительные возможности масштабировались куда быстрее, а значит, уровень производительности на ватт постоянно повышался, однако простому пользователю, которому было необходимо после каждого апгрейда серьезно наращивать возможности охладительной системы, оттого было не многим легче.

В двухтысячном году новейшим процессорам AMD было достаточно довольно скромного по нынешним меркам активного кулера, интеловские же камни вообще могли обойтись либо средних размеров пассивным радиатором, либо охлаждалкой размером с четыре спичечных коробка. Затем началось наращивание частот, в ядрах стали плодиться транзисторы, а потом и число самих ядер перестало ограничиваться одним, и, что называется, пошло-поехало.

На поприще производства охладительных систем развернулась серьезная конкурентная борьба, стали появляться бренды и «культовые» продукты, начался выпуск специальных товаров для компьютерных энтузиастов. А тепловыделение все росло, и на рубеже 2001 и 2002 годов произошло знаменательное событие – выпуск первой серийной системы водяного охлаждения. Оверклокеры с прямыми руками начали изготавливать подобные девайсы несколькими годами ранее, однако появление водянок в свободной продаже стало для многих большим потрясением.

Ныне же водяной помпой в системнике никого не удивишь. Более того, в нашу жизнь постепенно входят серийные фреоновые СО, ранее изготавливавшиеся исключительно вручную и только серьезными «разгонщиками». Интересно, какие «холодильники» будут описывать авторы журнала еще через восемь лет? «Сегодня в продажу поступила первая погружная система криогенного охлаждения на базе жидкого азота…» Шучу, конечно. До такого дело вряд ли дойдет, но вот в том, что доля простых воздушных кулеров ощутимо снизится, я практически не сомневаюсь.

Всеми цветами радуги…
Вспоминаете видеокассеты формата VHS? Уже, наверное, с трудом. Кажется, что никак не меньше десятка лет прошло с того момента, как сверкающие своими радужными боками оптические диски отобрали у мрачных черных гигантов роль главных фильмоносителей… А между тем произошло это совсем не так давно – DVD-проигрыватели лишь в 2002 году смогли обойти по популярности видеомагнитофоны.

Но, как известно, в этом мире ничто не вечно, и только взошедшему на трон королю сразу же стали готовить преемника, да не одного, а сразу нескольких. Правда, позднее в «клубе убийц DVD» осталось лишь два участника – Blu-ray и HD DVD. О них и поговорим. Эта пара конкурирующих форматов появилась из-за того, что компании, пожелавшие заняться созданием замены DVD, не сошлись в едином мнении по поводу путей достижения поставленной цели. Одна группа (DVD Forum), ведомая японскими фирмами Toshiba, NEC и Sanyo, ратовала за модификацию старого типа носителей, в то время как другая (Blu-ray Disc Association) во главе с интернационалом из Sony, Hitachi, Hewlett-Packard и Samsung решила начать работу с чистого листа.

То, что HD DVD (High Definition / Density DVD – «DVD высокой четкости / плотности») проектировался как усовершенствованная версия уже обкатанного и весьма распространенного формата, определило как главные плюсы, так и основные минусы этой разработки. К первой категории относились прежде всего экономические факторы: возможность использования старых фабрик для производства дисков данного типа, достаточно низкая цена на устройства, совместимые с ними, и дешевизна самих носителей. Главный же недостаток HD DVD – относительно небольшая плотность записи (15 Гбайт на однослойный диск) – был обусловлен ограниченными в этом плане возможностями «дивидишного» красного лазера с длиной волны 650 нм.

Разработчики же Blu-ray («голубого луча») изначально нацелились на покорение новых, доселе невиданных горизонтов в плане прогрессивности своего детища, поэтому высокая цена на BD-диски и соответствующие проигрыватели была прогнозируема. Зато использование для записи этих носителей голубого лазера (откуда и пошло название) с длиной волны 405 нм позволило увеличить их емкость до фантастических 25 Гбайт на один слой.

Вообще же в жизни дисков и проигрывателей новых типов, появившихся на рынке в 2006 году, случилось, пожалуй, лишь одно значительное событие – смерть HD DVD, произошедшая в феврале 2008 года, когда Toshiba объявила, что признает поражение своего детища и перестает его продвигать. В остальных же аспектах существования новых носителей ничего необычного не наблюдалось и не наблюдается – они, как и их предшественники, медленно, но верно ползут на вершину, чтобы потом столь же медленно с нее спуститься. Пока же среднестатистическому компьютеру, как и пару лет назад, вполне хватает старого доброго DVD-привода.

Эпилог
Не перестаю удивляться тому, как велик и многообразен рынок высокотехнологичной продукции. Вроде бы успели самым беглым образом рассмотреть только процессоры и видеокарты, скупо отсыпали горсточку цифр – а все равно получилась большая статья. Наверное, все потому, что развитие компьютерной индустрии в десятки и даже сотни раз опережает прогресс во всех остальных областях науки и техники.

Представьте, что купили вы, например, электрический чайник, и только один лишь год успели ему порадоваться, как вдруг узнали от соседа, что являетесь обладателем едва ли не музейного экспоната и что чайники последних моделей не только успевают вскипятить воду до того, как вы отожмете палец с кнопки, но еще и очищают ее от примесей и бактерий, умягчают, а то и, чем черт не шутит, святой делают.

С одной стороны, хорошо, конечно, что человеческий ум не то что год за годом, а буквально день за днем рождает новые полезные изобретения, а с другой – ну как тут не обвязать язык шарфом вокруг шеи в попытке угнаться за прогрессом? Немало знаю я людей, которые раньше активно следили за развитием компьютерного рынка, а в последние годы подотстали, мотивируя это тем, что, дескать, ничего знаменательного не происходит, все продолжают гоняться за приставками «мега» и «гига», а сути не видно. Эти товарищи и правы, и неправы по-своему, и я даже, дав слабину, в некоторые моменты жизни мог бы с ними согласиться… но сразу бы, наверное, вспомнил о своем прямом долге – быть в курсе последних веяний, сколь бы незначительными они поначалу ни казались.

А если же брать в расчет действительно знаменательные события на всем мировом цифровом рынке, то их за прошедшие восемь лет было не так уж и много. Постепенное совершенствование, наращивание объемов / частот / эффективностей – это, несомненно, имело место, а вот так, чтобы сходу взять и сказать: «Тридцать второго марта две тыщи затертого года мир кардинально изменился в ту или иную сторону!» – не получится.

Просто потому, что жизнь меняется не вдруг, а постепенно и, что куда важнее, непрерывно. И очень хотелось бы сейчас, когда начинается новый год, верить, что меняется он к лучшему и что мы с вами, дорогие читатели, завтра будем жить в другом мире – без сомнения, сумасшедшем, суетном, объединяющем в себе несовместимые на первый взгляд вещи, но вместе с тем интересном, радостном и открытом для познания. Мире, в котором будет место и нам – любителям умных железок и красивых и удобных программ. Начинаем вторую «восьмилетку» ;)!

Игорь Мельниченко suomi-47@yandex.ru
BootSector bootsect@yandex.ru

Никто не прокомментировал материал. Есть мысли?