10 лет назад 17 марта 2011 в 0:01 410

В наступившем году свой тридцатый день рождения празднует IBM PC – первый массовый персональный компьютер. Круглая дата является хорошим поводом вспомнить, как развивались эти замечательные высокотехнологичные машины. А начать стоит с устройств, без должного развития которых ЭВМ осталась бы скучной машиной, предназначенной для математиков, бухгалтеров, военных и прочих специалистов, испытывающих потребности в сложных расчетах. Именно такие похожие на шкаф компьютеры в старых фантастических романах монотонно гудят и моргают сотнями лампочек, записывая данные на магнитную ленту.

Собственная 3D-вселенная для каждого
Речь, конечно же, пойдет о видеокартах (также называемых видеоадаптерами, графическими платами, 3D-ускорителями, etc.). Именно с их помощью мы обрабатываем фотографии, монтируем и смотрим фильмы, рисуем, осваиваем новые трехмерные миры, путешествуем по интернету, наполненному графикой и видео, а не символами. Благодаря развитию этих устройств появились некоторые новые профессии, например 3D-дизайнер, 3D-аниматор. Архитекторы и художники, пользуясь возможностями современных графических ускорителей, за какие-то несколько лет подняли уровень сложности своих работ до невиданных доселе высот. Индустрия кино кардинально преобразилась, и сегодня практически невозможно найти художественный фильм, снятый профессионалами без использования компьютера и его графической мощи (читай – спецэффектов).

Компания NVIDIA наряду с производством видеокарт занимается выпуском персональных суперкомпьютеров. Например, в машине с названием Tesla 960 параллельно работающих ядер, и она в 250 раз мощнее современного игрового ПК.

Современные видеокарты явили миру принципиально новый вид досуга (и даже спорта) – трехмерные компьютерные игры. Графические детали и физические свойства тел в них моделируются с такой скрупулезностью, что скоро можно будет рассуждать о неудачной текстуре камней или плохой прорисовке листьев на деревьях в реальном мире (смайл). Самое удивительное во всех этих благах то, что они стали доступны всего через три десятка лет с того момента, когда высшим достижением в области компьютерной графики стал вывод на экран 2000 одноцветных символов единовременно. Но, что еще более удивительно, шестью годами позже, в 1987 году, IBM подарила миру революционный стандарт VGA, который в разных инкарнациях является стандартом де-факто для видеоадаптеров сегодняшнего дня. Но обо всем по порядку.

Видеокарты: от древних времен и до наших дней
Как уже говорилось выше, первые персоналки позволяли видеть на дисплее только монохромные символы. Их цвет определялся цветом излучения люминофора монитора и чаще всего был зеленым на черном фоне или белым на том же черном фоне. Устройство, дающее возможность увидеть такую «картинку», называлось Monochrome Display Adapter (MDA), работало с разрешением 80 x 25 символов и поддерживало пять атрибутов текста: обычный, яркий, инверсный, подчеркнутый и мигающий (или комбинации этих «фичей»). Ни о какой поддержке графики здесь не могло быть и речи: в IBM на тот момент просто не предполагали, что кому-то придет в голову рисовать что-либо на экране ПК. Любой символ имел физический размер 8 x 14 точек, доступное разрешение монитора составляло 720 x 350 точек.

Физически все работало так: устройство преобразовывало сигналы, распространяющиеся по шине PC, в форму, воспринимаемую дисплеем. На каждый символ отводилось 16 байт памяти, а максимальный объем памяти, адресуемой адаптером MDA, составлял 4 Кбайт (на микросхеме Intel 2732). Как правило, символ разбивался на две части по 8 байт и хранился по разным адресам. Интересной особенностью первых видеоадаптеров была возможность подключения принтера (без использования дополнительного разъема расширения). Основой карточки была микросхема-контроллер Motorola MC6845, примененная позже и в адаптерах CGA и EGA.

Motorola MC6845 – микросхема видеоконтроллера электронно-лучевой трубки. Использовалась в компьютерах в видеокартах MDA, CGA и EGA для IBM PC. Впоследствии в целях обратной совместимости применялась в видеокартах VGA. (Wiki)

В этом месте вдумчивый читатель, возможно, задаст вопрос: а как, собственно, люди работали на компьютерах до 1981 года, когда не было видеоадаптеров? Ведь мы знаем, что большие машины (mainframes) выпускались той же IBM (и не только ею) задолго до того, как был представлен IBM PC. А дело в том, что довольно длительное время компьютеры не имели мониторов вообще. Вместо них использовался набор индикаторов (либо одиночных ламп накаливания, либо семисегментных газоразрядных), а результаты вычислений распечатывались на принтерах. Первые мониторы для вычислительной техники являлись потомками осциллографов, были векторными и не предполагали использования видеоадаптера. Изображение в них строилось не посредством облучения экрана электронным пучком строка за строкой (как в ЭЛТ-мониторах или телевизорах), а последовательно, точка за точкой (подробнее об этом можно почитать в учебнике физики, найдя тему «Устройство электронного осциллографа»). Компьютер самостоятельно управлял отклоняющей системой дисплея.

Звание первого IBM PC относится к модели 5100, 1975 года. Она имела отдельный монитор, накопитель и клавиатуру, но для любителей техники подходила плохо, и не в последнюю очередь из-за цены, которая составляла около $20 000. (Wiki)

Видеоадаптеры появились тогда, когда сложность изображения увеличилась и возникла идея получения данных от компьютера на экране телевизора. Телевизионная картинка – растровая, поэтому назрела необходимость в промежуточных устройствах для подготовки графической информации к отображению. Для построения картинки теперь требовались специализированные, довольно ресурсоемкие вычисления, поэтому понадобились особые устройства, ориентированные на работу с растровыми мониторами, которые могли бы хранить в себе видеоинформацию, обрабатывать ее и переводить в аналоговую форму для отображения на дисплее.

Довольно долгое время в задачи видеокарты входило только сохранение и регенерация кадра, а построение целиком ложилось на центральный процессор и программное обеспечение. ЦП рассчитывал кадр и помещал его в память видеоадаптера, который преобразовывал данные из видеопамяти в аналоговый вид. Называлось все это Frame-buffer Technology. Первым цветным растровым дисплейным адаптером стал CGA (Color Graphic Adapter), выпущенный для PC все той же IBM во все том же 1981 году. Для немногочисленных пользователей ПК того времени, привыкших к зеленым буквам, это была революция. Новый адаптер (при наличии соответствующего монитора) обеспечивал 16 ярких чистых цветов. Помимо этого он мог работать в нескольких графических режимах с различной разрешающей способностью.

Максимальное разрешение карточки CGA – 640 x 200 пикс. Таким образом, чтобы получить 80 x 25 символов в текстовом режиме (как у MDA), каждый символ располагался в матрице 8 x 8 точек. Одна точка была зарезервирована для подстрочного элемента и еще одна – для разделения. Стандартная видеокарта CGA имела 16 Кбайт видеопамяти, максимальную глубину цвета в 4 бита (что соответствует 16 цветам), могла подключаться либо к NTSC-совместимому монитору или телевизору, либо к RGBI-монитору. Надо сказать, что в сравнении с MDA-картой CGA-адаптер был дороже, а четкость символов, выводимых им на экран в текстовых режимах, была ниже, поэтому для деловых применений MDA был предпочтительней.

ATI Technologies – канадская фирма, разработчик и поставщик графических процессоров и чипсетов материнских плат, действовавшая с 1985 по 2006 год как самостоятельная компания, являющаяся одной из крупнейших в своей отрасли. (Wiki)

Следующей за MDA / CGA вехой в истории видеоадаптеров в 1982 году стало появление платы фирмы Hercules, HGC (Hercules Graphics Controller), которая поддерживала «вывод картинок» (две графические страницы), имела разрешение 720 x 348 точек, но не поддерживала цвет. Она получила широкое распространение благодаря возможности работы с электронными таблицами и диаграммами. Кроме того, только этот адаптер в течение почти 15 лет (до 1996 года) позволял подключать два монитора к одному компьютеру. Стоит отметить, что, несмотря на появление в 1984 году усовершенствованного адаптера EGA, работавшего с максимальным разрешением 640 x 350 и отображавшего уже 64 цвета (при объеме встроенной памяти в 64 Кбайт), видеокарты CGA еще долго пользовались заслуженной популярностью.

Интересной особенностью видеоадаптеров того времени было то, что общались с монитором они «по цифре»: MDA и HGC передавали только информацию о том, светится или не светится определенная точка («1» или «0»), плюс к этому применялся дополнительный сигнал яркости для атрибута текста «яркий». В случае с CGA видеосигнал посылался по трем каналам (красный, зеленый, синий; то есть RGB) плюс сигнал яркости, EGA имел по две линии данных на каждый из основных цветов. Таким образом, все главные цвета могли отображаться с полной яркостью, 2/3, или 1/3 от полной яркости, что и давало в сумме максимум 64 цветовых оттенка. Буквально через три года после появления EGA интерфейсы станут аналоговыми, вновь цифровыми они будут лишь спустя 10 лет.

Основные элементы видеокарты
Любая видеокарта, независимо от производительности и года выпуска, состоит из нескольких основных функциональных узлов: графического контроллера, последовательного преобразователя, видеоконтроллера, ПЗУ, видеопамяти и синхронизатора. Поговорим о них подробнее. Графический процессор (Graphics Processing Unit, GPU) – устройство, отвечающее за обмен данными между центральным процессором и видеопамятью, регенерацию ее содержимого и обработку запросов CPU. Оно является основой графической платы, именно от него зависят быстродействие и возможности всего девайса. Современные графические процессоры по сложности превосходят центральные процессоры компьютера. Последовательный преобразователь (aka RAMDAC) (смайл) – выбирает данные из памяти и преобразует их в поток битов.

Видеоконтроллер – отвечает за формирование изображения в видеопамяти, дает команды последовательному преобразователю на формирование сигналов развертки для монитора и осуществляет обработку запросов центрального процессора. Как правило, в состав видеоконтроллера входят: контроллер внешней шины данных (PCI, AGP, PCI Express и т. п.), контроллер внутренней шины данных и контроллер видеопамяти. Современные графические адаптеры (ATI, NVIDIA) обычно имеют не менее двух видеоконтроллеров, работающих независимо друг от друга и управляющих одновременно одним или несколькими дисплеями каждый. Видеопамять – используется как буфер видеоконтроллера для промежуточного хранения и модификации изображения.
Видео-ПЗУ (Video ROM). Первые символьные видеоадаптеры не имели встроенного ПЗУ. В дальнейшем такая память была добавлена для хранения экранных шрифтов, служебных таблиц, систем BIOS и т. д. Обращение к ПЗУ осуществляется непосредственно центральным процессором. На многих современных картах устанавливаются электрически перепрограммируемые ПЗУ (EEPROM, Flash ROM), допускающие перезапись BIOS пользователем при помощи специальной программы.

После продажи своего графического подразделения, компании VIA, S3 Graphics, объединившись с Diamond Multimedia, занялась производством бытовой электроники. Однако 23 марта 2003 года она вынуждена была объявить о банкротстве.

Синхронизатор – обеспечивает синхронную работу всех узлов адаптера, задает временные параметры и управляет доступом CPU к видеопамяти. Охладитель – отвечает за температурный режим GPU и памяти. Сначала их вообще не предусматривалось, но в настоящее время систему охлаждения стоит признать неотъемлемой частью любой видеокарты. Еще одним обязательным элементом любой видеокарты, выпущенной в 90-х годах и позже, стал драйвер. Дело в том, что до выхода различных модификаций VGA видеокарты функционировали без каких-либо программных «примочек». Это объясняется довольно просто – все изготовители железа в то время довольно жестко придерживались стандартов, описывающих работу графических режимов. Таким образом, все видеокарты для ОС выглядели одинаково. В дальнейшем каждый производитель добавлял в свой продукт дополнительные режимы и возможности, которые могли правильно работать лишь при использовании специального программного обеспечения – видеодрайвера.

VGA – последний всеобщий стандарт
В апреле 1987 года одновременно с выпуском компьютеров семейства PS/2 фирма IBM ввела в действие спецификацию VGA (Video Graphics Array), которая вскоре стала общепризнанным стандартом систем отображения компьютеров. В отличие от устаревших видеостандартов, ориентированных на передачу мониторам цифровых данных, в VGA используются аналоговые сигналы. Почему же предпочтение отдано именно аналоговому подключению, в то время как вся остальная электроника в это время стремительно переходит на цифру?

Дело в том, что переход на аналоговую систему управления мониторами на тот момент был вынужденным шагом для вывода на экран большого количества оттенков. Аналоговый монитор работает по тому же принципу, что и цифровой, т. е. отображаются RGB-сигналы управления тремя основными цветами, но каждый сигнал имеет несколько уровней яркости (в стандарте VGA – 64). В результате число возможных комбинаций (цветов) возрастает до 262 144. Для создания реалистичного изображения средствами компьютерной графики цвет часто оказывается важнее высокого разрешения, поскольку человеческий глаз воспринимает картинку с большим количеством цветовых оттенков как более правдоподобную.

3dfx Interactive – калифорнийская компания, специализировавшаяся на производстве графических процессоров и видеокарт. После доминирования на рынке в 2000 году компания обанкротилась и была куплена корпорацией NVIDIA. (Wiki)

В VGA-видеокартах впервые появился цифро-аналоговый преобразователь, или RAMDAC (Random Access Memory Digital to Analog Converter). Такие устройства комплектовались 256 Кбайт видеопамяти и поддерживали следующие режимы: 640 х 480 – 16 цветов, 640 х 400 – 16 цветов, 320 х 200 – 16 цветов и 320 х 200 – 256 цветов. Палитра VGA составляла 262 144 оттенка (2 в степени 18, по 64 уровня яркости на каждый RGB-цвет). Начиная с этого адаптера применяются разрешения с соотношением сторон 4:3. VGA был одним из самых клонируемых стандартов и последней коммерчески успешной разработкой IBM в области видеокарт. Стоит отметить, что и до настоящего момента часть мониторов имеет аналоговый VGA-вход для подключения к видеокарте. Этот стандарт живет уже 14 лет и станет историей лишь с тотальным распространением таких цифровых стандартов, как HDMI и DisplayPort.

Гонка видеокарт и концепция аппаратного графического ускорения
Конец 80-х годов прошлого века – время появления многочисленных компаний, специализирующихся на выпуске видеоадаптеров. Именно тогда появились такие гранды, как ATI (1985), S3 Graphics (1989). Чуть позже к ним присоединяются легендарная 3dfx (1994) и NVIDIA (1995). Они опережающими темпами продолжили дело IBM в сфере компьютерной графики. Сама IBM потеряла здесь лидерство и занялась другими разработками в области железа. В дальнейшем мы еще неоднократно услышим имя этой легендарной компании, которая оказалась пионером практически во всех начинаниях, связанных с компьютерной техникой.

В начале 90-х годов проблема небольшого разрешения и недостаточного количества оттенков при цветопередаче была решена благодаря появлению SVGA-видеоадаптеров. Разрешения 800 x 600 и особенно 1024 x 768 при 16,7 млн цветов и сегодня являются вполне актуальными параметрами для ряда устройств. Максимальное разрешение экрана и количество отображаемых цветов росло еще некоторое время за счет увеличения видеопамяти (видеокарты стали комплектоваться памятью объемом до нескольких мегабайт), однако каждая новая железка все меньше отличалась от предыдущей в плане практического использования и скорости. Все изменилось с появлением концепции аппаратного графического ускорения.

Аппаратное ускорение заключается в том, что помимо элементарных операций, предусмотренных самим стандартом VGA, адаптер способен проводить вычисления без участия центрального процессора. Применяя технологию графического ускорения, мы не только освобождаем CPU для других целей, но и выполняем все расчеты, связанные с графикой, гораздо быстрее. Достигается это за счет лучшей приспособленности GPU для подобных операций (так называемых вычислений с плавающей точкой).

С выходом Windows 95 появляются 2D-акселераторы. Они берут на себя прорисовку таких элементов, как рабочий стол, окна приложений, курсор и так далее. Ускоритель – это специализированный процессор, который способен выводить геометрические фигуры и примитивы, которые были занесены в GDI (графический интерфейс операционной системы). На видеоадаптерах устанавливается память, с которой графический процессор работает по локальной шине, не загружая системную шину процессора. От CPU 2D-акселератор получает GDI-инструкции, при этом объем передаваемых данных многократно меньше.

Позднее, с развитием компьютерной техники, появляются мультимедиаакселераторы. Они помимо ускорения обычных графических действий могут выполнять и ряд операций по обработке видеоданных (например, декодирование видео, записанного в MPEG-1, -2 и других форматах), требующих больших расчетных мощностей и серьезно загружающих центральный процессор. Сейчас возможность аппаратной цифровой компрессии и декомпрессии видео, наличие композитного видеовыхода и вывод сигнала на телевизор являются стандартными функциями.

Добавляем третье измерение и собираем SLI-систему
Достигнув пика развития двухмерных ускорителей и видеокарт, когда увеличение параметров перестало иметь практический смысл, индустрия двинулась в область обработки и вывода трехмерного изображения. Гонка 3D-акселераторов и связанные с ней страсти по увеличению числа транзисторов в GPU, росту частот, наращиванию объема видеопамяти не утихают до сих пор. Уже в первой половине 90-х годов прошлого века различные компании (в числе которых Realtec, Creative, NVIDIA) начали пробовать себя в создании 3D-акселераторов. Поначалу это были всего лишь дополнительные устройства для расширения возможностей старых видеокарт. Но именно они положили начало веку 3D-графики в персональных компьютерах.

Революцией в мире 3D-ускорителей стал анонс в ноябре 1995 года акселератора Voodoo Graphics (кодовое название SST-1) от малоизвестной на тот момент компании 3dfx. Чип Voodoo поразил всех своей скоростью. В 1996-1997 годах продукты на Voodoo Graphics занимали порядка 85% рынка 3D-акселераторов, несмотря на то что 3dfx не была первой, кто представил подобное решение. Однако при сравнимой стоимости скорость и качество выдаваемой картинки у Voodoo было настолько выше, чем у конкурентов (NEC PowerVR, Rendition Verite V1000, Matrox Mystique, S3 Virge, ATI 3D Rage), что на пару лет само имя 3dfx стало синонимом 3D-ускорителей.

Стоит отметить, что первые видеоакселераторы занимались обработкой исключительно 3D-изображения и требовали наличия «обычной» видеокарты для двухмерной графики. Видюха связывалась с ускорителем через специальный кабель. Акселератор перехватывал сигнал, а когда запускалась игра, и блокировал основную видеокарту. Затем, при выходе, посылался специальный сигнал, и акселератор пропускал информацию от «дефолтного» видеоадаптера.

Через некоторое время 3dfx создает более дешевую версию Voodoo Graphics, названную Voodoo Rush. Партнером по выпуску карт на этих чипах стала Diamond Multimedia, организация с большими производственными мощностями. В отличие от Graphics, Rush был совмещенным 2D- / 3D-акселератором, а вот следующее поколение карт Voodoo 2 было чистым акселератором. Voodoo 2 увидел свет в январе 1998 года, когда монстр мультимедийной продукции Creative Technology начал продажи 3D Blaster Voodoo 2 в версиях с 8 и 12 Мбайт памяти. Через несколько дней свой продукт представил и их главный конкурент – Diamond Multimedia вышла на рынок с Monster 3D II. Эти две компании были единственными, кто получил чипы из первых партий от 3dfx. Спрос на новинку был столь высок, что 100% выпускаемых микросхем отгружались только по заказам Diamond и Creative, и лишь в конце весны 3dfx смогла обеспечить товаром других производителей.

Скорость работы трехпроцессорного адаптера Voodoo 2 была примерно вдвое больше, чем у первого поколения Voodoo. Однако наиболее интересной стала возможность связать два акселератора в одном компьютере в режиме SLI (Scan-Line Interleave). Две карты устанавливались вместе, объединялись между собой с помощью кабеля и работали чересстрочно. В некоторых играх такое решение практически удваивало производительность при условии достаточно мощного центрального процессора. Примерно в это время (начало 1998 года) на сцену выходит всем известная ныне NVIDIA со своей Riva TNT – первой скоростной 3D-видеокартой с большим (на то время) объемом памяти (16 Мбайт) и встроенным 2D-акселератором. За исключением производительности видео (у платы не было поддержки ускорения MPEG-2, в отличие от карт ATI), TNT оказалась очень успешной. Это была первая видеокарта NVIDIA, способная накладывать две текстуры за один проход, отсюда карта получила название TNT – «TwiN Texel».

В 1999 году вышла видеокарта TNT2. Она была близка к тому, чем должна была стать оригинальная TNT, и ее, в принципе, можно рассматривать как усовершенствование кристалла GPU TNT: транзисторы помельчали с 350 до 250 нм. Кроме того, в то время NVIDIA впервые в своей практике выпустила в линейке карту повышенной производительности – Ultra. Карты TNT2 распределялись по частотам. NVIDIA тогда решила использовать только две версии: TNT2 и TNT2 Ultra. TNT2 была весьма мощной видеокартой для своего времени, она могла легко поравняться с Voodoo 3, обеспечивая при этом больше функций, хотя у нее по-прежнему не было поддержки декодирования MPEG-2. И кстати, это была первая видеокарта NVIDIA, устанавливаемая в новый слот – AGP 4х (Accelerated Graphics Port).

Кроме вышеназванных 3dfx и NVIDIA на крайне динамичном рынке 3D-акселераторов с разной степенью успешности в это же время работают ATI (Rage 128 PRO), Matrox (Millennium, G400) и S3 (Savage 4). Сложнейшая конкуренция вынуждает компании выпускать новые чипы чуть ли не раз в три месяца. Частоты графических процессоров и объем памяти растут день ото дня, новые игры поражают реалистичностью графики, а геймеры не успевают апгрейдить свои компьютеры.

Но это продолжается недолго. Уже в самом начале XXI века ряды производителей 3D-видеокарт резко редеют. Компанию S3 покупает известный производитель бюджетной системной логики и процессоров VIA. И отныне чипы этой фирмы устанавливаются в основном в компьютеры нетребовательных офисных работников в составе материнских плат на чипсетах VIA. В конце 2000 года легендарную 3dfx покупает NVIDIA. После приобретения интеллектуальной собственности 3dfx NVIDIA включила в свой штат большинство инженеров, трудившихся над новой версией Voodoo, переведя их на проект, известный нам как серия GeForce FX. Таким образом, резкий рывок NVIDIA в сфере видеокарт не в последнюю очередь обусловлен этим событием. Matrox ушла в производство решений для 2D, а также в нишу карточек, поддерживающих несколько мониторов (от трех). С уходом «тяжеловесов» с рынка начинается новейшая эра 3D-ускорителей, где борьба идет, по сути, между двумя производителями видеокарт – ATI и NVIDIA.

В 2003-2004 годах ATI выпускает один из самых известных своих продуктов – Radeon 9800, с помощью которого значительно увеличивает свою рыночную долю. В это же время появляются множество серьезных усовершенствований в архитектуре графических ускорителей, таких как шина PCI Express x16 (с пропускной способностью 4 Гбайт/с), и применяется память GDDR3. Представить в наглядном виде, к чему привела «гонка вооружений» в области 3D-графики, можно при помощи таблиц, приложенных к данной статье. Ознакомившись с ними, можно без особого труда оценить скорость эволюции аппаратуры для обработки и отображения компьютерной картинки в домашних условиях.

Что дальше?
История развития 3D-ускорителей происходит на наших глазах. Количественный рост таких показателей, как тактовая частота (и даже количество) GPU, текстурная и пиксельная скорости заполнения, вычислительная производительность, в ближайшее время должен привести к качественному изменению понятия «компьютерное трехмерное изображение». Возможно, в ближайшее время мы увидим практически не отличимые от объектов реального мира 3D-изображения, которые будут генерироваться новым поколением видеокарт. UP

Параметры видеокарт

  • Ширина шины памяти, измеряется в битах, – количество бит информации, передаваемой за один такт. Важный параметр в производительности карты.
  • Объем видеопамяти, измеряется в мегабайтах, – объем встроенной оперативной памяти видеокарты.
  • Частоты ядра и памяти – измеряются в мегагерцах, чем они больше, тем быстрее видеокарта будет «пережевывать» поступающую информацию.
  • Техпроцесс – технология изготовления основных микросхем видеокарты, указывается характерный размер. Чем меньше данный параметр, тем больше элементов можно уместить на кристалле микросхемы.
  • Текстурная и пиксельная скорости заполнения, измеряются в миллионах пикселей в секунду, показывают количество выводимой информации в единицу времени.
  • Выходы карты – первоначально видеоадаптер имел всего один разъем VGA (15-контактный D-Sub). В настоящее время платы оснащают разъемами DVI или HDMI либо Display Port. Порты D-Sub, DVI и HDMI являются эволюционными стадиями развития стандарта передачи видеосигнала, поэтому для соединения устройств с этими типами портов возможно использование переходников. DisplayPort позволяет подключать до четырех устройств, в том числе акустические системы, USB-концентраторы и иные устройства ввода-вывода. На видеокарте также возможно размещение видеовыходов и видеовходов устаревшего стандарта S-Video.
Никто не прокомментировал материал. Есть мысли?

Автор – не автор, а копипастер. Если копируешь что-то, то надо хотя бы проверять информацию.