Графический адаптер
Видеока́рта (известна также как графи́ческая пла́та, графи́ческая ка́рта, видеоада́птер) (англ. videocard ) — устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.
Обычно видеокарта является платой расширения и вставляется в разъём расширения, универсальный (ISA, VLB, PCI, PCI-Express) или специализированный (
Содержание
История
Одним из первых графических адаптеров для IBM PC стал MDA (Monochrome Display Adapter) в 1981 году. Он работал только в текстовом режиме с разрешением 80×25 символов (физически 720×350 точек) и поддерживал пять атрибутов текста: обычный, яркий, инверсный, подчёркнутый и мигающий. Никакой цветовой или графической информации он передавать не мог, и то, какого цвета будут буквы, определялось моделью использовавшегося монитора. Обычно они были чёрно-белыми, янтарными или изумрудными. Фирма Hercules в 1982 году выпустила дальнейшее развитие адаптера MDA, видеоадаптер графическое разрешение 720×348 точек и поддерживал две графические страницы. Но он всё ещё не позволял работать с цветом.
Первой цветной видеокартой стала IBM и ставшая основой для последующих стандартов видеокарт. Она могла работать либо в текстовом режиме с разрешениями 40×25 и 80×25 (матрица символа — 8×8), либо в графическом с разрешениями 320×200 или 640×200. В текстовых режимах доступно 256 атрибутов символа — 16 цветов символа и 16 цветов фона (либо 8 цветов фона и атрибут мигания), в графическом режиме 320×200 было доступно четыре палитры по четыре цвета каждая, режим высокого разрешения 640×200 был монохромным. В развитие этой карты появился
Стоит заметить, что интерфейсы с монитором всех этих типов видеоадаптеров были цифровые, MDA и HGC передавали только светится или не светится точка и дополнительный сигнал яркости для атрибута текста «яркий», аналогично CGA по трём каналам (красный, зелёный, синий) передавал основной видеосигнал, и мог дополнительно передавать сигнал яркости (всего получалось 16 цветов), EGA имел по две линии передачи на каждый из основных цветов, то есть каждый основной цвет мог отображаться с полной яркостью, 2/3, или 1/3 от полной яркости, что и давало в сумме максимум 64 цвета.
В ранних моделях компьютеров от IBM PS/2, появляется новый графический адаптер
Потом IBM пошла ещё дальше и сделала
С 1991 года появилось понятие VBE (VESA BIOS Extention — расширение VESA). SVGA воспринимается как фактический стандарт видеоадаптера где-то с середины 1992 года, после принятия ассоциацией VESA (Video Electronics Standart Association — ассоциация стандартизации видео-электроники) стандарта VBE версии 1.0. До того момента практически все видеоадаптеры SVGA были несовместимы между собой.
Графический пользовательский интерфейс, появившийся во многих операционных системах, стимулировал новый этап развития видеоадаптеров. Появляется понятие «графический ускоритель» (graphics accelerator). Это видеоадаптеры, которые производят выполнение некоторых графических функций на аппаратном уровне. К числу этих функций относятся, перемещение больших блоков изображения из одного участка экрана в другой (например при перемещении окна), заливка участков изображения, рисование линий, дуг, шрифтов, поддержка аппаратного курсора и т. п. Прямым толчком к развитию столь специализированного устройства явилось то, что графический пользовательский интерфейс несомненно удобен, но его использование требует от центрального процессора немалых вычислительных ресурсов, и современный графический ускоритель как раз и призван снять с него львиную долю вычислений по окончательному выводу изображения на экран.
Устройство
Современная видеокарта состоит из следующих частей:
Правильная и полнофункциональная работа современного графического адаптера обеспечивается с помощью видеодрайвера — специального программного обеспечения, поставляемого производителем видеокарты и загружаемого в процессе запуска операционной системы. Видеодрайвер выполняет функции интерфейса между системой с запущенными в ней приложениями и видеоадаптером. Так же как и видео-BIOS, видеодрайвер организует и программно контролирует работу всех частей видеоадаптера через специальные регистры управления, доступ к которым происходит через соответствующую шину.
Характеристики
Поколения 3D-ускорителей
Интерфейс
Первое препятствие к повышению быстродействия видеосистемы — это интерфейс передачи данных, к которому подключён видеоадаптер. Как бы ни был быстр процессор видеоадаптера, большая часть его возможностей останется незадействованной, если не будут обеспечены соответствующие каналы обмена информацией между ним, центральным процессором, оперативной памятью компьютера и дополнительными видеоустройствами. Основным каналом передачи данных является, конечно, интерфейсная шина материнской платы, через которую обеспечивается обмен данными с центральным процессором и оперативной памятью. Самой первой шиной использовавшейся в IBM PC была XT-Bus, она имела разрядность 8 бит данных и 20 бит адреса и работала на частоте 4,77 МГц. Далее появилась шина VLB (VESA Local Bus — локальная шина стандарта VESA). Работая на внешней тактовой частоте процессора, которая составляла от 25 МГц до 50 МГц, и имея разрядность 32 бит, шина VLB обеспечивала пиковую пропускную способность около 130 МиБ/с. Этого уже было более чем достаточно для всех существовавших приложений, помимо этого возможность использования её не только для видеоадаптеров, наличие трёх слотов подключения и обеспечение обратной совместимости с ISA (VLB представляет собой просто ещё один 116 контактный разъём за слотом ISA) гарантировали ей достаточно долгую жизнь и поддержку многими производителями чипсетов для материнских плат, и периферийных устройств, даже несмотря на то, что при частотах 40 МГц и 50 МГц обеспечить работу даже двух устройств подключенных к ней представлялось проблематичным из-за чрезмерно высокой нагрузки на каскады центрального процессора (ведь большинство управляющих цепей шло с VLB на процессор напрямую, безо всякой буферизации). И всё-таки, с учётом того, что не только видеоадаптер стал требовать высокую скорость обмена информацией, и явной невозможности подключения к VLB всех устройств (и необходимостью наличия межплатформенного решения, не ограничивающегося только PC), была разработана шина
С появлением процессоров Intel Pentium II, и серьёзной заявкой PC на принадлежность к рынку высокопроизводительных рабочих станций, а так же с появлением 3D-игр со сложной графикой, стало ясно, что пропускной способности PCI в том виде, в каком она существовала на платформе PC (обычно частота 33 МГц и разрядность 32 бит), скоро не хватит на удовлетворение запросов системы. Поэтому фирма Intel решила сделать отдельную шину для графической подсистемы, несколько модернизировала шину PCI, обеспечила новой получившейся шине отдельный доступ к памяти с поддержкой некоторых специфических запросов видеоадаптеров, и назвала это PCI Express версий 1.0 и 2.0, это последовательный, в отличие от AGP, интерфейс, его пропускная способность может достигать нескольких десятков ГБ/с. На данный момент произошёл практически полный отказ от шины AGP в пользу PCI Express. Однако стоит отметить, что некоторые производители до сих предлагают достаточно современные по своей конструкции видеоплаты с интерфейсами PCI и AGP — во многих случаях это достаточно простой путь резко повысить производительность морально устаревшего ПК в некоторых графических задачах.
Видеопамять
Кроме шины данных, второе узкое место любого видеоадаптера — это пропускная способность (англ. bandwidth ) памяти самого видеоадаптера. Причём, изначально проблема возникла даже не столько из-за скорости обработки видеоданных (это сейчас часто стоит проблема информационного «голода» видеоконтроллера, когда он данные обрабатывает быстрее, чем успевает их читать/писать из/в видеопамять), сколько из-за необходимости доступа к ним со стороны видеопроцессора, центрального процессора и RAMDAC’а. Дело в том, что при высоких разрешениях и большой глубине цвета для отображения страницы экрана на мониторе необходимо прочитать все эти данные из видеопамяти и преобразовать в аналоговый сигнал, который и пойдёт на монитор, столько раз в секунду, сколько кадров в секунду показывает монитор. Возьмём объём одной страницы экрана при разрешении 1024×768 точек и глубине цвета 24 бит (True Color), это составляет 2,25 МиБ. При частоте кадров 75 Гц необходимо считывать эту страницу из памяти видеоадаптера 75 раз в секунду (считываемые пикселы передаются в RAMDAC и он преобразовывает цифровые данные о цвете пиксела в аналоговый сигнал, поступающий на монитор), причём, ни задержаться, ни пропустить пиксел нельзя, следовательно, номинально потребная пропускная способность видеопамяти для данного разрешения составляет приблизительно 170 МиБ/с, и это без учёта того, что необходимо и самому видеоконтроллеру писать и читать данные из этой памяти. Для разрешения 1600x1200x32 бит при той же частоте кадров 75 Гц, номинально потребная пропускная составляет уже 550 МиБ/с, для сравнения, процессор Pentium-2 имел пиковую скорость работы с памятью 528 МиБ/с. Проблему можно было решать двояко — либо использовать специальные типы памяти, которые позволяют одновременно двум устройствам читать из неё, либо ставить очень быструю память. О типах памяти и пойдёт речь ниже.
Matrox и Number Nine, поскольку требует специальных методов доступа и обработки данных. Наличие всего одного производителя данного типа памяти (Samsung) сильно сократило возможности её использования. Видеоадаптеры, построенные с использованием данного типа памяти, не имеют тенденции к падению производительности при установке больших разрешений и частот обновления экрана, на однопортовой же памяти в таких случаях RAMDAC всё большее время занимает шину доступа к видеопамяти и производительность видеоадаптера может сильно упасть.
EDO DRAM (Extended Data Out DRAM — динамическое ОЗУ с расширенным временем удержания данных на выходе) — тип памяти с элементами конвейеризации, позволяющий несколько ускорить обмен блоками данных с видеопамятью приблизительно на 25 %.
SGRAM (Synchronous Graphics RAM — синхронное графическое ОЗУ) вариант DRAM с синхронным доступом. В принципе, работа SGRAM полностью аналогична SDRAM, но дополнительно поддерживаются ещё некоторые специфические функции, типа блоковой и масочной записи. В отличие от VRAM и WRAM, SGRAM является однопортовой, однако может открывать две страницы памяти как одну, эмулируя двухпортовость других типов видеопамяти.
MDRAM (Multibank DRAM — многобанковое ОЗУ) — вариант DRAM, разработанный фирмой MoSys, организованный в виде множества независимых банков объёмом по 32 КиБ каждый, работающих в конвейерном режиме.
Какой компонент компьютера (я сейчас про стационарные ПК), помимо материнской платы, неизменно вызывает уважение? Процессор – какой бы он ни был мощный, но это небольшой квадратик/прямоугольник, своим видом не вызывающий особых эмоций. Модули памяти, SSD? Да ладно! Кулер? Это, по сути, довольно простая, хотя большая и тяжелая, железка с пропеллером. Блок питания? В какой-то мере да, но особого трепета все равно нет. Что остается, видеокарта? А вот тут в точку. Если имеем дело с современным высокопроизводительным графическим адаптером, то берешь в руки — маешь вещь! Как она устроена, какова анатомия видеокарты – предмет нашего сегодня разговора.
Типы видеокарт
Существует три вида графических адаптеров:
Встроенное в процессор видеоядро сегодня нас интересует мало. Как и внешняя, хотя по сути, это выполненная в отдельном корпусе дискретная видеокарта. И вот она то, дискретная, и будет предметом этого материала.
Я не буду останавливаться на вопросах типа «зачем нужна видеокарта». На мой взгляд, абсолютно бессмысленно отвечать на очевидное. Это вопрос из разряда «зачем компьютеру блок питания» или «зачем автомобилю двигатель». Уверен, уж об основном назначении этого компонента вы и сами догадываетесь.
Не буду останавливаться и на этапах развития графических адаптеров. История эта интересна, разнообразна, полна драматических и, не побоюсь этого слова, трагических событий, но тема весьма обширная, и в данном случае мало помогающая разобраться в анатомии видеокарт.
Из чего состоит видеокарта
Когда мы рассматривали строение материнской платы, то в большинстве случаев «порционные судачки а натюрель» были на виду во всей красе. Практически все составные части видны и ко всем можно подобраться.
К сожалению, взяв в руки современную видеокарту, мы видим массивный радиатор с вентиляторами в количестве от одного до трех (хотя бывает и больше), на обратной стороне в лучшем случае видим тыльную сторону печатной платы, да и то скорее всего она будет закрыта металлической или композитной пластиной. Да с торца несколько разъемов. Что и как там устроено – почти ничего не видно.
Поэтому, чтобы узнать основы и составные части современной видеокарты, придется снимать систему охлаждения. После того, как с этой задачей справились, наконец-то нашему взору откроется анатомическая картина графического адаптера.
Итак, из каких основных частей состоит видеокарта:
Причем, практически все эти части присутствуют и на видеокартах, выпущенных десяток лет назад, и даже двадцать…
На каждом из этих компонентов остановимся поподробнее. Разберемся, что это, как устроено и для чего требуется. И нужно ли вообще.
Графический процессор (GPU)
Какую бы видеокарту вы не использовали (AMD или NVidia), выглядят они похоже. Центральное место на печатной плате (ну или примерно центральное, но в любом случае заметное), занято графическим процессором. В окружении других компонентов, до которых речь тоже дойдет.
Наверняка напрашивается аналогия с центральным процессором, и она вполне уместна. Тем более, что и название похожее – там CPU (Central Processing Unit), здесь GPU (Graphics Processing Unit). И то, и то – процессоры. И в чем между ними отличие?
Если меряться транзисторами, из которых состоят CPU и GPU, то у последних их больше. Например, во взятой для образца видеокарте установлен чип NVidia GA104-400-A1, в котором 17.4 млрд транзисторов. А, скажем, AMD Ryzen 7 5800H обходится почти вдвое меньшим количеством. Выходит, графический процессор круче?
В чем-то да, а в чем-то и нет. Некогда большую часть работы по обсчету изображений (например, в играх), которые надо вывести на экран, выполнял CPU. Однако, постоянное усложнение этой работы и необходимость высокой вычислительной мощности привело к тому, что возможностей процессора стало не хватать.
CPU – универсальное устройство, выполняющее множество разных функций. В этом его сила, и в нем же слабость. В данном случае узкоспециализированный GPU позволяет выполнять работу, связанную с подготовкой и выводом изображения на экран монитора, гораздо быстрее.
Связано это в первую очередь с многоядерной и многопоточной обработкой данных. Конечно, CPU тоже умеет выполнять операции параллельно, но давайте посмотрим ядрам и потокам в глаза. Ознакомимся со спецификациями: например, у AMD Ryzen 7 5800H 8 ядер и 16 потоков. Немало. А что там с чипом NVidia GA104?
Аналогом процессорным ядрам в графических чипах NVidia являются ядра CUDA, коих в данной модели GPU аж 6 144. Пусть эти ядра более простые и менее универсальные, но зато их на порядки больше.
У GPU AMD архитектура чипов несколько иная, но сути это не меняет. Если брать за пример сопоставимый графический процессор Radeon RX 6700 XT, то тоже видим более 17 млрд транзисторов и 2 560 процессорных ядер.
Надо сказать, что нельзя сравнивать видеокарты просто по количеству этих самых ядер. В пределах одного производителя можно, хотя и с оговорками, но вот предположение, что NVidia GA104 (6 144 ядер) примерно в 2.5 раза мощнее AMD Radeon RX 6700 XT (2 560 ядер), неверно.
Ну так какие же функции выполняет GPU? В первую очередь – преобразования данных, переданных центральным процессором в изображение, которое отображается на экране монитора. Эта работа выполняется очень быстро, ведь «картинка» постоянно изменяется и в секунду надо подготовить их десятки, а то и сотни, чтобы все изменения на экране происходили плавно, без рывков и замираний.
Собственно, поэтому GPU и получились такими сложными. Но, согласитесь, было бы неразумно использовать такую мощь только для игр или специфических задач по визуализации. Тысячи простаивающих вычислительных ядер – это слишком расточительно. Поэтому видеокарты активно используются для математических операций в научных программах, инженерных и аналитических расчетах и т. п.
Видеопамять
К сожалению, пользователи не имеют возможности устанавливать столько памяти, сколько им захочется, как это существует в материнских платах. Видеокарты изначально комплектуются определенным объемом VRAM, который зависит от используемой модели GPU. Изменить это значение почти невозможно.
Почему почти? Некоторые энтузиасты экспериментируют с установкой большего количества микросхем памяти на плату, но это мероприятие непростое, недешевое, и не гарантирующее результат. Короче, приходится мириться с тем, что есть. Подопытная MSI GeForce RTX 3070 Ti Suprim X обходится объемом 8 ГБ GDDR6X.
На плате чипы видеопамяти обычно располагаются рядом с GPU, окружая его. На изображении выше видны 8 микросхем производства Micron, расположенные с трех сторон вокруг графического процессора. Видеокарты попроще могут обходиться меньшим количеством чипов, помощнее – большим.
Надо еще сказать, что сама видеопамять бывает разной. Сейчас можно найти видеокарты с чипами GDDR5, GDDR6 и GDDR6X. Первый тип уже считается устаревшим и применяется разве что в бюджетных или уходящих с рынка моделях видеокарт. Например, в NVidia GeForce GTX 1050. В основном используется память 6-го поколения.
Есть еще память HBM2 (High Bandwidth Memory), но при всех своих преимуществах она не получила до сих пор широко применения, и в немалой степени из-за того, что она дороже, чем та же GDDR6(X).
Если говорить кратко, то в отличие от планарной GDDR6, технология HBM имеет многослойную структуру ячеек. Чем-то напоминает 3D NAND. Из-за этого у нее очень широкая шина доступа – 1024 бит и более. Физически чипы HBM располагаются в непосредственной близости от GPU. Этот тип видеопамяти использовали видеокарты Nvidia Tesla P100. Radeon RX Vega 56, Radeon Vega RX 64, Nvidia Quadro GP100 и некоторые другие.
Тем не менее, подавляющее большинство современных моделей видеокарт основаны на проверенной GDDR6(X).
Видеопамять непосредственно используется во время подготовки изображений, и чем больше объем, тем быстрее будет идет расчет, и тем меньше понадобится обращаться к процессору, ОЗУ и накопителю за новой порцией данных. И чем выше разрешение изображения, тем видеопамяти хочется побольше.
На данный момент необходимым минимумом можно считать объем в 6 ГБ, который позволит получить уже качественную, плавную картинку на экране с большим количеством FPS.
Система питания
Надежное электропитание – основа стабильной работы любого устройства, и видеокарта тут не исключение. Нагрузка на систему электропитания весьма высока, если учесть потребление электроэнергии современными GPU.
Сравните, например, младший GEFORCE RTX 3060, энергопотребление которого заявлено равным 170 Вт и флагманский Intel Core i9-11900K, у которого TDP равно 125 Вт. Если брать старший GEFORCE RTX 3090, то его аппетит уже находится на уровне 350 Вт.
Организовано энергопотребление по тому же принципу, что и питание процессора. Уже привычная связка ШИМ-контроллера и n-го количества фаз на силовых сборках. Контроллеров может быть и несколько.
Фазы питания располагаются либо с одной стороны графического процессора, либо с двух, если этих фаз много. А в топовых видеокартах их действительно много.
У взятой для примера MSI GeForce RTX 3070 Ti Suprim X их 13 штук, 2 из которых питают видеопамять. Кстати, в данном случае эти две фазы используют отдельные элементы для верхнего и нижнего плеча, в то время как для GPU применяются 50-амперные сборки Alpha & Omega AOZ5311NQI.
Система охлаждения
Именно этот компонент (огромный радиатор, несколько вентиляторов) и бросается в глаза при первом взгляде на видеокарту. Исключение составляют, пожалуй, только бюджетные маломощные графические адаптеры, которые обходятся скромными по размеру и весу системами охлаждения.
Если же мы говорим о чем-то типа RTX 2060/3060 или AMD 6700 и выше, то система охлаждения будет внушать уважение, как минимум своим весом.
Радиатор представляет собой довольно замысловатую железяку с большим количеством тонких ламелей, состоящую из нескольких секций и теплорассеивающих пластин, контактирующих с графическим процессором, чипами памяти и силовыми элементами системы питания.
Практически все производители устанавливают несколько тепловых трубок для повышения эффективности работы радиатора.
Тепловая трубка – металлическая (часто медная, может быть покрыта никелем) герметичная, с легкоиспаряющейся жидкостью внутри. Эта жидкость испаряется в месте соприкосновения одного конца трубки с горячим элементом, после чего пар конденсируется на противоположном, холодном конце, после чего жидкость возвращается в горячий конец трубки.
Чаще всего применяются тепловые трубки с пористыми внутренними стенками, по которым жидкость под воздействием капиллярных сил перемещается в зону испарения вне зависимости от положения самой трубки в пространстве. Этой жидкостью может быть вода, аммиак, этанол и т. п.
Встречается и такой элемент, как испарительная камера. Это некая модернизация идеи тепловой трубки, использующая тот же принцип испарения жидкости, при которой отбирается тепло у охлаждаемого элемента. Разница в том, что плоская многослойная конструкция увеличивает эффективность этого процесса.
У разных производителей количество и конфигурация трубок различается. Часть их может использоваться для контакта с GPU, а для элементов системы питания устанавливается индивидуальная трубка. Может использоваться технология «прямого контакта», при которой тепловые трубки непосредственно контактируют с графическим процессором. Это позволяет улучшить теплообмен.
Однако недостаточно просто забрать тепло тем или иным способом – тепловой трубкой и/или радиатором, это тепло надо еще куда-то деть. Для этого применяют вентилятор(ы).
Несколько лет назад референсные видеокарты NVidia и AMD использовали систему охлаждения с помощью турбины. Суть ее в том, что устанавливается только один радиальный вентилятор, который забирает воздух из корпуса и прогоняет его через всю видеокарту, выбрасывая наружу.
Под кожухом видеокарты установлен радиатор с большим количеством ребер. Главным недостатком такой системы охлаждения является шумность. Единственный вентилятор имеет небольшой размер, а для обеспечения нужного потока воздуха ему приходится вращаться на большой скорости. А чем она выше, тем выше и шум.
Оба производителя отказались от турбинной системы, начиная с семейств видеокарт NVidia RTX 2000 и AMD RX 6000. Предпочтение отдано более привычным осевым вентиляторам, которых может быть от одного до нескольких в зависимости от размера видеокарты и «горячности» ее нрава.
Рассматриваемая сегодня MSI GeForce RTX 3070 Ti Suprim X имеет три вентилятора диаметром 95 мм каждый. Их максимальная скорость вращения составляет 3 250 об/мин, но надо очень постараться, чтобы ветродуи разогнались до таких скоростей. В реальности даже под максимальной нагрузкой они вращаются на меньших скоростях, а при температуре графического чипа ниже 60°C вообще останавливаются.
Некоторые производители используют противоположное направление вращения вентиляторов. Если их два, то один вращается по часовой стрелке, другой против. При трех вентиляторах обычно средний имеет противоположное направление вращения по отношению к крайним. Производители утверждают, что таким образом удается бороться с турбулентностью воздушного потока и улучшать обдув радиатора.
Редкие модели видеокарт могут оснащаться одним или двумя дополнительными вентиляторами небольшого размера. Например, INNO3D GeForce RTX 3070 ICHILL X4 имеют небольшой вентилятор на верхней грани, обдувающий тепловую трубку с радиатором от цепей VRM.
Альтернативой штатным системам охлаждения может быть жидкостная, которую можно установить самостоятельно, или производитель изначально предлагает модификацию видеокарты со смонтированным радиатором СЖО. Принципиально она не отличается от той, что используется для CPU, но есть некоторые различия. Проблема в том, что помимо графического чипа необходимо охлаждать еще микросхемы видеопамяти и цепи VRM, что делает теплосъемник довольно сложным конструктивно.
Полезной вещью может оказаться и защитная панель, которая закрывает обратную сторону печатной платы. Она как минимум защищает плату от возможных повреждений, улучшает механическую прочность видеокарты, а часто еще и участвует в охлаждении, для чего через термопрокладки контактирует с печатной платой в месте установки, скажем, силовых элементов системы питания.
Интерфейсный разъем для подключения к материнской плате
Все видеокарты последних поколений используют интерфейс PCI-Express. Последние поколения перешли на 4-ю версию, хотя без проблем работают и в более старых версиях, например, PCIe 3.0.
Видеокарты получают от процессора 16 интерфейсных линий. В зависимости от CPU может отличаться количество этих линий и версия интерфейса. Процессоры AMD Ryzen последних поколений и интеловские «камни» могут полноценно обеспечить видеокарту этими «дорожками» для доставки данных.
Если же по какой-то причине нет возможности обеспечить видеокарту всеми 16-ю линиями (например, к процессору подключен второй слот PCIe на материнской плате, и он задействован под какой-либо контроллер) и ей осталась только половина, то… ничего страшного не произойдет. Видеокарта будет прекрасно работать, и маловероятно, что вы вообще заметите какие-либо изменения.
Разъем(ы) питания
Но не только передачей данных занимается разъем PCIe. Через него подается питание на видеокарту. И все бы ничего, но есть проблема. Он не в состоянии обеспечить нормальное питание даже младшей в линейке моделей видеокарты. Почему?

Давайте взглянем на иллюстрацию, показывающую часть разъема PCIe, точнее, короткую его часть до перемычки. Здесь 22 контакта, часть занята для служебных нужд, а часть используется для подачи напряжений 12 В и 3.3 В.
Всего у нас есть пять 12-вольтовых контактов и три с напряжением 3.3 В. Согласно спецификациям на PCIe, максимальный ток для напряжения 3.3 В составляет 3 А, и 5.5 А для напряжения 12 В. Высчитать максимальную мощность теперь просто:
(5.5 (А) * 12 (В)) + (3 (А) * 3.3 (В)) = 75.9 Вт
Теперь вспомним, что для RTX 3060 максимальное потребление энергии указано равным 170 Вт, что более чем вдвое превышает возможности интерфейса PCIe. Где брать дополнительную мощность? Непосредственно от блока питания.
Для этого на видеокартах есть от одного до трех разъемов (с шестью или восемью контактами) для подключения шлейфа/ов от БП. И забывать об этом не следует. Блок питания вашего ПК должен обеспечить необходимое количество коннекторов.
Интерфейсные разъемы для подключения монитора/ов
Все эти чипы, радиаторы, вентиляторы – все это хорошо, но куда подключать монитор, чтобы что-то увидеть? Воспользоваться разъемами, которые располагаются на заднем торце видеокарты. В подавляющем большинстве случаев на современных видеокартах вы найдете один-два HDMI и пару-тройку DisplayPort.
Собственно, вот туда и подключайте, в зависимости от того, какой интерфейс у вашего монитора. Или нескольких, т. к. никто не запрещает использовать более одного средства отображения. В некоторых моделях видеокарт встречается еще и разъем USB Type-C, но это для специфических нужд.
Разъем для объединения видеокарт в режим SLI или CrossFire
Несколько лет назад тема объединения нескольких видеокарт для совместной работы с целью повысить производительность была очень популярна. NVidia представила технологию SLI, у AMD аналог обзывается CrossFire.
Сейчас это стало не столь интересно, т. к. такой режим работы не очень соответствовал ожиданиям. Затраты на покупку двух-трех видеокарт не оправдывают полученного прироста быстродействия.
Неудивительно, что в 3000-й серии видеокарт от NVidia поддержка SLI представлена ограниченно. Я бы сказал, что довольно мало моделей позволяет использовать их таким образом.
А вот видеокарты, например, 1000-й серии имеют такую поддержку. Чтобы задействовать технологию SLI необходимо, чтобы на видеокарте был специальный разъем на верхней грани.
На иллюстрации показан такой разъем для видеокарты Gigabyte GeForce GTX 1070 G1 Gaming. Чтобы объединить два графических адаптера, требуется использовать специальную перемычку, которая устанавливается в этот разъем.
Повторюсь, что современные модели видеокарт в большинстве своем такой функционал не поддерживают.
Что еще?
Я не останавливаюсь подробно на вспомогательных функциях видеокарт. Сюда можно отнести управление подсветкой, наличие небольшого дисплея для вывода служебной информации или пользовательских изображений.
Разве что стоит упомянуть наличие переключателя выбора одного из режимов работы видеокарты. Последние их поколения изначально имеют два BIOS. Первый ориентирован на тихую работу, что достигается снижением частоты работы GPU и оборотов вентиляторов. Второй – этакий «спорт-режим», который раскрывает все возможности видеокарты.
Ну почти все, т. к. пользователь также может самостоятельно устанавливать режимы работы видеокарты, заняться разгоном.
Заключение. Анатомия видеокарты – все для победы
Графический чип поменять нельзя, память доустановить нельзя, даже другое охлаждение смонтировать не так уж просто.
Мало того, следует помнить, что современные видеокарты для установки требуют как минимум 2 слота. Если у вас в материнскую плату уже установлены какие-либо адаптеры и контроллеры, посмотрите, а место для видеокарты есть?
При выборе графического адаптера придется разбираться с тем, какой чип, какая память стоит. Нелишним будет поинтересоваться, насколько мощная система питания, особенно если вы планируете поиграться с разгоном. То же самое относится и к системе охлаждения. В штатных режимах, конечно, справятся все, но вот при оверклокинге…
Полезно будет оценить, насколько выбранная видеокарта будет актуальна через год-два. При условии, конечно, что у вас нет привычки менять графическую плату сразу после появления нового семейства видеочипов.



















