Исходным материалом для рендеринга является множество треугольников различного размера, из которых складываются все объекты виртуального мира: пейзаж, игровые персонажи, монстры, оружие и т.д. Однако сами по себе модели, созданные из треугольников, выглядят как проволочные каркасы. Поэтому на них накладываются текстуры - цветные двухмерные «обои». И текстуры, и модели помещаются в память графической карты, а дальше, при создании каждого кадра игрового действия выполняется цикл рендеринга, состоящий из нескольких этапов.

1. Игровая программа отправляет графическому процессору информацию, описывающую игровую сцену: состав присутствующих объектов, их окраску, положение относительно точки наблюдения, освещение и видимость. Передаются и дополнительные данные, характеризующие сцену и позволяющую видеокарте увеличить реалистичность получаемого изображения, добавив туман, размытие, блики и т.д.

2. Графический процессор располагает трехмерные модели в кадре, определяет, какие из входящих в них треугольников находятся на виду и отсекает скрытые другими объектами или, например, тенями.

Затем создаются источники света и определяется их влияние на цвет освещаемых объектов. Этот этап рендеринга называется «трансформация и освещение» (T&L - Transformation & Lighting).

3. На видимые треугольники накладываются текстуры с применением различных технологий фильтрации. Билинейная фильтрация предусматривает наложение на треугольник двух версий текстуры с различным разрешением. Результатом ее использования являются хорошо различимые границы между областями четких и размытых текстур, возникающие на трехмерных поверхностях перпендикулярно направлению обзора. Трилинейная фильтрация, использующая три варианта одной текстуры, позволяет создать более мягкие переходы.

Однако в результате использования обеих технологий по-настоящему четко выглядят лишь те текстуры, которые расположены перпендикулярно к оси зрения. При взгляде под углом они сильно размываются. Для того чтобы это предотвратить, используется анизотропная фильтрация.

Такой метод фильтрации текстур задается в настройках драйвера видеоадаптера либо непосредственно в компьютерной игре. Кроме того, можно изменять силу анизотропной фильтрации: 2х, 4х, 8х или 16х - чем больше «иксов», тем более четкими будут изображения на наклонных поверхностях. Но при увеличении силы фильтрации возрастает нагрузка на видеокарту, что может привести к снижению скорости работы и к уменьшению количества кадров, генерируемых в единицу времени.

На этапе текстурирования могут использоваться различные дополнительные эффекты. Например, наложение карт среды (Enironmental Mapping) позволяет создавать поверхности, в которых будет отражаться игровая сцена: зеркала, блестящие металлические предметы и т.д. Другой впечатляющий эффект получается с применением карт неровностей (Bump Mapping), благодаря которому свет, падающий на поверхность под углом, создает видимость рельефа.
Текстурирование является последним этапом рендеринга, после которого картинка попадает в кадровый буфер видеокарты и выводится на экран монитора.

Электронные компоненты видеокарты

Теперь, когда стало понятно, каким образом происходит процесс построения трехмерного изображения, можно перечислить технические характеристики компонентов видеокарты, которые определяют скорость процесса. Главными составными частями видеокарты являются графический процессор (GPU - Graphics Processing Unit) и видеопамять.

Графический процессор

Одной из основных характеристик этого компонента (как и центрального процессора ПК), является тактовая частота. При прочих равных условиях, чем она выше, тем быстрее происходит обработка данных, а следовательно - увеличивается количество кадров в секунду (FPS - frames per second) в компьютерных играх. Частота графического процессора - важный, но не единственный, влияющий на его производительность параметр - современные модели производства Nvidia и ATI, имеющие сопоставимый уровень быстродействия, характеризуются различными частотами GPU.

Для адаптеров Nvidia, обладающих высокой производительностью, характерны тактовые частоты GPU от 550 МГц до 675 МГц. Частоту работы графического процессора меньше 500 МГц имеют «середнячки» и дешевые низкопроизводительные карты.
В то же время GPU «топовых» карт производства ATI имеют частоты от 600 до 800 МГц, и даже у самых дешевых видеоадаптеров частота графического процессора не опускается ниже 500 МГц.

Однако, несмотря на то, что графические процессоры Nvidia обладают меньшей частотой, чем GPU, разработанные ATI, они обеспечивают, по крайней мере, такой же уровень производительности, а зачастую - и более высокий. Дело в том, что не меньшее значение, чем тактовая частота, имеют другие характеристики GPU.

1. Количество текстурных модулей (TMU - Texture Mapping Units) - элементов графического процессора, выполняющих наложение текстур на треугольники. От количества TMU напрямую зависит скорость построения трехмерной сцены.
2. Количество конвейеров рендеринга (ROP - Render Output Pipeline) - блоков, выполняющих «сервисные» функции (пару примеров, pls). В современных графических процессорах ROP, как правило, меньше, чем текстурных модулей, и это ограничивает общую скорость текстурирования. К примеру, чип видеокарты Nvidia GeForce 8800 GTX имеет 32 «текстурника» и 24 ROP. У процессора видеокарты ATI Radeon HD 3870 только 16 текстурных моделей и 16 ROP.

Производительность текстурных модулей выражается в такой величине как филлрейт - скорость текстурирования, измеряемая в текселах за секунду. Видеокарта GeForce 8800 GTX имеет филлрейт в 18,4 млрд текс/с. Но более объективным показателем является филлрейт, измеряемый в пикселах, так как он отражает скорость работы ROP. У GeForce 8800 GTX эта величина равна 13,8 млрд пикс./с.
3. Количество шейдерных блоков (шейдерных процессоров), которые - как следует из названия - занимаются обработкой пиксельных и вершинных шейдеров. Современные игры активно используют шейдеры, так что количество шейдерных блоков имеет решающее значение для определения производительности.

Не так давно графические процессоры имели отдельные модули для выполнения пиксельных и вершинных шейдеров. Видеокарты Nvidia серии GeForce 8000 и адаптеры ATI Radeon HD 2000 первыми перешли на унифицированную шейдерную архитектуру. Графические процессоры этих карт имеют блоки, способные обрабатывать как пиксельные, так и вершинные шейдеры - универсальные шейдерные процессоры (потоковые процессоры). Такой подход позволяет полностью задействовать вычислительные ресурсы чипа при любом соотношении пиксельных и вершинных расчетов в коде игры. Кроме того, в современных графических процессорах шейдерные блоки часто работают на частоте, превышающей тактовую частоту GPU (например, у GeForce 8800 GTX эта частота составляет 1350 МГц против «общих» 575 МГц).

Обращаем ваше внимание на то, что компании Nvidia и ATI по-разному считают количество шейдерных процессоров в своих чипах. К примеру, Radeon HD 3870 имеет 320 таких блоков, а GeForce 8800 GTX - только 128. На самом деле, ATI указывает вместо целых шейдерных процессоров их составные компоненты. В каждом шейдерном процессоре содержится по пять компонентов, так что общее количество шейдерных блоков у Radeon HD 3870 - всего 64, поэтому и работает эта видеокарта медленнее, чем GeForce 8800 GTX.

Память видео карты

Видеопамять по отношению к GPU выполняет те же функции, что и оперативная память - по отношению к центральному процессору ПК: она хранит весь «строительный материал», необходимый для создания изображения - текстуры, геометрические данные, программы шейдеров и т.д.

Какие характеристики видеопамяти влияют на производительность графической карты

1. Объем. Современные игры используют огромное количество текстур с высоким разрешением, и для их размещения требуется соответствующий объем видеопамяти. Основная масса выпускаемых сегодня «топовых» видеоадаптеров и карт среднего ценового диапазона снабжается 512 Мб памяти, которая не может быть увеличена впоследствии. Более дешевые видеокарты оснащаются вдвое меньшим объемом памяти, для современных игр его уже недостаточно.

В случае нехватки памяти графический процессор вынужден постоянно загружать текстуры из оперативной памяти ПК, связь с которой осуществляется гораздо медленнее, в результате производительность может заметно снижаться. С другой стороны, чрезмерно большой объем памяти может не дать никакого увеличения скорости, так как дополнительное «место» просто не будет использоваться. Покупать видеоадаптер с 1 Гб памяти имеет смысл только в том случае, если он принадлежит к «топовым» продуктам (видеокарты ATI Radeon HD 4870, Nvidia GeForce 9800, а также новейшие карты серии GeForce GTX 200).

2. Частота. Этот параметр у современных видеокарт может изменяться от 800 до 3200 МГц и зависит, в первую очередь, от типа используемых микросхем памяти. Чипы DDR 2 могут обеспечить рабочую частоту в пределах 800 МГц и используются только в самых дешевых графических адаптерах. Память GDDR 3 и GDDR 4 увеличивает частотный диапазон вплоть до 2400 МГц. Новейшие графические карты ATI Radeon HD 4870 используют память GDDR-5 с фантастической частотой - 3200 МГц.

Частота памяти, как и частота графического процессора, оказывает большое влияние на производительность видеокарты в играх, особенно при использовании полноэкранного сглаживания. При прочих равных условиях, чем больше частота памяти, тем выше быстродействие, т.к. графический процессор будет меньше «простаивать» в ожидании поступления данных. Частота памяти в 1800 МГц является нижней границей, отделяющей высокопроизводительные карты от менее быстрых.

3. Разрядность шины видеопамяти гораздо сильнее влияет на общую производительность карты, чем частота памяти. Она показывает, сколько данных может передать память за один такт. Соответственно, двукратное увеличение разрядности шины памяти эквивалентно удвоению ее тактовой частоты. Основная масса современных видеокарт имеют 256-битную шину памяти. Уменьшение разрядности до 128 или, тем более, до 64 бит наносит сильный удар по быстродействию. С другой стороны, в самых дорогих видеокартах шина может быть «расширена» до 512 бит (пока этим может похвастаться лишь новейший GeForce GTX 280), что оказывается весьма кстати, принимая во внимание мощность их графических процессоров.

Где найти информацию о технических характеристиках видеокарты

Если графическая карта обладает некими выдающимися параметрами (высокая тактовая частота процессора и памяти, ее объем), то они, как правило, указываются непосредственно на коробке. Но наиболее полные спецификации видеоадаптеров и GPU, на которых они основаны, можно найти только в Интернете. Общая информация выкладывается на корпоративных сайтах производителей графических процессоров: Nvidia (www.nvidia.ru) и ATI (www.ati.amd.com/ru). Подробности можно узнать на неофициальных веб-сайтах, посвященных видеокартам - www.nvworld.ru и www.radeon.ru. Хорошим подспорьем станет электронная энциклопедия Wikipedia (www.ru.wikipedia.org). Пользователи, покупающие карту с прицелом на разгон могут воспользоваться ресурсом www.overclockers.ru.

Одновременное использование двух видеокарт

Для того чтобы получить максимальную производительность, можно установить в компьютер сразу две видеокарты. Производители предусмотрели для этого соответствующие технологии - SLI (Scalable Link Interface, используется картами Nvidia) и CrossFire (разработка ATI). Для того чтобы воспользоваться ими, материнская плата должна не только иметь два слота PCI-E для видеокарт, но и поддерживать одну из названных технологий. Многие «материнки» на чипсетах Intel могут использовать платы ATI в режиме CrossFire, а вот объединить в одну «упряжку» две (или даже три!) видеокарты производства Nvidia могут лишь платы на чипсетах этой же фирмы. В случае, если материнская плата не обладает поддержкой этих технологий, две видеокарты смогут с ней работать, но в играх будет использоваться только одна, а вторая лишь даст возможность выводить изображение на пару дополнительных мониторов.
Заметим, что использование двух видеокарт не приводит к удвоению производительности. Средний результат, на который стоит рассчитывать - 50% прироста скорости. Кроме того, весь потенциал тандема будет раскрыт лишь при использовании мощного центрального процессора и монитора с высоким разрешением.

Что такое шейдеры

Шейдеры - микропрограммы, присутствующие в коде игры, с помощью которых можно изменять процесс построения виртуальной сцены, открывая возможности, недостижимые при использовании традиционных средств 3D-рендеринга. Современная игровая графика без шейдеров немыслима.

Вершинные шейдеры изменяют геометрию трехмерных объектов, благодаря чему можно реализовать естественную анимацию сложных моделей игровых персонажей, физически корректную деформацию предметов или настоящие волны на воде. Пиксельные шейдеры применяются для изменения цвета пикселей и позволяют создавать такие эффекты, как реалистичные круги и рябь на воде, сложное освещение и рельеф поверхностей. Кроме того, с помощью пиксельных шейдеров осуществляется постобработка кадра: всевозможные «кинематографические» эффекты размытия движущихся объектов, сверхъяркого света и т.д.

Существует несколько версий реализации шейдерной модели (Shader Model). Все современные видеокарты поддерживают пиксельные и вершинные шейдеры версии 4.0, обеспечивающие по сравнению с предыдущей - третьей - версией более высокую реалистичность эффектов. Shader Model 4.0 поддерживается API DirectX 10 , которая работает исключительно в среде Windows Vista. Кроме того, сами компьютерные игры должны быть «заточены» под DirectX 10.

Нужна ли AGP-видеокарта старой системе

Если «материнка» вашего ПК оснащена портом AGP, возможности апгрейда видеокарты сильно ограничены. Максимум, который может себе позволить обладатель такой системы - это видеокарты серии Radeon HD 3850 фирмы AMD (ATI).

По современным меркам, они обладают производительностью ниже среднего. Кроме того, подавляющее большинство материнских плат с поддержкой интерфейса AGP предназначено для устаревших процессоров Intel Pentium 4 и AMD Athlon XP, так что общее быстродействие системы все равно будет недостаточно высоким для современной трехмерной графики. Только на материнские платы для процессоров AMD Ahtlon 64 с разъемом Socket 939 стоит устанавливать новые видеокарты с портом AGP. Во всех остальных случаях лучше купить новый компьютер с интерфейсом PCI-E, памятью DDR 2 (или DDR 3) и современным ЦП.

Теги материала: графическая карта, видео, карта, ускоритель, графики

Встроенный графический процессор как для геймеров, так и для нетребовательных пользователей играет важную роль.

От него зависит качество игр, фильмов, просмотра видео в интернете и изображений.

Принцип работы

Графический процессор интегрируется в материнскую плату компьютера - так выглядит встроенный графический .

Как правило, используют его, чтобы убрать необходимость установки графического адаптера - .

Такая технология помогает снизить себестоимость готового продукта. Кроме того, благодаря компактности и нетребовательного энергопотребления таких процессоров их часто устанавливают в ноутбуки и маломощные настольные компьютеры.

Таким образом, встроенные графические процессоры заполонили эту нишу настолько, что 90% ноутбуков на полках магазинов США имеют именно такой процессор.

Вместо обычной видеокарты во встроенных графиках часто вспомогательным средством служит сама оперативная память компьютера.

Правда, такое решение несколько ограничивает производительность девайса. Всё же сам компьютер и графический процессор используют одну шину для памяти.

Так что подобное “соседство” сказывается на выполнении задач, особенно при работе со сложной графикой и во время игрового процесса.

Виды

Встроенная графика имеет три группы:

  1. Графика с разделяемой памятью - устройство, в основе которого совместное с главным процессором управление оперативной памятью. Это значительно уменьшает стоимость, улучшает систему энергосбережения, однако ухудшает производительность. Соответственно, для тех, кто работает со сложными программами, встроенные графические процессоры такого вида с большей вероятностью не подойдут.
  2. Дискретная графика - видеочип и один-два модуля видеопамяти распаяны на системной плате. Благодаря этой технологии существенно улучшается качество изображения, а также становится возможным работать с трехмерной графикой с наилучшими результатами. Правда, заплатить за это придется немало, а если вы и подыскиваете высокомощный процессор по всем параметрам, то стоимость может быть неимоверно высокой. К тому же, счет за электричество несколько вырастет - энергопотребление дискретных графических процессоров выше обычного.
  3. Гибридная дискретная графика - сочетание двух предыдущих видов, что обеспечило создание шины PCI Express. Таким образом, доступ к памяти осуществляется и через распаянную видеопамять, и через оперативную. С помощью этого решения производители хотели создать компромиссное решение, но оно все же не нивелирует недостатки.

Производители

Занимаются изготовлением и разработкой встроенных графических процессоров, как правило, крупные компании - , и , но подключаются к этой сфере и многие небольшие предприятия.

Сделать это несложно. Найдите надпись Primary Display или Init Display First. Если не видите что-то такое, поищите Onboard, PCI, AGP или PCI-E (всё зависит от установленных шин на материнку).

Выбрав PCI-E, к примеру, вы включаете видеокарту PCI-Express, а встроенную интегрированную отключаете.

Таким образом, чтобы включить интегрированную видеокарту нужно найти соответствующие параметры в биосе. Часто процесс включения автоматический.

Отключить

Отключение лучше проводить в БИОСе. Это самый простой и незатейливый вариант, подходящий для практически всех ПК. Исключением являются разве что некоторые ноутбуки.

Снова же найдите в БИОС Peripherals или Integrated Peripherals, если вы работаете на десктопе.

Для ноутбуков название функции другое, причем и не везде одинаковое. Так что просто найдите что-то относящиеся к графике. К примеру, нужные опции могут быть размещены в разделах Advanced и Config.

Отключение тоже проводится по-разному. Иногда хватает просто щелкнуть “Disabled” и выставить PCI-E видеокарту первой в списке.

Если вы пользователь ноутбука, не пугайтесь, если не можете найти подходящий вариант, у вас априори может не быть такой функции. Для всех остальных устройств же правила простые - как бы не выглядел сам БИОС, начинка та же.

Если вы имеете две видеокарты и они обе показаны в диспетчере устройств, то дело совсем простое: кликнете на одну из них правой стороной мышки и выберите “отключить”. Правда, учитывайте, что дисплей может потухнуть. У , скорее всего, так и будет.

Однако и это решаемая проблема. Достаточно перезагрузить компьютер или же по .

Все последующие настройки проведите на нем. Если не работает данный способ, сделайте откат своих действий с помощью безопасного режима. Также можете прибегнуть и к предыдущему способу - через БИОС.

Две программы - NVIDIA Control Center и Catalyst Control Center - настраивают использование определенного видеоадаптера.

Они наиболее неприхотливы по сравнению с двумя другими способами - экран вряд ли выключится, через БИОС вы тоже случайно не собьете настройки.

Для NVIDIA все настройки находятся в разделе 3D.

Выбрать предпочитаемый видеоадаптер можно и для всей операционной системы, и для определенных программ и игр.

В ПО Catalyst идентичная функция расположена в опции «Питание» в подпункте “Switchable Graphics”.

Таким образом, переключиться между графическими процессорами не составляет особого труда.

Есть разные методы, в частности, и через программы, и через БИОС, Включение или выключение той или иной интегрированной графики может сопутствоваться некоторыми сбоями, связанных преимущественно с изображением.

Может погаснуть или просто появиться искажения. На сами файлы в компьютере ничего не должно повлиять, разве что вы что-то наклацали в БИОСе.

Заключение

В итоге, встроенные графические процессоры пользуются спросом за счет своей дешевизны и компактности.

За это же придется платить уровнем производительности самого компьютера.

В некоторых случая интегрированная графика просто необходима - дискретные процессоры идеальны для работы с трехмерными изображениями.

К тому же, лидеры отрасли - Intel, AMD и Nvidia. Каждый из них предлагает свои графические ускорители, процессоры и другие составляющие.

Последние популярные модели - Intel HD Graphics 530 и AMD A10-7850K. Они довольно функциональны, но имеют некоторые огрехи. В частности, это относится к мощности, производительности и стоимости готового продукта.

Включить или отключить графический процессор со встроенным ядром можно или же самостоятельно через БИОС, утилиты и разного рода программы, но и сам компьютер вполне может сделать это за вас. Всё зависит от того, какая видеокарта подключена к самому монитору.

Процессоры и графические ускорители очень похожи, они оба сделаны из сотен миллионов транзисторов и могут обрабатывать тысячи операций за секунду. Но чем именно отличаются эти два важных компонента любого домашнего компьютера?

В данной статье мы попытаемся очень просто и доступно рассказать, в чем отличие CPU от GPU. Но сначала нужно рассмотреть два этих процессора по отдельности.

CPU (Central Processing Unit или же Центральное Процессорное Устройство) часто называют "мозгом" компьютера. Внутри центрального процессора расположено около миллиона транзисторов, с помощью которых производятся различные вычисления. В домашних компьютерах обычно устанавливаются процессоры, имеющие от 1 до 4 ядер с тактовой частотой приблизительно от 1 ГГц до 4 ГГц.

Процессор является мощным, потому что может делать все. Компьютер способен выполнить какую-либо задачу, так как процессор способен выполнить эту задачу. Программистам удалось достичь этого благодаря широким наборам инструкций и огромным спискам функций, совместно используемых в современных центральных процессорах.

Что такое GPU?

GPU (Graphics Processing Unit или же Графическое Процессорное Устройство) представляет собой специализированный тип микропроцессора, оптимизированный для очень специфических вычислений и отображения графики. Графический процессор работает на более низкой тактовой частоте в отличие от процессора, но имеет намного больше процессорных ядер.

Также можно сказать, что GPU - это специализированный CPU, сделанный для одной конкретной цели - рендеринг видео. Во время рендеринга графический процессор огромное количество раз выполняет несложные математические вычисления. GPU имеет тысячи ядер, которые будут работать одновременно. Хоть и каждое ядро графического процессора медленнее ядра центрального процессора, это все равно эффективнее для выполнения простых математических вычислений, необходимых для отображения графики. Этот массивный параллелизм является тем, что делает GPU способным к рендерингу сложной 3D графики, требуемой современными играми.

Отличие CPU и GPU

Графический процессор может выполнить лишь часть операций, которые может выполнить центральный процессор, но он делает это с невероятной скоростью. GPU будет использовать сотни ядер, чтобы выполнить срочные вычисления для тысяч пикселей и отобразить при этом сложную 3D графику. Но для достижения высоких скоростей GPU должен выполнять однообразные операции.

Возьмем, например, Nvidia GTX 1080. Данная видеокарта имеет 2560 шейдерных ядер. Благодаря этим ядрам Nvidia GTX 1080 может выполнить 2560 инструкций или операций за один такт. Если вы захотите сделать картинку на 1% ярче, то GPU с этим справится без особого труда. А вот четырехъядерный центральный процессор Intel Core i5 сможет выполнить только 4 инструкции за один такт.

Тем не менее, центральные процессоры более гибкие, чем графические. Центральные процессоры имеют больший набор инструкций, поэтому они могут выполнять более широкий диапазон функций. Также CPU работают на более высоких максимальных тактовых частотах и имеют возможность управлять вводом и выводом компонентов компьютера. Например, центральный процессор может интегрироваться с виртуальной памятью, которая необходима для запуска современной операционной системы. Это как раз то, что графический процессор выполнить не сможет.

Вычисления на GPU

Даже несмотря на то, что графические процессоры предназначены для рендеринга, они способны на большее. Обработка графики - это только вид повторяющихся параллельных вычислений. Другие задачи, такие как майнинг Bitcoin и взломы паролей полагаются на одни и те же виды массивных наборов данных и простых математических вычислений. Именно поэтому некоторые пользователи используют видеокарты для не графических операций. Такое явление называется GPU Computation или же вычисления на GPU.

Выводы

В данной статье мы провели сравнение CPU и GPU. Думаю, всем стало понятно, что GPU и CPU имеют схожие цели, но оптимизированы для разных вычислений. Пишите свое мнение в комментариях, я постараюсь ответить.

Диспетчер задач Windows 10 содержит подробные инструменты мониторинга графического процессора (GPU ). Вы можете просматривать использование каждого приложения и общесистемного графического процессора, а Microsoft обещает, что показатели диспетчера задач будут более точными, чем показатели сторонних утилит.

Как это работает

Эти функции графического процессора были добавлены в обновлении Fall Creators для Windows 10 , также известном как Windows 10 версия 1709 . Если вы используете Windows 7, 8 или более старую версию Windows 10, вы не увидите эти инструменты в своем диспетчере задач.

Windows использует более новые функции в Windows Display Driver Model, чтобы извлекать информацию непосредственно из графического процессора (VidSCH) и менеджера видеопамяти (VidMm) в графическом ядре WDDM, которые отвечают за фактическое распределение ресурсов. Он показывает очень точные данные независимо от того, какие приложения API используют для доступа к GPU-Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle или чему-либо еще.

Именно поэтому в диспетчере задач отображаются только системы с совместимыми с WDDM 2.0 графическими процессорами . Если вы этого не видите, графический процессор вашей системы, вероятно, использует более старый тип драйвера.

Вы можете проверить, какая версия WDDM используется вашим драйвером GPU , нажав кнопку Windows+R, набрав в поле «dxdiag », а затем нажмите «Enter », чтобы открыть инструмент «Средство диагностики DirectX ». Перейдите на вкладку «Экран » и посмотрите справа от «Модель » в разделе «Драйверы ». Если вы видите здесь драйвер WDDM 2.x, ваша система совместима. Если вы видите здесь драйвер WDDM 1.x, ваш GPU несовместим.

Как просмотреть производительность графического процессора

Эта информация доступна в диспетчере задач , хотя по умолчанию она скрыта. Чтобы открыть ее, откройте Диспетчер задач , щелкнув правой кнопкой мыши на любом пустом месте на панели задач и выбрав «Диспетчер задач » или нажав Ctrl+Shift+Esc на клавиатуре.

Нажмите кнопку «Подробнее » в нижней части окна «Диспетчер задач », если вы видите стандартный простой вид.

Если GPU не отображается в диспетчере задач , в полноэкранном режиме на вкладке «Процессы » щелкните правой кнопкой мыши любой заголовок столбца, а затем включите опцию «Графический процессор ». Это добавит столбец графического процессора , который позволяет увидеть процент ресурсов графического процессора , используемых каждым приложением.

Вы также можете включить опцию «Ядро графического процессора », чтобы увидеть, какой графический процессор использует приложение.

Общее использование GPU всех приложений в вашей системе отображается в верхней части столбца Графического процессора . Щелкните столбец GPU , чтобы отсортировать список и посмотреть, какие приложения используют ваш GPU больше всего на данный момент.

Число в столбце Графический процессор - это самое высокое использование, которое приложение использует для всех движков. Так, например, если приложение использует 50% 3D-движка GPU и 2% декодирования видео движка GPU, вы просто увидите, что в столбце GPU отображается число 50%.

В столбце «Ядро графического процессора » отображается каждое приложение. Это показывает вам, какой физический GPU и какой движок использует приложение, например, использует ли он 3D-движок или механизм декодирования видео. Вы можете определить, какой графический процессор соответствует определенному показателю, проверив вкладку «Производительность », о которой мы поговорим в следующем разделе.

Как просмотреть использование видеопамяти приложения

Если вам интересно, сколько видеопамяти используется приложением, вам нужно перейти на вкладку «Подробности » в диспетчере задач. На вкладке «Подробности » щелкните правой кнопкой мыши любой заголовок столбца и выберите «Выбрать столбцы ». Прокрутите вниз и включите колонки «Графический процессор », «Ядро графического процессора », « » и « ». Первые два доступны также на вкладке «Процессы », но последние две опции памяти доступны только на панели «Подробности ».

Столбец «Выделенная память графического процессора » показывает, сколько памяти приложение использует на вашем GPU . Если на вашем ПК установлена дискретная видеокарта NVIDIA или AMD, то это часть его VRAM, то есть сколько физической памяти на вашей видеокарте использует приложение. Если у вас встроенный графический процессор , часть вашей обычной системной памяти зарезервирована исключительно для вашего графического оборудования. Это показывает, какая часть зарезервированной памяти используется приложением.

Windows также позволяет приложениям хранить некоторые данные в обычной системной памяти DRAM. Столбец «Общая память графического процессора » показывает, сколько памяти приложение использует в настоящее время для видеоустройств из обычной системной ОЗУ компьютера.

Вы можете щелкнуть любой из столбцов для сортировки по ним и посмотреть, какое приложение использует больше всего ресурсов. Например, чтобы просмотреть приложения, использующие наибольшую видеопамять на вашем графическом процессоре, щелкните столбец «Выделенная память графического процессора ».

Как отследить использование общего ресурса GPU

Чтобы отслеживать общую статистику использования ресурсов GPU , перейдите на вкладку «Производительность » и посмотрите на «Графический процессор » внизу на боковой панели. Если на вашем компьютере несколько графических процессоров, здесь вы увидите несколько вариантов GPU .

Если у вас несколько связанных графических процессоров - используя такую функцию, как NVIDIA SLI или AMD Crossfire, вы увидите их, идентифицированные «#» в их имени.

Windows отображает использование GPU в реальном времени. По умолчанию диспетчер задач пытается отобразить самые интересные четыре движка в соответствии с тем, что происходит в вашей системе. Например, вы увидите разные графики в зависимости от того, играете ли вы в 3D-игры или кодируете видео. Однако вы можете щелкнуть любое из имен над графиками и выбрать любой из других доступных движков.

Название вашего GPU также отображается на боковой панели и в верхней части этого окна, что позволяет легко проверить, какое графическое оборудование установлено на вашем ПК.

Вы также увидите графики использования выделенной и общей памяти GPU . Использование общей памяти GPU относится к тому, какая часть общей памяти системы используется для задач GPU . Эта память может использоваться как для обычных системных задач, так и для видеозаписей.

В нижней части окна вы увидите информацию, такую как номер версии установленного видеодрайвера, дату разработки и физическое местоположение GPU в вашей системе.

Если вы хотите просмотреть эту информацию в более маленьком окне, которое проще оставить на экране, дважды щелкните где-нибудь внутри экрана графического процессора или щелкните правой кнопкой мыши в любом месте внутри него и выберите параметр «Графическая сводка ». Вы можете развернуть окно, дважды щелкнув на панели или щелкнув правой кнопкой мыши в нем и сняв флажок «Графическая сводка ».

Вы также можете щелкнуть правой кнопкой мыши по графику и выбрать «Изменить график »> «Одно ядро », чтобы просмотреть только один график движка GPU .

Чтобы это окно постоянно отображалось на вашем экране, нажмите «Параметры »> «Поверх остальных окон ».

Дважды щелкните внутри панели GPU еще раз, и у вас будет минимальное окно, которое вы можете расположить в любом месте на экране.

Современные видеокарты, в силу требований от них огромной вычислительной мощи при работе с графикой, оснащаются своим собственным командным центром, иначе говоря - графическим процессором.

Это было сделано для того, чтобы «разгрузить» центральный процессор , который из-за своей широкой «сферы применения», просто не в состоянии справляться с требованиями, которые выдвигает современная игровая индустрия.

Графические процессоры (GPU) по сложности абсолютно не уступают центральным процессорам, но из-за своей узкой специализации, в состоянии более эффективно справляться с задачей обработки графики, построением изображения, с последующим выводом его на монитор.

Если говорить о параметрах, то они у графических процессоров весьма схожи с центральными процессорами. Это уже известные всем параметры, такие как микроархитектура процессора, тактовая частота работы ядра, техпроцесс производства. Но у них имеются и довольно специфические характеристики. Например, немаловажная характеристика графического процессора – это количество пиксельных конвейеров (Pixel Pipelines). Эта характеристика определяет количество обрабатываемых пикселей за один такт роботы GPU. Количество данных конвейеров может различаться, например, в графических чипах серии Radeon HD 6000, их количество может достигать 96.

Пиксельный конвейер занимается тем, что просчитывает каждый последующий пиксель очередного изображения, с учётом его особенностей. Для ускорения процесса просчёта используется несколько параллельно работающих конвейеров, которые просчитывают разные пиксели одного и того же изображения.

Также, количество пиксельных конвейеров влияет на немаловажный параметр – скорость заполнение видеокарты . Скорость заполнения видеокарты можно рассчитать умножив частоту ядра на количество конвейеров.

Давайте рассчитаем скорость заполнения, к примеру, для видеокарты AMD Radeon HD 6990 (рис.2) Частота ядра GPU этого чипа составляет 830 МГц, а количество пиксельных конвейеров – 96. Нехитрыми математическими вычислениями (830х96), мы приходим к выводу, что скорость заполнения будет равна 57,2 Гпиксель/c.


Рис. 2

Помимо пиксельных конвейеров, различают ещё так называемых текстурные блоки в каждом конвейере. Чем больше текстурных блоков, тем больше текстур может быть наложено за один проход конвейера, что также влияет на общую производительность всей видеосистемы. В вышеупомянутом чипе AMD Radeon HD 6990, количество блоков выборки текстур составляет 32х2.

В графических процессорах, можно выделить и другой вид конвейеров – вершинные, они отвечают за расчёт геометрических параметров трёхмерного изображения.

Сейчас, давайте рассмотрим поэтапный, несколько упрощенный, процесс конвейерного расчёта, с последующим формированием изображения:

1 - й этап. Данные о вершинах текстур поступают в вершинные конвейеры, которые занимаются рассчётом параметров геометрии. На этом этапе подключается блок «T&L» (Transform & Lightning). Этот блок отвечает за освещение и трансформацию изображения в трёхмерных сценах. Обработка данных в вершинном конвейере проходит за счёт программы вершинного шейдера (Vertex Shader).

2 - ой этап. На втором этапе формирования изображения подключается специальный Z-буфер, для отсечения невидимых полигонов и граней трёхмерных объектов. Далее происходит процесс фильтрации текстур, для этого в «бой» вступают пиксельные шейдеры. В программных интерфейсах OpenGL или Direct3D описаны стандарты для работы с трёхмерными изображениями . Приложение вызывает определённую стандартную функцию OpenGL или Direct3D, а шейдеры эту функцию выполняют.

3–ий этап. В завершающем этапе построения изображения в конвейерной обработке, данные передаются в специальный буфер кадров.

Итак, только что мы вкратце рассмотрели структуру и принципы функционирования графических процессоров, информация,конечно, «не из лёгких» для восприятия, но для общего компьютерного развития, я думаю, будет весьма полезна:)