1 програмне забезпечення – графічний процесор. Лікнеп по мобільному залізу: графічні процесори. Пам'ять відеокарти

Диспетчер завдань Windows 10містить докладні інструменти моніторингу графічного процесора (GPU). Ви можете переглядати використання кожної програми та загальносистемного графічного процесора, а Microsoftобіцяє, що показники диспетчера завдань будуть точнішими, ніж показники сторонніх утиліт.

Як це працює

Ці функції графічного процесорабули додані в оновленні Fall Creators для Windows 10 , також відомому як Windows 10 версія 1709 . Якщо ви використовуєте Windows 7, 8 або більше стару версію Windows 10, ви не побачите ці інструменти у диспетчері завдань.

Windowsвикористовує новіші функції в Windows Display Driver Model, щоб витягувати інформацію безпосередньо з графічного процесора (VidSCH) та менеджера відеопам'яті (VidMm) у графічному ядрі WDDM, які відповідають за фактичний розподіл ресурсів. Він показує дуже точні дані незалежно від того, які програми API використовують для доступу до GPU-Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle або чогось іншого.

Саме тому в диспетчері завдань відображаються лише системи з сумісними з WDDM 2.0 графічними процесорами . Якщо ви цього не бачите, графічний процесор вашої системи, ймовірно, використовує старіший тип драйвера.

Ви можете перевірити, яка версія WDDM використовується вашим драйвером GPU, натиснувши кнопку Windows+R, набравши в полі «dxdiag», а потім натисніть «Enter», щоб відкрити інструмент « Засіб діагностики DirectX». Перейдіть на вкладку «Екран» та перегляньте праворуч від «Модель» у розділі «Драйвери». Якщо ви бачите тут драйвер WDDM 2.x, система сумісна. Якщо ви бачите тут драйвер WDDM 1.x, ваш GPUне сумісний.

Як переглянути продуктивність графічного процесора

Ця інформація доступна в диспетчері завдань , хоча за умовчанням вона прихована. Щоб відкрити її, відкрийте Диспетчер завдань, клацнувши правою кнопкою миші на будь-якому порожньому місці на панелі завдань та вибравши « Диспетчер завданьабо натиснувши Ctrl+Shift+Esc на клавіатурі.

Натисніть кнопку «Докладніше» у нижній частині вікна « Диспетчер завдань», якщо ви бачите стандартний простий вигляд.

Якщо GPU не відображається в диспетчері завдань , у повноекранному режимі на вкладці « Процеси» клацніть правою кнопкою миші будь-який заголовок стовпця, а потім увімкніть опцію « Графічний процесор ». Це додасть стовпець графічного процесора , який дозволяє побачити відсоток ресурсів графічного процесора , що використовуються кожною програмою.

Ви також можете увімкнути опцію « Ядро графічного процесора», щоб побачити, який графічний процесор використовує програму.

Загальне використання GPUвсіх програм у вашій системі відображається у верхній частині стовпця Графічний процесор. Клацніть стовпець GPU, щоб відсортувати список і переглянути, які програми використовують ваш GPUнайбільше на Наразі.

Число в стовпці Графічний процесор- це найвище використання, яке додаток використовує для всіх двигунів. Так, наприклад, якщо програма використовує 50% 3D-движка GPU і 2% декодування відео движка GPU, ви просто побачите, що в стовпці GPU відображається число 50%.

У стовпці « Ядро графічного процесора» відображається кожна програма. Це показує вам, який фізичний GPUі який движок використовує програму, наприклад, використовує він 3D-движок або механізм декодування відео. Ви можете визначити, який графічний процесор відповідає певному показнику, перевіривши вкладку « Продуктивність», про яку ми поговоримо у наступному розділі.

Як переглянути використання відеопам'яті програми

Якщо вам цікаво, скільки відеопам'яті використовується програмою, вам потрібно перейти на вкладку «Подробиці» у диспетчері завдань. На вкладці «Подробиці» клацніть правою кнопкою миші будь-який заголовок стовпця та виберіть «Вибрати стовпці». Прокрутіть вниз і увімкніть колонки « Графічний процесор », « Ядро графічного процесора », « » та « ». Перші два доступні також на вкладці "Процеси", але останні дві опції пам'яті доступні лише на панелі "Подробиці".

Стовпець « Виділена пам'ять графічного процесора » показує, скільки пам'яті додаток використовує на вашому GPU. Якщо на вашому ПК встановлена ​​дискретна відеокарта NVIDIAабо AMD, це частина його VRAM, тобто скільки фізичної пам'яті на вашій відеокарті використовує додаток. Якщо у вас вбудований графічний процесор , частина вашої звичайної системної пам'ятізарезервована виключно для графічного обладнання. Це показує, яка частина зарезервованої пам'яті використовується програмою.

Windowsтакож дозволяє програмам зберігати деякі дані у звичайній системній пам'яті DRAM. Стовпець « Загальна пам'ять графічного процесора » показує, скільки пам'яті програма використовує в даний час для відеопристроїв зі звичайної системної ОЗП комп'ютера.

Ви можете клацнути будь-який зі стовпців для сортування по них і подивитися, який додаток використовує найбільше ресурсів. Наприклад, щоб переглянути програми, які використовують найбільшу відеопам'ять на графічному процесорі, клацніть стовпець « Виділена пам'ять графічного процесора ».

Як відстежити використання загального ресурсу GPU

Щоб відстежувати загальну статистику використання ресурсів GPU, перейдіть на вкладку « Продуктивність» і подивіться на « Графічний процесор» внизу на бічній панелі. Якщо на комп'ютері кілька графічних процесорів, тут ви побачите кілька варіантів GPU.

Якщо у вас є кілька пов'язаних графічних процесорів - використовуючи таку функцію, як NVIDIA SLI або AMD Crossfire, ви побачите їх, ідентифіковані «#» у їхньому імені.

Windowsвідображає використання GPUу реальному часі. За замовчуванням диспетчер завдань намагається відобразити найцікавіші чотири движки відповідно до того, що відбувається у вашій системі. Наприклад, ви побачите різні графіки в залежності від того, чи ви граєте в 3D-ігри або кодуєте відео. Однак ви можете натиснути будь-яке з імен над графіками і вибрати будь-який з інших доступних движків.

Назва вашого GPUтакож відображається на бічній панелі та у верхній частині цього вікна, що дозволяє легко перевірити, яке графічне обладнання встановлене на вашому ПК.

Ви також побачите графіки використання виділеної та спільної пам'яті GPU. Використання спільної пам'яті GPUвідноситься до того, яка частина загальної пам'яті системи використовується для завдань GPU. Ця пам'ять може використовуватися як для звичайних системних завдань, так і відеозаписів.

У нижній частині вікна ви побачите інформацію, таку як номер версії встановленого відеодрайвера, дату розробки та фізичне розташування GPUу вашій системі.

Якщо ви хочете переглянути цю інформацію в більш маленькому вікні, яке простіше залишити на екрані, двічі клацніть десь всередині екрана графічного процесора або клацніть правою кнопкою миші в будь-якому місці всередині і виберіть параметр « Графічний звіт». Ви можете розгорнути вікно, двічі клацнувши на панелі або клацнувши правою кнопкою миші в ньому і знявши прапорець. Графічний звіт».

Ви також можете клацнути правою кнопкою миші за графіком і вибрати «Змінити графік» > «Одне ядро», щоб переглянути лише один графік движка GPU.

Щоб це вікно постійно відображалося на екрані, натисніть «Параметри» > « Поверх решти вікон».

Двічі клацніть усередині панелі GPUще раз, і у вас буде мінімальне вікно, яке ви можете розташувати будь-де на екрані.

Здрастуйте, шановні користувачі та любителі комп'ютерного заліза. Сьогодні поміркуємо на тему, що таке інтегрована графіка в процесорі, навіщо вона взагалі потрібна і чи є таке рішення альтернативою дискретним, тобто зовнішнім відеокартам.

Якщо міркувати з погляду інженерного задуму, то вбудоване графічне ядро, яке повсюдно використовується у своїх продуктах компаніями Intelта AMD, не є відеокартою як такою. Це відеочіп, який інтегрували до архітектури ЦП для виконання базових обов'язків дискретного прискорювача. Але давайте розбиратися з усім докладніше.

З цієї статті ви дізнаєтесь:

Історія появи

Вперше компанії почали впроваджувати графіку у власні чіпи в середині 2000-х. Інтел розпочали розробку ще з Intel GMA, проте дана технологіядосить слабко себе показувала, а тому для ігор була непридатною. У результаті на світ з'являється знаменита технологія HD Graphics (на даний момент найсвіжіший представник лінійки – HD graphics 630 у восьмому поколінні чіпів Coffee Lake). Дебютувало відеоядро на архітектурі Westmere у складі мобільних чіпів Arrandale та десктопних – Clarkdale (2010 рік).

AMD пішла іншим шляхом. Спочатку компанія викупила ATI Electronics, колись крутого виробника відеокарт. Потім почала корпіти над власною технологією AMD Fusion, створюючи власні APU - центральний процесоріз вбудованим відеоядром (Accelerated Processing Unit). Дебютували чіпи першого покоління у складі архітектури Liano, а потім і Trinity. Ну а графіка Radeon r7 series на довгий час прописалася у складі ноутбуків та нетбуків середнього класу.

Переваги вбудованих рішень в іграх

Отже. Для чого потрібна інтегрована карта і в чому полягають її відмінності від дискретної.

Постараємося порівняти з поясненням кожної позиції, зробивши все максимально аргументовано. Почнемо, мабуть, із такої характеристики як продуктивність. Розглядатимемо і порівнюватимемо найбільш актуальні на даний момент рішення від Intel (HD 630 c частотою графічного прискорювача від 350 до 1200 МГц) та AMD (Vega 11 з частотою 300-1300 Мгц), а також переваги, які дають ці рішення.
Почнемо із вартості системи. Вбудована графіка дозволяє непогано заощадити на купівлі дискретного рішення, аж до 150 $, що є критично важливим при створенні максимально економного ПК для офісного та використання.

Частота графічного прискорювача AMD помітно вища, та й продуктивність адаптера від червоних істотно вища, що говорить про наступні показники в тих же іграх:

Гра Налаштування Intel AMD
PUBG FullHD, низькі 8-14 fps 26-36 fps
GTA V FullHD, середні 15-22 fps 55-66 fps
Wolfenstein II HD, низькі 9-14 fps 85-99 fps
Fortnite FullHD, середні 9-13 fps 36-45 fps
Rocket League FullHD, високі 15-27 fps 35-53 fps
CS:GO FullHD, максимальні 32-63 fps 105-164 fps
Overwatch FullHD, середні 15-22 fps 50-60 fps

Як бачите, Vega 11 – кращий вибірдля недорогих «ігрових» систем, оскільки показники адаптера в деяких випадках сягають рівня повноцінної GeForce GT 1050. Та й у більшості мережевих баталій вона показує себе чудово.

На даний момент з цією графікою поставляється тільки процесор AMD Ryzen 2400G, але він безумовно вартий уваги.

Варіант для офісних завдань та домашнього використання

Які вимоги найчастіше ви висуваєте до свого ПК? Якщо виключити ігри, то вийде наступний набір параметрів:

  • перегляд фільмів у HD-якості та роликів на Youtube (FullHD та в поодиноких випадках 4К);
  • робота із браузером;
  • прослуховування музики;
  • спілкування з друзями чи колегами за допомогою месенджерів;
  • розробка додатків;
  • офісні завдання ( Microsoft Officeта схожі програми).

Всі ці пункти чудово працюють із вбудованим графічним ядром на дозволах аж до FullHD.
Єдиний нюанс, який необхідно враховувати в обов'язковому порядку – підтримка відеовиходів тієї материнською платоюна яку ви збираєтеся ставити процесор. Наперед уточніть цей момент, щоб не виникло проблем надалі.

Недоліки вбудованої графіки

Оскільки розібралися з плюсами, потрібно опрацювати недоліки рішення.

  • Головний мінус подібної витівки – продуктивність. Так, ви можете з чистою совістю грати в більш-менш сучасні іграшки на низьких і високих налаштуваннях, проте любителям графіки, така витівка точно не сподобається. Ну а якщо ви працюєте з графікою професійно (обробка, рендеринг, монтаж відеороликів, постпродакшн) та ще й на 2–3 моніторах, то інтегрований тип відео вам точно не підійде.

  • Момент номер 2: відсутність власної швидкісної пам'яті(у сучасних картах це GDDR5, GDDR5X та HBM). Формально відеочіп може використовувати хоч до 64 ГБ пам'яті, проте вся вона братиметься звідки? Правильно, з оперативної. А отже, необхідно заздалегідь побудувати систему таким чином, щоб ОЗУ вистачило і для роботи, і для графічних завдань. Враховуйте, що швидкість сучасних DDR4-модулів значно нижча, ніж GDDR5, тому часу на обробку даних буде витрачатися більше.
  • Наступний недолік – тепловиділення. Крім власних ядер процесі з'являється ще одне, яке, теоретично, прогрівається анітрохи менше. Охолоджувати все це розкіш боксової (комплектної) вертушкою можна, але готуйтеся до періодичних занижень частот в особливо складних розрахунках. Купівля потужнішого кулера вирішує проблему.
  • Ну і останній нюанс - неможливість апгрейду відео без заміни процесора. Іншими словами, щоб покращити вбудоване відеоядро, вам доведеться буквально купувати новий процесор. Сумнівна вигода, чи не так? У такому разі простіше за деякий час придбати дискретний прискорювач. Виробники типу AMD і nVidia пропонують відмінні рішення на будь-який смак.

Підсумки

Вбудована графіка – відмінний варіанту 3 випадках:

  • вам потрібна тимчасова відеокарта, оскільки грошей на зовнішню не вистачило;
  • система спочатку замислювалася як надбюджетна;
  • ви створюєте домашню мультимедійну станцію (HTPC), у якій основний акцент робиться саме на вбудоване ядро.

Сподіваємось однією проблемою у вашій голові поменшало, і тепер ви знаєте, для чого виробники створюють свої APU.

У наступних статтях поговоримо про такі терміни як віртуалізація і не лише. Слідкуйте за , щоб бути в курсі всіх актуальних тем, пов'язаних із залізом.

Всі ми знаємо, що у відеокарти та процесора кілька різні завдання, проте чи знаєте ви, чим вони відрізняються один від одного у внутрішній структурі? Як CPU (англ. - central processing unit), так і GPU (англ. graphics processing unit) є процесорами, і з-поміж них є багато спільного, проте сконструйовані були виконання різних завдань. Докладніше про це ви дізнаєтеся з цієї статті.

CPU

Основне завдання CPU, якщо говорити простими словами, це виконання ланцюжка інструкцій за максимально короткий час. CPU спроектований таким чином, щоб виконувати декілька таких ланцюжків одночасно або розбивати один потік інструкцій на кілька і після виконання їх окремо зливати їх знову в одну, в правильному порядку. Кожна інструкція в потоці залежить від наступних за нею, і саме тому в CPU так мало виконавчих блоків, а весь наголос робиться на швидкість виконання та зменшення простоїв, що досягається за допомогою кеш-пам'яті та конвеєра.

GPU

Основна функція GPU - рендеринг 3D графіки та візуальних ефектів, отже, в ньому все трохи простіше: йому необхідно отримати на вході полігони, а після проведення над ними необхідних математичних та логічних операцій на виході видати координати пікселів. По суті, робота GPU зводиться до оперування над величезною кількістю незалежних між собою завдань, отже, він містить великий обсяг пам'яті, але не такої швидкої, як у CPU, і величезна кількість виконавчих блоків: у сучасних GPU їх 2048 і більше, на той час як у CPU їх кількість може досягати 48, але найчастіше їхня кількість лежить у діапазоні 2-8.

Основні відмінності

CPU відрізняється від GPU насамперед способами доступу до пам'яті. У GPU він пов'язаний і легко передбачуваний - якщо з пам'яті читається текстури текстури, то через деякий час настане черга і сусідніх текстилів. Із записом схожа ситуація - піксель записується у фреймбуфер, і через кілька тактів записуватиметься розташований поруч із ним. Також графічному процесору, на відміну універсальних процесорів, просто не потрібна кеш-пам'ять великого розміру, А для текстур потрібно лише 128–256 кілобайт. Крім того, на відеокартах застосовується швидша пам'ять, і в результаті GPU доступна в рази більша. пропускна здатністьщо також дуже важливо для паралельних розрахунків, що оперують з величезними потоками даних.

Існує безліч відмінностей і в підтримці багатопоточності: CPU виконує 1 2 потоки обчислень на одне процесорне ядро, а GPU може підтримувати кілька тисяч потоків на кожен мультипроцесор, яких у чіпі кілька штук! І якщо перемикання з одного потоку на інший для CPU коштує сотні тактів, то GPU перемикає кілька потоків за один такт.

У CPU більша частина площі чіпа зайнята під буфери команд, апаратне передбачення розгалуження і величезні обсяги кеш-пам'яті, а GPU більша частина площі зайнята виконавчими блоками. Вищеописаний пристрій схематично зображено нижче:

Різниця у швидкості обчислень

Якщо CPU - це свого роду "начальник", який приймає рішення відповідно до вказівок програми, то GPU - це "робочий", який виробляє величезну кількість однотипних обчислень. Виходить, що якщо подавати на GPU незалежні найпростіші математичні завдання, він справиться значно швидше, ніж центральний процесор. Даною відмінністю успішно користуються майнери біткоїнів.

Майнінг Bitcoin

Суть майнінгу у тому, що комп'ютери, що у різних точках Землі, вирішують математичні завдання, у яких створюються биткоины . Усі біткоін-переклади по ланцюжку передаються майнерам, чия робота полягає в тому, щоб підібрати з мільйонів комбінацій один-єдиний хеш, що підходить до всіх нових транзакцій і секретного ключа, який і забезпечить майнеру нагороду в 25 біткоїнів за раз. Так як швидкість обчислення безпосередньо залежить від кількості виконавчих блоків, виходить, що GPU значно краще підходять для виконання даного типузавдання, ніж CPU. Чим більша кількість вироблених обчислень, тим вищий шанс отримати біткоїни. Справа навіть дійшла до спорудження цілих ферм із відеокарт.

Багато хто бачив абревіатуру GPU, але не кожен знає, що це таке. Це компонент, що входить до складу відеокарти. Іноді його називають відеокартою, але це не правильно. Графічний процесор займається обробкоюкоманд, що формують тривимірне зображення. Це основний елемент, від якого залежить швидкодіявсієї відеосистеми.

Є кілька видівтаких чіпів - дискретнийі вбудований. Звичайно, одразу варто зауважити, що краще перший. Його ставлять окремі модулі. Він потужний і вимагає хорошого охолодження. Другий встановлюється на всі комп'ютери. Він вбудовується в CPU, роблячи споживання енергії у рази нижче. Звичайно, з повноцінними дискретними чіпами йому не зрівнятися, але на даний момент він показує досить гарні результати.

Як працює процесор

GPU займається обробкою 2D та 3D графіки. Завдяки GPU ЦП комп'ютера стає вільнішим і може виконувати більш важливі завдання. Головна особливістьграфічного процесора в тому, що він намагається максимально збільшити швидкістьрозрахунку графічної інформації. Архітектура чіпа дозволяє з більшою ефективністюобробляти графічну інформацію, ніж центральний CPU ПК.

Графічний процесор встановлює розташуваннятривимірні моделі в кадрі. Займається фільтрацієютрикутників, що входять до них, визначає, які знаходяться на увазі, і відсікає ті, які приховані іншими об'єктами.

У сучасних пристроях застосовується графічний процесор, який позначають як GPU. Що це і який його принцип роботи? GPU (Graphics - процесор, основне завдання якого - обробка графіки та обчислень з плаваючою точкою. GPU полегшує роботу головного процесора, якщо йде мовапро важкі ігри та програми з 3D-графікою.

Що це?

Графічний процесор створює графіку, текстуру, кольори. Процесор, який має кілька ядр, може працювати на високих швидкостях. У графічного багато ядер, що функціонують переважно на низьких швидкостях. Вони займаються обчисленнями пікселів та вершин. Обробка останніх переважно відбувається у системі координат. p align="justify"> Процесор графічний обробляє різні завдання, створюючи на екрані тривимірний простір, тобто об'єкти в ньому переміщуються.

Принцип роботи

Що робить графічний процесор? Він займається обробкою графіки у форматі 2D та 3D. Завдяки GPU комп'ютеру швидше та легше вдається виконувати важливі завдання. Особливість графічного процесора у тому, що він збільшує швидкість розрахунку максимальному рівні. Його архітектура влаштована так, що дозволяє ефективніше обробляти візуальну інформацію, ніж центральний CPU комп'ютера.

Він відповідає за розташування тривимірних моделей у кадрі. Крім того, кожен із процесорів фільтрує трикутники, що входять до нього. Він визначає, які на увазі, видаляє ті, які ховаються за іншими об'єктами. Промальовує джерела світла, визначає, як ці джерела впливають колір. Графічний процесор (що таке - описано у статті) створює зображення, видає його користувачеві на екран.

Ефективність роботи

Чим обумовлена ефективна роботаграфічного процесора? Температурою. Одна з проблем ПК та ноутбуків - перегрів. Саме це стає головною причиною того, чому пристрій та його елементи швидко виходять з ладу. Проблеми з GPU починаються, коли температура процесора перевищує 65 °С. У цьому випадку користувачі зауважують, що процесор починає працювати слабше, пропускає такти, щоб самостійно знизити збільшену температуру.

Температурний режим 65-80 ° С – критичний. У цьому випадку починається перезавантаження системи (аварійне), комп'ютер вимикається самостійно. Користувачеві важливо відстежувати, щоб температура графічного процесора не перевищувала 50 °С. Нормальною вважається t 30-35 ° С у просте, 40-45 ° С при багатогодинному навантаженні. Чим нижча температура, тим вища продуктивність комп'ютера. Для материнської плати, відеокарти, корпуси та жорстких дисків- Свої температурні режими.

Але багатьох користувачів також турбує питання, як зменшити температуру процесора, щоб підвищити ефективність його роботи. Спочатку потрібно з'ясувати причину перегріву. Це може бути засмічення системи охолодження, висохла термопаста, шкідлива програма, розгін процесора, сира прошивка Біос. Найпростіше, що може зробити користувач, - замінити термопасту, яка знаходиться на самому процесорі. Крім того, потрібно провести чищення системи охолодження. Ще фахівці радять встановити потужний кулер, покращити циркуляцію повітря в системному блоцізбільшити швидкість обертання на графічному адаптері кулера. Для всіх комп'ютерів та графічних процесорів однакова схема зниження температури. Важливо стежити за пристроєм, чистити його вчасно.

Специфіка

Графічний процесор розташований на відеокарті, його головне завдання – це обробка 2D та 3D графіки. Якщо на комп'ютері встановлено GPU, процесор пристрою не виконує зайву роботу, тому функціонує швидше. Головна особливість графічного в тому, що його основна мета – це збільшення швидкості розрахунку об'єктів та текстур, тобто графічної інформації. Архітектура процесора дозволяє їм працювати набагато ефективніше, опрацьовувати візуальну інформацію. Звичайному процесору таке не під силу.

Види

Що це – графічний процесор? Це компонент, який входить до складу відеокарти. Існує кілька видів чіпів: вбудований та дискретний. Фахівці стверджують, що краще справляється зі своїм завданням другим. Його встановлюють на окремі модулі, оскільки він відрізняється своєю потужністю, але йому необхідне відмінне охолодження. Вбудований графічний процесор є практично у всіх комп'ютерах. Його встановлюють у CPU, щоб зробити споживання енергії у кілька разів нижче. З дискретними за потужністю він не зрівняється, але теж має хороші характеристики, демонструє непогані результати.

Комп'ютерна графіка

Це що? Так називається сфера діяльності, в якій для створення зображень та обробки візуальної інформації використовують комп'ютерні технології. Сучасна комп'ютерна графіка, у тому числі наукова, дозволяє графічно обробляти результати, будувати діаграми, графіки, креслення, а також проводити різноманітні віртуальні експерименти.

За допомогою конструктивної графіки створюються технічні вироби. Існують інші види комп'ютерної графіки:

  • анімаційна;
  • мультимедійна;
  • художня;
  • рекламна;
  • ілюстративні.

З технічної точки зору комп'ютерна графіка - це двовимірні та тривимірні зображення.

CPU та GPU: різниця

У чому різниця між цими двома позначеннями? Багато користувачів знають, що графічний процесор (що це - розказано вище) і відеокарта виконують різні завдання. Крім того, вони відрізняються за своєю внутрішньою структурою. І CPU, і GPU - які мають багато подібних рис, але зроблені вони для різних цілей.

CPU виконує певний ланцюжок інструкцій за короткий проміжок часу. Він зроблений так, що формує одночасно кілька ланцюжків, розбиває потік інструкцій на множину, виконує їх, потім знову зливає в одне ціле в конкретному порядку. Інструкція в потоці залежить від тих, що за нею слідують, тому в CPU міститься мала кількість виконавчих блоків, тут головний пріоритет віддається швидкості виконання, зменшенню простоїв. Все це досягається за допомогою конвеєра та кеш-пам'яті.

У GPU інша важлива функція – рендеринг візуальних ефектів та 3D-графіки. Працює він простіше: на вході отримує полігони, проводить необхідні логічні та математичні операції, на виході видає координати пікселів. Робота GPU – це оперування великим потоком різних завдань. Його особливість у тому, що він наділений великим, але повільно працює в порівнянні з CPU. Крім того, у сучасних GPU понад 2000 виконавчих блоків. Відрізняються між собою методами доступу до пам'яті. Наприклад, графічному не потрібна кешована пам'ять великого розміру. У GPU пропускна здатність більша. Якщо пояснювати простими словами, то CPU приймає рішення відповідно до завдань програми, а GPU робить безліч однакових обчислень.




Top