1 mjukvaru-GPU. Utbildningsprogram på mobil hårdvara: grafiska processorer. Grafikkortsminne

Aktivitetshanteraren Windows 10 innehåller detaljerade övervakningsverktyg GPU (GPU). Du kan se GPU-användning per app och systemomfattande, och Microsoft lovar att indikatorerna Aktivitetshanteraren kommer att vara mer exakta än indikatorer från tredjepartsverktyg.

Hur det fungerar

Dessa funktioner GPU lades till i uppdateringen Fall Creators för Windows 10 , också känd som Windows 10 version 1709 . Om du använder Windows 7, 8 eller senare gammal version Windows 10, du kommer inte att se dessa verktyg i din aktivitetshanterare.

Windows använder nyare funktioner i Windows Display Driver Model för att extrahera information direkt från GPU (VidSCH) och videominneshanterare (VidMm) i WDDM-grafikkärnan, som ansvarar för den faktiska allokeringen av resurser. Den visar mycket exakta data oavsett vilka API-applikationer som använder för att komma åt GPU:n - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller något annat.

Det är därför i Aktivitetshanteraren Endast WDDM 2.0-kompatibla system visas GPU:er . Om du inte ser detta använder ditt systems GPU förmodligen en äldre typ av drivrutin.

Du kan kontrollera vilken version av WDDM som din drivrutin använder GPU genom att trycka på Windows-tangenten + R, skriva "dxdiag" i fältet och sedan trycka på "Enter" för att öppna verktyget " Diagnostikverktyg för DirectX" Gå till fliken "Skärm" och titta till höger om "Modell" i avsnittet "Drivrutiner". Om du ser en WDDM 2.x-drivrutin här är ditt system kompatibelt. Om du ser en WDDM 1.x-drivrutin här, din GPU oförenlig.

Så här ser du GPU-prestanda

Denna information finns tillgänglig i Aktivitetshanteraren , även om den är dold som standard. Öppna den för att öppna den Aktivitetshanteraren genom att högerklicka på ett tomt utrymme i aktivitetsfältet och välja " Aktivitetshanteraren"eller genom att trycka på Ctrl+Skift+Esc på tangentbordet.

Klicka på knappen "Mer information" längst ner i fönstret " Aktivitetshanteraren" om du ser standardvyn.

Om GPU visas inte i Aktivitetshanteraren , i helskärmsläge på fliken " Processer"Högerklicka på valfri kolumnrubrik och aktivera sedan alternativet" GPU " Detta kommer att lägga till en kolumn GPU , som låter dig se andelen resurser GPU , som används av varje applikation.

Du kan också aktivera alternativet " GPU kärna" för att se vilken GPU appen använder.

Allmän användning GPU av alla program på ditt system visas högst upp i kolumnen GPU. Klicka på en kolumn GPU för att sortera listan och se vilka appar som använder din GPU mest av allt på det här ögonblicket.

Nummer i kolumn GPU- Detta är den högsta användningen som applikationen använder för alla motorer. Så, till exempel, om en applikation använder 50 % GPU 3D-motor och 2 % GPU-videomotoravkodning, kommer du helt enkelt se GPU-kolumnen som visar talet 50 %.

I kolumnen " GPU kärna» varje applikation visas. Detta visar dig vad fysisk GPU och vilken motor applikationen använder, till exempel om den använder en 3D-motor eller en videoavkodningsmotor. Du kan avgöra vilken GPU som kvalificerar sig för ett specifikt mått genom att markera " Prestanda", som vi kommer att prata om i nästa avsnitt.

Hur man visar en applikations användning av videominne

Om du undrar hur mycket videominne som används av ett program, måste du gå till fliken Detaljer i Aktivitetshanteraren. På fliken Detaljer högerklickar du på valfri kolumnrubrik och väljer Välj kolumner. Rulla ned och aktivera kolumner " GPU », « GPU kärna », « "och" " De två första är också tillgängliga på fliken Processer, men de två sista minnesalternativen är bara tillgängliga i panelen Detaljer.

kolumn " Dedikerat GPU-minne » visar hur mycket minne programmet använder på din GPU. Om din dator har en diskret NVIDIA grafikkort eller AMD, då är detta en del av dess VRAM, det vill säga hur mycket fysiskt minne på ditt grafikkort applikationen använder. Om du har integrerad grafikprocessor , en del av ditt vanliga system minne endast reserverad för din grafikhårdvara. Detta visar hur mycket av det reserverade minnet som används av programmet.

Windows tillåter även applikationer att lagra vissa data i vanliga system-DRAM. kolumn " Delat GPU-minne " visar hur mycket minne programmet för närvarande använder för videoenheter från datorns normala system-RAM.

Du kan klicka på någon av kolumnerna för att sortera efter dem och se vilket program som använder mest resurser. Till exempel, för att se de program som använder mest videominne på din GPU, klicka på " Dedikerat GPU-minne ».

Hur man spårar GPU-delningsanvändning

För att spåra övergripande resursanvändningsstatistik GPU, gå till " Prestanda"och titta på" GPU" längst ned i sidofältet. Om din dator har flera GPU:er ser du flera alternativ här GPU.

Om du har flera länkade GPU:er - med en funktion som NVIDIA SLI eller AMD Crossfire, kommer du att se dem identifierade med ett "#" i deras namn.

Windows visar användning GPU i realtid. Standard Aktivitetshanteraren försöker visa de mest intressanta fyra motorerna enligt vad som händer i ditt system. Du kommer till exempel att se olika grafik beroende på om du spelar 3D-spel eller kodar videor. Du kan dock klicka på något av namnen ovanför diagrammen och välja någon av de andra tillgängliga motorerna.

Namn på din GPU visas också i sidofältet och högst upp i det här fönstret, vilket gör det enkelt att kontrollera vilken grafikhårdvara som är installerad på din PC.

Du kommer också att se grafer för dedikerade och delade minnesanvändning GPU. Användning av delat minne GPU avser hur mycket av systemets totala minne som används för uppgifter GPU. Detta minne kan användas för både vanliga systemuppgifter och videoinspelningar.

Längst ner i fönstret ser du information som versionsnumret för den installerade videodrivrutinen, utvecklingsdatum och fysisk plats GPU på ditt system.

Om du vill se den här informationen i ett mindre fönster som är lättare att lämna på skärmen, dubbelklicka var som helst på GPU-skärmen eller högerklicka var som helst inuti den och välj alternativet Grafisk sammanfattning" Du kan maximera ett fönster genom att dubbelklicka i panelen eller genom att högerklicka i det och avmarkera " Grafisk sammanfattning».

Du kan också högerklicka på grafen och välja "Redigera graf" > "Single Core" för att bara se en motorgraf GPU.

För att behålla det här fönstret permanent på din skärm, klicka på "Alternativ" > " Ovanpå andra fönster».

Dubbelklicka inuti panelen GPU igen och du kommer att ha ett minimalt fönster som du kan placera var som helst på skärmen.

Hej kära användare och älskare av hårdvara. Idag kommer vi att diskutera vad integrerad grafik i en processor är, varför det behövs överhuvudtaget och om en sådan lösning är ett alternativ till diskreta, det vill säga externa grafikkort.

Om vi ​​tänker ur teknisk design, då den inbyggda grafikkärnan, som används flitigt i sina produkter Intel företag och AMD, är inte ett grafikkort som sådant. Detta är ett videochip som integrerades i CPU-arkitekturen för att utföra de grundläggande uppgifterna för en diskret accelerator. Men låt oss förstå allt mer i detalj.

Från den här artikeln kommer du att lära dig:

Utseendehistoria

Företag började implementera grafik i sina egna marker i mitten av 2000-talet. Intel började dock utveckla med Intel GMA denna teknik visade sig ganska dåligt och var därför olämplig för videospel. Som ett resultat är den berömda HD Graphics-tekniken född (för närvarande är den senaste representanten för linjen HD Graphics 630 i den åttonde generationen av chips Coffee Lake). Videokärnan debuterade på Westmere-arkitekturen, bestående av mobila chips Arrandale och skrivbordet – Clarkdale (2010).

AMD gick en annan väg. Först köpte företaget ut ATI Electronics, en en gång cool grafikkortstillverkare. Sedan började hon grubbla över AMD:s egen Fusion-teknik och skapade sina egna APU:er - CPU med inbyggd videokärna (Accelerated Processing Unit). Den första generationens chips debuterade som en del av Liano-arkitekturen, och sedan Trinity. Nåväl, grafik i Radeon r7-serien har funnits med i medelklassens bärbara datorer och netbooks under lång tid.

Fördelarna med inbyggda lösningar i spel

Så. Varför behöver du ett integrerat kort och vad är det för skillnader från ett diskret?

Vi kommer att försöka göra en jämförelse med en förklaring av varje position och göra allt så motiverat som möjligt. Låt oss kanske börja med en sådan egenskap som prestanda. Vi kommer att överväga och jämföra de senaste lösningarna från Intel (HD 630 med en grafikacceleratorfrekvens från 350 till 1200 MHz) och AMD (Vega 11 med en frekvens på 300-1300 MHz), samt de fördelar som dessa lösningar ger.
Låt oss börja med kostnaden för systemet. Integrerad grafik gör att du kan spara mycket på att köpa en diskret lösning, upp till $150, vilket är ytterst viktigt när du skapar den mest ekonomiska datorn för kontorsbruk.

Frekvensen för AMD-grafikacceleratorn är märkbart högre, och prestandan hos adaptern från de röda är betydligt högre, vilket indikerar följande indikatorer i samma spel:

Ett spel inställningar Intel AMD
PUBG FullHD, låg 8–14 fps 26–36 fps
GTA V FullHD, medium 15–22 fps 55–66 fps
Wolfenstein II HD, låg 9–14 fps 85–99 fps
Fortnite FullHD, medium 9–13 fps 36–45 fps
Raket ligan FullHD, hög 15–27 fps 35–53 fps
CS:GO FullHD, max 32–63 fps 105–164 fps
Övervakning FullHD, medium 15–22 fps 50–60 fps

Som du kan se, Vega 11 - det bästa valet för billiga "spelsystem", eftersom adapterns prestanda i vissa fall når nivån på en fullfjädrad GeForce GT 1050. Och i de flesta onlinestrider fungerar den bra.

För närvarande är denna grafik endast tillgänglig med AMD-processor Ryzen 2400G, men det är definitivt värt en titt.

Möjlighet för kontorsuppgifter och hemmabruk

Vilka krav ställer du oftast på din PC? Om vi ​​utesluter spel får vi följande uppsättning parametrar:

  • titta på filmer i HD-kvalitet och videor på Youtube (FullHD och i sällsynta fall 4K);
  • arbeta med en webbläsare;
  • lyssnar på musik;
  • kommunicera med vänner eller kollegor med hjälp av snabbmeddelanden;
  • Applikationsutveckling;
  • kontorsuppgifter ( Microsoft Office och liknande program).

Alla dessa punkter fungerar perfekt med den inbyggda grafikkärnan vid upplösningar upp till FullHD.
Den enda nyansen som måste beaktas är stöd för videoutgångar moderkort, där du ska installera processorn. Vänligen klargör denna punkt i förväg för att undvika problem i framtiden.

Nackdelar med integrerad grafik

Eftersom vi har tagit itu med fördelarna måste vi också räkna ut nackdelarna med lösningen.

  • Den största nackdelen med ett sådant företag är produktiviteten. Ja, du kan spela mer eller mindre moderna spel med gott samvete vid låga och höga inställningar, men grafikälskare kommer definitivt inte att gilla denna idé. Tja, om du arbetar med grafik professionellt (bearbetning, rendering, videoredigering, efterproduktion), och till och med på 2-3 skärmar, kommer den integrerade videotypen definitivt inte att passa dig.

  • Punkt nummer 2: brist på egen höghastighetsminne(i moderna kort är dessa GDDR5, GDDR5X och HBM). Formellt kan videochippet använda minst 64 GB minne, men var kommer allt ifrån? Just det, från operationsrummet. Detta innebär att det är nödvändigt att bygga systemet i förväg på ett sådant sätt att det finns tillräckligt med RAM-minne för både arbetsuppgifter och grafiska uppgifter. Tänk på att hastigheten på moderna DDR4-moduler är mycket lägre än GDDR5, och därför kommer mer tid att läggas på att bearbeta data.
  • Nästa nackdel är värmeutveckling. Förutom sina egna kärnor dyker ytterligare en upp under processen, som i teorin inte värms upp mindre. Du kan kyla all denna prakt med en förpackad (komplett) skivspelare, men var beredd på periodiska sänkningar av frekvenser i synnerhet komplexa beräkningar. Att köpa en kraftfullare kylare löser problemet.
  • Tja, den sista nyansen är omöjligheten att uppgradera video utan att ersätta processorn. Med andra ord, för att förbättra den inbyggda videokärnan, måste du bokstavligen köpa ny processor. En tveksam fördel, eller hur? I det här fallet är det lättare att köpa en diskret accelerator efter ett tag. Tillverkare som AMD och nVidia erbjuder utmärkta lösningar för alla smaker.

Resultat

Integrerad grafik – bra alternativ i 3 fall:

  • du behöver ett tillfälligt grafikkort eftersom du inte har tillräckligt med pengar för ett externt;
  • Systemet var ursprungligen tänkt som ett extrabudgetsystem.
  • du skapar en hemmultimediaarbetsstation (HTPC), där huvudfokus ligger på den inbyggda kärnan.

Vi hoppas att det finns ett problem mindre i ditt huvud, och nu vet du varför tillverkare skapar sina APU:er.

I följande artiklar kommer vi att prata om termer som virtualisering med mera. Följ för att hålla dig uppdaterad med alla de senaste ämnena relaterade till hårdvara.

Vi vet alla att ett grafikkort och en processor har lite olika uppgifter, men vet du hur de skiljer sig från varandra i den interna strukturen? Som CPU centrala behandlingsenheten), och GPU (engelska - grafisk bearbetningsenhet) är processorer och de har mycket gemensamt, men de designades för att utföra olika uppgifter. Du kommer att lära dig mer om detta från den här artikeln.

CPU

CPU:ns huvuduppgift, i enkla termer, är att utföra en kedja av instruktioner på snabbast möjliga tid. en kort tid. CPU:n är utformad för att exekvera flera sådana kedjor samtidigt, eller för att dela en ström av instruktioner i flera och, efter att ha exekverat dem separat, slå samman dem tillbaka till en, i rätt ordning. Varje instruktion i en tråd beror på de som följer den, vilket är anledningen till att processorn har så få exekveringsenheter, och hela tonvikten ligger på exekveringshastighet och reducering av driftstopp, vilket uppnås med hjälp av cacheminne och en pipeline.

GPU

GPU:ns huvudfunktion är att återge 3D-grafik och visuella effekter, därför är allt lite enklare: den måste ta emot polygoner som indata, och efter att ha utfört nödvändiga matematiska och logiska operationer på dem, mata ut pixelkoordinater. En GPU:s arbete handlar i huvudsak om att arbeta med ett stort antal uppgifter oberoende av varandra; därför innehåller den en stor mängd minne, men inte lika snabbt som i en CPU, och ett stort antal exekveringsenheter: moderna GPU:er finns det 2048 eller fler av dem, medan deras antal som en CPU kan nå 48, men oftast ligger deras antal i intervallet 2-8.

Huvudsakliga skillnader

CPU:n skiljer sig från GPU:n främst genom hur den kommer åt minnet. I GPU:n är det sammanhängande och lätt förutsägbart - om en textur-texel läses från minnet, kommer efter ett tag vändningen till närliggande texel. Situationen är liknande med inspelning - en pixel skrivs till rambufferten, och efter några klockcykler kommer den som finns bredvid att spelas in. Dessutom behöver GPU:n, till skillnad från generella processorer, helt enkelt inte cacheminne stor storlek, och texturer kräver endast 128–256 kilobyte. Dessutom använder grafikkort snabbare minne, och som ett resultat har GPU:n många gånger mer tillgänglig genomströmning, vilket också är mycket viktigt för parallella beräkningar som arbetar med enorma dataströmmar.

Det finns många skillnader i stöd för multithreading: CPU:n kör 1 2 trådar av beräkningar per processorkärna, och GPU:n kan stödja flera tusen trådar för varje multiprocessor, varav det finns flera på chipet! Och om byte från en tråd till en annan kostar hundratals klockcykler för CPU:n, så byter GPU:n flera trådar i en klockcykel.

I en CPU är det mesta av chipområdet upptaget av instruktionsbuffertar, förutsägelse av hårdvarugrenar och enorma mängder cacheminne, medan i en GPU är det mesta av området upptaget av exekveringsenheter. Den ovan beskrivna enheten visas schematiskt nedan:

Skillnad i beräkningshastighet

Om CPU:n är en slags "chef" som fattar beslut i enlighet med programmets instruktioner, är GPU:n en "arbetare" som utför ett stort antal liknande beräkningar. Det visar sig att om du matar oberoende enkla matematiska uppgifter till GPU:n kommer den att klara sig mycket snabbare än den centrala processorn. Denna skillnad används framgångsrikt av Bitcoin-gruvarbetare.

Bryta Bitcoin

Kärnan i gruvdrift är att datorer som finns i olika delar av jorden löser matematiska problem, som ett resultat av vilka bitcoins skapas. Alla bitcoinöverföringar längs kedjan överförs till gruvarbetare, vars jobb är att välja bland miljontals kombinationer en enda hash som matchar alla nya transaktioner och en hemlig nyckel, som säkerställer att gruvarbetaren får en belöning på 25 bitcoins åt gången. Eftersom beräkningshastigheten direkt beror på antalet exekveringsenheter, visar det sig att GPU:er är mycket bättre lämpade för exekvering av denna typ uppgifter än CPU. Ju fler beräkningar som utförs, desto större är chansen att få bitcoins. Det gick till och med så långt att man byggde hela gårdar av grafikkort.

Många har sett förkortningen GPU, men det är inte alla som vet vad det är. Detta komponent, som är en del av grafikkort. Ibland kallas det ett grafikkort, men det är inte korrekt. GPU:n är upptagen bearbetning kommandon som bildar en tredimensionell bild. Detta är huvudelementet vars makt beror på prestanda hela videosystemet.

Äta flera typer sådana chips - diskret Och inbyggt. Naturligtvis är det värt att nämna direkt att den första är bättre. Den är placerad på separata moduler. Den är kraftfull och kräver bra kyl-. Den andra är installerad på nästan alla datorer. Den är inbyggd i processorn, vilket gör energiförbrukningen flera gånger lägre. Det går naturligtvis inte att jämföra med fullfjädrade diskreta marker, men för tillfället visar det sig ganska bra resultat.

Hur processorn fungerar

GPU är inkopplad bearbetning 2D- och 3D-grafik. Tack vare GPU:n är datorns CPU friare och kan utföra viktigare uppgifter. huvud funktion GPU är att den gör sitt bästa öka en hastighet beräkning grafisk information. Chiparkitekturen möjliggör större effektivitet bearbeta grafisk information snarare än den centrala CPU:n på en PC.

GPU installeras plats tredimensionella modeller i ramen. Inblandad i filtrering trianglar som ingår i dem, bestämmer vilka som är synliga och skär bort de som är dolda av andra föremål.

Moderna enheter använder en grafikprocessor, som också kallas en GPU. Vad är det och vad är dess funktionsprincip? GPU (Graphics - en processor vars huvudsakliga uppgift är att bearbeta grafik och flyttalsberäkningar. GPU:n underlättar huvudprocessorns arbete om vi pratar om om tunga spel och applikationer med 3D-grafik.

Vad är detta?

GPU:n skapar grafik, texturer, färger. En processor som har flera kärnor kan arbeta med höga hastigheter. Grafikkortet har många kärnor som huvudsakligen fungerar på låga hastigheter. De gör pixel- och vertexberäkningar. De senare bearbetas huvudsakligen i ett koordinatsystem. Grafikprocessorn bearbetar olika uppgifter genom att skapa ett tredimensionellt utrymme på skärmen, det vill säga objekt rör sig i den.

Funktionsprincip

Vad gör en GPU? Han sysslar med grafikbehandling i 2D- och 3D-format. Tack vare GPU:n kan din dator utföra viktiga uppgifter snabbare och enklare. Det speciella med GPU:n är att den ökar beräkningshastigheten på maximal nivå. Dess arkitektur är utformad på ett sådant sätt att den gör att den kan bearbeta visuell information mer effektivt än en dators centrala CPU.

Han ansvarar för placeringen av tredimensionella modeller i ramen. Dessutom filtrerar varje processor trianglarna som ingår i den. Den avgör vilka som är synliga och tar bort de som är gömda bakom andra objekt. Ritar ljuskällor och bestämmer hur dessa källor påverkar färg. Grafikprocessorn (vad det är beskrivs i artikeln) skapar en bild och visar den på användarens skärm.

Effektivitet

Vad är anledningen effektivt arbete GPU? Temperatur. Ett av problemen med datorer och bärbara datorer är överhettning. Detta är huvudorsaken till att enheten och dess element snabbt misslyckas. GPU-problem börjar när CPU-temperaturen överstiger 65 °C. I det här fallet märker användarna att processorn börjar arbeta svagare och hoppar över klockcykler för att självständigt sänka den ökade temperaturen.

Temperaturområde 65-80 °C är kritiskt. I det här fallet startar systemet om (nödsituation) och datorn stängs av av sig själv. Det är viktigt för användaren att se till att GPU-temperaturen inte överstiger 50 °C. En temperatur på 30-35 °C anses vara normal vid tomgång, 40-45 °C med långa timmars belastning. Ju lägre temperatur, desto högre prestanda på datorn. För moderkort, grafikkort, fodral och hårddiskar- dina egna temperaturförhållanden.

Men många användare är också bekymrade över frågan om hur man sänker temperaturen på processorn för att öka dess effektivitet. Först måste du ta reda på orsaken till överhettning. Detta kan vara ett igensatt kylsystem, uttorkad termisk pasta, skadlig programvara, överklockning av processorn, rå BIOS-firmware. Det enklaste en användare kan göra är att byta ut den termiska pastan, som sitter på själva processorn. Dessutom behöver kylsystemet rengöras. Experter rekommenderar också att du installerar en kraftfull kylare som förbättrar luftcirkulationen systemenhet, öka rotationshastigheten på grafikadapterns kylare. Alla datorer och GPU:er har samma temperatursänkningsschema. Det är viktigt att övervaka enheten och rengöra den i tid.

Specifikt

Grafikprocessorn är placerad på grafikkortet, dess huvuduppgift är att bearbeta 2D- och 3D-grafik. Om en GPU är installerad på datorn utför inte enhetens processor onödigt arbete och fungerar därför snabbare. Huvudfunktionen hos grafiken är att dess huvudmål är att öka hastigheten för beräkning av objekt och texturer, det vill säga grafisk information. Processorarkitekturen gör att de kan arbeta mycket mer effektivt och bearbeta visuell information. En vanlig processor kan inte göra detta.

Typer

Vad är det här - en grafikprocessor? Detta är en komponent som ingår i grafikkortet. Det finns flera typer av marker: inbyggda och diskreta. Experter säger att den andra klarar sin uppgift bättre. Den är installerad på separata moduler, eftersom den kännetecknas av sin kraft, men den kräver utmärkt kylning. Nästan alla datorer har en inbyggd grafikprocessor. Den är installerad i CPU:n för att göra energiförbrukningen flera gånger lägre. Den kan inte jämföras med diskreta när det gäller kraft, men den har också goda egenskaper och uppvisar goda resultat.

Datorgrafik

Vad är det här? Detta är namnet på det verksamhetsområde där datorteknik används för att skapa bilder och bearbeta visuell information. Modern Datorgrafik, inklusive vetenskapliga, låter dig grafiskt bearbeta resultat, bygga diagram, grafer, ritningar och även utföra olika typer av virtuella experiment.

Tekniska produkter skapas med konstruktiv grafik. Det finns andra typer av datorgrafik:

  • animerad;
  • multimedia;
  • konstnärlig;
  • reklam;
  • belysande.

Ur teknisk synvinkel är datorgrafik tvådimensionell och 3D-bilder.

CPU och GPU: skillnaden

Vad är skillnaden mellan dessa två beteckningar? Många användare är medvetna om att grafikprocessorn (vad det är - beskrivet ovan) och grafikkortet utför olika uppgifter. Dessutom skiljer de sig åt i sin inre struktur. Både CPU:er och GPU:er har många liknande funktioner, men de är gjorda för olika ändamål.

CPU:n utför en specifik kedja av instruktioner under en kort tidsperiod. Den är utformad på ett sådant sätt att den bildar flera kedjor samtidigt, delar upp strömmen av instruktioner i många, exekverar dem och sedan slår samman dem tillbaka till en i en specifik ordning. Instruktionen i tråden beror på de som följer den, därför innehåller CPU:n ett litet antal exekveringsenheter, här ges huvudprioritet till exekveringshastighet och reducering av stilleståndstid. Allt detta uppnås med hjälp av en pipeline och cacheminne.

GPU:n har en annan viktig funktion - rendering av visuella effekter och 3D-grafik. Det fungerar enklare: det tar emot polygoner som indata, utför nödvändiga logiska och matematiska operationer och matar ut pixelkoordinater. Arbetet med en GPU innebär att hantera ett stort flöde av olika uppgifter. Dess egenhet är att den är utrustad med stor kraft men fungerar långsamt jämfört med processorn. Dessutom har moderna GPU:er mer än 2000 exekveringsenheter. De skiljer sig åt i sina metoder för minnesåtkomst. Till exempel behöver grafik inte stort cachelagrat minne. GPU:er har mer bandbredd. För att förklara det i enkla termer fattar CPU:n beslut i enlighet med programmets uppgifter, och GPU:n utför många identiska beräkningar.




Topp