1 GPU programvara. Likbez på mobil hårdvara: grafikprocessorer. Grafikkortsminne

Aktivitetshanteraren Windows 10 innehåller detaljerade övervakningsverktyg GPU (GPU). Du kan se användningen av varje app och systemomfattande GPU, och Microsoft lovar att indikatorer Aktivitetshanteraren kommer att vara mer exakt än tredjepartsverktyg.

Hur det fungerar

Dessa funktioner GPU lades till i uppdateringen Fall Creators för Windows 10 , också känd som Windows 10 version 1709 . Om du använder Windows 7, 8 eller mer gammal version Windows 10, du kommer inte att se dessa verktyg i din aktivitetshanterare.

Windows använder nyare funktioner i Windows Display Driver Model för att extrahera information direkt från GPU (VidSCH) och videominneshanterare (VidMm) i WDDM-grafikkärnan, som ansvarar för den faktiska allokeringen av resurser. Den visar mycket exakta data oavsett vilka API-applikationer som använder för att komma åt GPU:n - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller vad som helst.

Det är därför i Aktivitetshanteraren endast WDDM 2.0-kompatibla system visas GPU:er . Om du inte ser det, använder ditt systems GPU förmodligen en äldre typ av drivrutin.

Du kan kontrollera vilken version av WDDM som din drivrutin använder GPU genom att trycka på Windows-knappen + R, skriv i fältet "dxdiag", Och tryck sedan på" Enter"För att öppna verktyget" Diagnostikverktyg för DirectX". Gå till fliken Skärm och titta till höger om Modell under Drivrutiner. Om du ser en WDDM 2.x-drivrutin här är ditt system kompatibelt. Om du ser en WDDM 1.x-drivrutin här, din GPU oförenlig.

Så här ser du GPU-prestanda

Denna information finns tillgänglig i Aktivitetshanteraren , även om den är dold som standard. För att öppna den, öppna Aktivitetshanteraren genom att högerklicka på ett tomt utrymme i aktivitetsfältet och välja " Aktivitetshanteraren” eller genom att trycka på Ctrl+Skift+Esc på tangentbordet.

Klicka på knappen Mer information längst ned i fönstret Aktivitetshanteraren' om du ser standardvyn.

Om GPU visas inte i Aktivitetshanteraren , i helskärmsläge på fliken " Processer» högerklicka på valfri kolumnrubrik och aktivera sedan alternativet « GPU ". Detta kommer att lägga till en kolumn GPU , som låter dig se andelen resurser GPU används av varje applikation.

Du kan också aktivera alternativet " GPU kärna för att se vilken GPU programmet använder.

Allmän användning GPU av alla applikationer på ditt system visas överst i kolumnen GPU. Klicka på en kolumn GPU för att sortera listan och se vilka appar som använder din GPU mest av allt det här ögonblicket.

Nummer i kolumn GPUär den högsta användning som applikationen använder för alla motorer. Så, till exempel, om en applikation använder 50 % av GPU 3D-motorn och 2 % av GPU:s videoavkodningsmotor, kommer du bara att se siffran 50 % i GPU-kolumnen.

I kolumnen " GPU kärna” visas för varje applikation. Det visar dig vad fysisk GPU och vilken motor applikationen använder, till exempel om den använder en 3D-motor eller en videoavkodningsmotor. Du kan avgöra vilken GPU som matchar ett visst mått genom att markera " Prestanda', som vi kommer att diskutera i nästa avsnitt.

Hur man visar en applikations användning av videominne

Om du undrar hur mycket videominne som används av ett program, måste du gå till fliken Detaljer i Aktivitetshanteraren. På fliken Detaljer högerklickar du på valfri kolumnrubrik och väljer Välj kolumner. Rulla ned och aktivera kolumner " GPU », « GPU kärna », « "och" ". De två första är också tillgängliga på fliken Processer, men de två sista minnesalternativen är endast tillgängliga på panelen Detaljer.

kolumn " Dedikerat GPU-minne » visar hur mycket minne appen använder på din GPU. Om din dator har en diskret NVIDIA grafikkort eller AMD, då är detta en del av dess VRAM, det vill säga hur mycket fysiskt minne på ditt grafikkort applikationen använder. Om du har integrerad grafikprocessor , är en del av ditt vanliga systemminne reserverat exklusivt för din grafikhårdvara. Detta visar hur mycket av det reserverade minnet som används av programmet.

Windows tillåter även applikationer att lagra vissa data i vanliga system-DRAM. kolumn " Delat GPU-minne ' visar hur mycket minne programmet för närvarande använder för videoenheter från datorns normala system-RAM.

Du kan klicka på någon av kolumnerna för att sortera efter dem och se vilken app som använder mest resurser. Till exempel, för att se de program som använder mest videominne på din GPU, klicka på " Dedikerat GPU-minne ».

Hur man spårar GPU-delningsanvändning

För att spåra övergripande resursanvändningsstatistik GPU, gå till " Prestanda'och titta på' GPU» längst ned i sidofältet. Om din dator har flera GPU:er kommer du att se flera alternativ här GPU.

Om du har flera länkade GPU:er - med en funktion som NVIDIA SLI eller AMD Crossfire kommer du att se dem identifierade med ett "#" i deras namn.

Windows visar användning GPU i realtid. Standard Aktivitetshanteraren försöker visa de mest intressanta fyra motorerna enligt vad som händer på ditt system. Du kommer till exempel att se olika grafik beroende på om du spelar 3D-spel eller kodar videor. Du kan dock klicka på något av namnen ovanför graferna och välja någon av de andra tillgängliga motorerna.

Namn på din GPU visas också i sidofältet och högst upp i det här fönstret, vilket gör det enkelt att kontrollera vilken grafikhårdvara som är installerad på din PC.

Du kommer också att se grafer för dedikerade och delade minnesanvändning GPU. Användning av delat minne GPU avser hur mycket av systemets totala minne som används för uppgifter GPU. Detta minne kan användas för både vanliga systemuppgifter och videoinspelningar.

Längst ner i fönstret ser du information som versionsnummer för den installerade videodrivrutinen, utvecklingsdatum och fysisk plats. GPU på ditt system.

Om du vill se denna information i ett mindre fönster som är lättare att lämna på skärmen, dubbelklicka var som helst på GPU-skärmen eller högerklicka var som helst inuti den och välj alternativet Grafisk sammanfattning". Du kan maximera fönstret genom att dubbelklicka på fältet, eller genom att högerklicka i det och avmarkera " Grafisk sammanfattning».

Du kan också högerklicka på grafen och välja Redigera graf > Enkel kärna för att bara se ett sökmotordiagram GPU.

För att få det här fönstret permanent att visas på din skärm, klicka på "Alternativ" > " Ovanpå andra fönster».

Dubbelklicka i fältet GPU en gång till och du har ett minimalt fönster som du kan placera var som helst på skärmen.

Hej kära användare och älskare av datorhårdvara. Idag kommer vi att diskutera vad integrerad grafik i en processor är, varför det behövs överhuvudtaget och om en sådan lösning är ett alternativ till diskreta, det vill säga externa grafikkort.

Om du tänker ur teknisk avsikt, så är den integrerade grafikkärnan, som används flitigt i sina produkter av Intel och AMD är inte ett grafikkort i sig. Detta är ett videochip som integrerades i CPU-arkitekturen för att utföra de grundläggande uppgifterna för en diskret accelerator. Men låt oss ta itu med allt mer i detalj.

Från den här artikeln kommer du att lära dig:

Utseendehistoria

Företag började lägga grafik på sina egna marker i mitten av 2000-talet. Intel började dock utvecklingen med Intel GMA denna teknik visade sig ganska svagt och var därför olämplig för videospel. Som ett resultat föds den berömda HD Graphics-tekniken (för närvarande är den senaste representanten för linjen HD-grafik 630 i den åttonde generationen chips kaffe sjö). Debuterade en videokärna baserad på Westmere-arkitekturen, bestående av mobila chips Arrandale och skrivbordet - Clarkdale (2010).

AMD gick åt andra hållet. Först köpte företaget ut ATI Electronics, den en gång så coola grafikkortstillverkaren. Sedan började hon mixtra med sin egen AMD Fusion-teknik och skapade sina egna APU:er - CPU med integrerad videokärna (Accelerated Processing Unit). Den första generationens chips gjorde sin debut som en del av Liano-arkitekturen, och sedan Trinity. Tja, grafiken Radeon r7-serien under lång tid registrerad i sammansättningen av bärbara datorer och netbooks av medelklassen.

Fördelar med inbyggda lösningar i spel

Så. Varför behöver vi ett integrerat kort och vad är det för skillnader från ett diskret.

Vi kommer att försöka göra en jämförelse med en förklaring av varje position, vilket gör allt så argumenterande som möjligt. Låt oss kanske börja med en sådan egenskap som prestanda. Vi kommer att överväga och jämföra de mest relevanta lösningarna för tillfället från Intel (HD 630 med en grafikacceleratorfrekvens från 350 till 1200 MHz) och AMD (Vega 11 med en frekvens på 300-1300 MHz), samt fördelarna med dessa lösningar ger.
Låt oss börja med kostnaden för systemet. Integrerad grafik gör att du kan spara mycket på köpet av en diskret lösning, upp till 150 $, vilket är avgörande när du skapar den mest ekonomiska datorn för kontor och användning.

Frekvensen för AMD-grafikacceleratorn är märkbart högre, och prestandan hos adaptern från de röda är betydligt högre, vilket indikerar följande indikatorer i samma spel:

Ett spel inställningar Intel AMD
PUBG Full HD Låg 8–14 fps 26–36 fps
GTA V Full HD Medium 15–22 fps 55–66 fps
Wolfenstein II HD, låg 9–14 fps 85–99 fps
Fortnite Full HD Medium 9–13 fps 36–45 fps
Raket ligan FullHD, hög 15–27 fps 35–53 fps
CS:GO FullHD, max 32–63 fps 105–164 fps
Övervakning Full HD Medium 15–22 fps 50–60 fps

Som du kan se, Vega 11 - det bästa valet för billiga "spelsystem", eftersom adapterns prestanda i vissa fall når nivån på en fullfjädrad GeForce GT 1050. Och i de flesta nätverksstrider visar den sig perfekt.

För närvarande kommer endast denna grafik AMD-processor Ryzen 2400G, men definitivt värt en titt.

Möjlighet för kontorsuppgifter och hemmabruk

Vilka krav ställer du oftast på din PC? Om vi ​​utesluter spel får vi följande uppsättning parametrar:

  • titta på filmer i HD-kvalitet och videor på Youtube (FullHD och i sällsynta fall 4K);
  • arbeta med webbläsaren;
  • lyssnar på musik;
  • kommunikation med vänner eller kollegor med hjälp av instant messengers;
  • Applikationsutveckling;
  • kontorsuppgifter ( Microsoft Office och liknande program).

Alla dessa objekt fungerar utmärkt med den integrerade grafikkärnan i upplösningar upp till FullHD.
Den enda nyansen som måste beaktas utan att misslyckas är stödet för videoutgångarna för det moderkort som du ska placera processorn på. Kontrollera denna punkt i förväg så att det inte blir några problem i framtiden.

Nackdelar med integrerad grafik

Eftersom vi räknat ut fördelarna måste du räkna ut nackdelarna med lösningen.

  • Den största nackdelen med ett sådant företag är prestanda. Ja, du kan spela mer eller mindre moderna leksaker på låga och höga inställningar med gott samvete, men grafikälskare kommer definitivt inte att gilla denna idé. Tja, om du arbetar med grafik professionellt (bearbetning, rendering, videoredigering, efterproduktion), och till och med på 2-3 skärmar, kommer den integrerade videotypen definitivt inte att passa dig.

  • Moment nummer 2: brist på egen hastighetsminne(i moderna kort är dessa GDDR5, GDDR5X och HBM). Formellt kan videochippet använda upp till 64 GB minne, men var kommer allt ifrån? Det stämmer, från det operativa. Det innebär att det är nödvändigt att bygga systemet i förväg på ett sådant sätt att det finns tillräckligt med RAM-minne för både arbets- och grafikuppgifter. Tänk på att hastigheten på moderna DDR4-moduler är mycket lägre än GDDR5, och därför kommer mer tid att läggas på databehandling.
  • Nästa nackdel är värmeavledning. Förutom sina egna kärnor dyker en annan upp i processen, som i teorin inte värms upp mindre. Du kan kyla all denna prakt med en förpackad (komplett) skivspelare, men gör dig redo för periodisk underskattning av frekvenser i särskilt komplexa beräkningar. Att köpa en kraftfullare kylare löser problemet.
  • Tja, den sista nyansen är omöjligheten att uppgradera videon utan att ersätta processorn. Med andra ord, för att förbättra den integrerade videokärnan, måste du bokstavligen köpa ny processor. Tveksam fördel, eller hur? I det här fallet är det lättare att köpa en diskret accelerator efter ett tag. Tillverkare som AMD och nVidia erbjuder fantastiska lösningar för alla smaker.

Resultat

Integrerad grafik är ett bra alternativ i tre fall:

  • du behöver ett tillfälligt grafikkort, eftersom det inte fanns tillräckligt med pengar för ett externt;
  • systemet var ursprungligen tänkt som utanför budget;
  • du bygger en multimediastation för hemmet (HTPC) som fokuserar på den inbäddade kärnan.

Vi hoppas att ett problem i ditt huvud har blivit mindre, och nu vet du varför tillverkare skapar sina APU:er.

I de följande artiklarna kommer vi att prata om sådana termer som virtualisering och inte bara. Följ för att hålla dig à jour med alla relevanta ämnen relaterade till järn.

Vi vet alla att ett grafikkort och en processor har lite olika uppgifter, men vet du hur de skiljer sig från varandra i den interna strukturen? Som en CPU centrala behandlingsenheten), och GPU (engelska - grafisk bearbetningsenhet) är processorer, och det finns många likheter mellan dem, men de designades för att utföra olika uppgifter. Du kommer att lära dig mer om detta från den här artikeln.

CPU

CPU:ns huvuduppgift, i enkla termer, är att utföra en kedja av instruktioner för maximalt en kort tid. CPU:n är utformad på ett sådant sätt att den kan exekvera flera av dessa kedjor samtidigt, eller dela en ström av instruktioner i flera och, efter att ha utfört dem separat, slå samman dem till en, i rätt ordning. Varje instruktion i en tråd beror på de som följer den, vilket är anledningen till att CPU:n har så få exekveringsenheter, och all tonvikt ligger på exekveringshastighet och att minska vilotider, vilket uppnås med hjälp av cacheminne och en pipeline.

GPU

Huvudfunktionen hos GPU:n är att återge 3D-grafik och visuella effekter, därför är allt lite enklare i det: det måste få polygoner vid ingången, och efter att ha utfört de nödvändiga matematiska och logiska operationerna på dem, ge pixelkoordinaterna vid utgången. Faktum är att GPU:ns arbete reduceras till att arbeta med ett stort antal oberoende uppgifter, därför innehåller den en stor mängd minne, men inte lika snabbt som i CPU:n, och ett stort antal exekveringsenheter: moderna GPU: er har 2048 eller fler av dem, medan deras antal som en CPU kan nå 48, men oftast ligger deras antal i intervallet 2-8.

Huvudsakliga skillnader

CPU:n skiljer sig från GPU:n främst genom hur den kommer åt minnet. I GPU:n är den ansluten och lätt förutsägbar - om en textur-texel läses från minnet kommer efter ett tag turen till närliggande texel. Med inspelning är situationen liknande - en pixel skrivs till rambufferten, och efter några cykler kommer den som ligger bredvid att spelas in. Dessutom behöver GPU:n, till skillnad från generella processorer, helt enkelt inte cacheminne. stor storlek, medan texturer bara kräver 128-256 kilobyte. Dessutom använder grafikkort snabbare minne, och som ett resultat är GPU:n tillgänglig många gånger mer genomströmning, vilket också är mycket viktigt för parallella beräkningar som arbetar med enorma dataströmmar.

Det finns många skillnader i stöd för multithreading: CPU:n kör 1 2 beräkningstrådar per processorkärna, och GPU:n kan stödja flera tusen trådar per multiprocessor, varav det finns flera i ett chip! Och om att byta från en tråd till en annan för CPU:n kostar hundratals cykler, byter GPU:n flera trådar i en cykel.

I CPU:n är det mesta av chipområdet upptaget av instruktionsbuffertar, förutsägelse av hårdvarugrenar och enorma mängder cacheminne, medan i GPU:n är det mesta av området upptaget av exekveringsenheter. Ovanstående enhet visas schematiskt nedan:

Skillnad i beräkningshastighet

Om CPU:n är en sorts "chef" som fattar beslut i enlighet med programmets instruktioner, så är GPU:n en "arbetare" som utför en enorm mängd av samma typ av beräkningar. Det visar sig att om du skickar in enkla oberoende matematiska problem till GPU:n kommer den att klara sig mycket snabbare än den centrala processorn. Denna skillnad används framgångsrikt av bitcoin-gruvarbetare.

Bitcoin Mining

Kärnan i gruvdrift är att datorer som finns i olika delar av jorden löser matematiska problem, som ett resultat av vilka bitcoins skapas. Alla bitcoinöverföringar längs kedjan överförs till gruvarbetare, vars jobb det är att välja bland miljontals kombinationer en enda hash som matchar alla nya transaktioner och en hemlig nyckel, som kommer att ge gruvarbetaren en belöning på 25 bitcoins åt gången. Eftersom beräkningshastigheten direkt beror på antalet exekveringsenheter, visar det sig att GPU:er är mycket bättre lämpade att köra av denna typ uppgifter än CPU. Ju fler beräkningar som görs, desto större är chansen att få bitcoins. Det kom till och med att bygga hela gårdar från grafikkort.

Många har sett förkortningen GPU, men det är inte alla som vet vad det är. Detta komponent, som ingår i grafikkort. Ibland kallas det ett grafikkort, men det är inte korrekt. GPU:n är inkopplad bearbetning kommandon som bildar en tredimensionell bild. Detta är huvudelementet på vilken kraft beror på prestanda hela videosystemet.

Äta flera typer sådana chips diskret Och inbyggt. Naturligtvis är det värt att nämna direkt att den första är bättre. Den är placerad på separata moduler. Den är kraftfull och kräver bra kyl-. Den andra är installerad på nästan alla datorer. Den är inbyggd i processorn, vilket gör strömförbrukningen flera gånger lägre. Det går naturligtvis inte att jämföra med fullfjädrade diskreta marker, men för tillfället visar det sig ganska bra resultat.

Hur processorn fungerar

GPU inkopplad bearbetning 2D- och 3D-grafik. Tack vare GPU:n blir datorns CPU friare och kan utföra viktigare uppgifter. huvud funktion GPU genom att den försöker så mycket som möjligt öka en hastighet beräkning grafisk information. Chiparkitekturen tillåter mer effektivitet bearbeta grafisk information än en PCs centrala CPU.

GPU-set plats tredimensionella modeller i ramen. Engagerad filtrering av trianglarna de innehåller, bestämmer vilka som är synliga och skär bort de som är gömda av andra föremål.

I moderna enheter används en grafikprocessor, som också kallas en GPU. Vad är det och vad är dess funktionsprincip? GPU (Graphics - en processor vars huvuduppgift är att bearbeta grafik och flyttalsberäkningar. En GPU underlättar huvudprocessorns arbete om i fråga om tunga spel och applikationer med 3D-grafik.

Vad är detta?

GPU:n skapar grafik, texturer, färger. En processor som har flera kärnor kan köras i höga hastigheter. Grafikkortet har många kärnor som huvudsakligen fungerar på låga hastigheter. De gör pixel- och vertexberäkningar. Bearbetningen av det senare sker huvudsakligen i koordinatsystemet. Grafikprocessorn bearbetar olika uppgifter genom att skapa ett tredimensionellt utrymme på skärmen, det vill säga att objekt i den rör sig.

Funktionsprincip

Vad gör en GPU? Han är engagerad i bearbetning av grafik i 2D- och 3D-format. Tack vare GPU:n kan datorn utföra viktiga uppgifter snabbare och enklare. Det speciella med GPU:n är att den ökar beräkningshastigheten på maximal nivå. Dess arkitektur är utformad på ett sådant sätt att den kan bearbeta visuell information mer effektivt än en dators centrala CPU.

Han ansvarar för arrangemanget av tredimensionella modeller i ramen. Dessutom filtrerar var och en av processorerna trianglarna som ingår i den. Det avgör vilka som är synliga, tar bort de som är gömda bakom andra objekt. Ritar ljuskällor, bestämmer hur dessa källor påverkar färg. Grafikprocessorn (vad det är - beskrivs i artikeln) skapar en bild, visar den för användaren på skärmen.

Effektivitet

Vad orsakade effektivt arbete GPU? temperatur. Ett av problemen med datorer och bärbara datorer är överhettning. Detta är huvudorsaken till att enheten och dess element snabbt misslyckas. Problem med GPU:n börjar när temperaturen på processorn överstiger 65 ° C. I det här fallet märker användarna att processorn börjar arbeta svagare, hoppar över cykler för att sänka den ökade temperaturen på egen hand.

Temperaturregimen på 65-80 ° C är kritisk. I det här fallet startar systemet om (nödsituation), datorn stängs av av sig själv. Det är viktigt för användaren att se till att temperaturen på GPU:n inte överstiger 50 ° C. Normalt är t 30-35°C i vilotid, 40-45°C med många timmars belastning. Ju lägre temperatur, desto bättre prestanda har datorn. För moderkort, grafikkort, fodral och hårddiskar- deras temperaturregimer.

Men många användare är också bekymrade över frågan om hur man sänker temperaturen på processorn för att öka dess effektivitet. Först måste du ta reda på orsaken till överhettning. Detta kan vara ett igensatt kylsystem, torkad termisk pasta, skadlig programvara, processoröverklockning, rå BIOS-firmware. Det enklaste en användare kan göra är att byta ut den termiska pastan som sitter på själva processorn. Dessutom måste du rengöra kylsystemet. Experter rekommenderar också att du installerar en kraftfull kylare som förbättrar luftcirkulationen systemenhet, öka rotationshastigheten på den kallare grafikadaptern. För alla datorer och GPU:er, samma schema för att sänka temperaturen. Det är viktigt att övervaka enheten, rengöra den i tid.

Specificitet

Grafikprocessorn är placerad på grafikkortet, dess huvuduppgift är att bearbeta 2D- och 3D-grafik. Om en GPU är installerad på datorn gör inte enhetens processor onödigt arbete, så den fungerar snabbare. Det huvudsakliga kännetecknet för grafiken är att dess huvudmål är att öka hastigheten för att beräkna objekt och texturer, det vill säga grafisk information. Processorns arkitektur gör att de kan arbeta mycket mer effektivt, bearbeta visuell information. En normal processor kan inte göra det.

Typer

Vad är en GPU? Detta är en komponent som är en del av grafikkortet. Det finns flera typer av marker: inbyggda och diskreta. Experter säger att den andra klarar sin uppgift bättre. Den är installerad på separata moduler, eftersom den kännetecknas av sin kraft, men den behöver utmärkt kylning. Nästan alla datorer har en integrerad grafikprocessor. Den är installerad i CPU:n för att göra strömförbrukningen flera gånger lägre. Det går inte att jämföra med diskreta, men det har också bra egenskaper och visar bra resultat.

Datorgrafik

Vad är det här? Detta är namnet på det verksamhetsområde där datorteknik används för att skapa bilder och bearbeta visuell information. Modern Datorgrafik, inklusive vetenskaplig, låter dig grafiskt bearbeta resultaten, bygga diagram, grafer, ritningar, samt utföra olika typer av virtuella experiment.

Med hjälp av konstruktiv grafik skapas tekniska produkter. Det finns andra typer av datorgrafik:

  • animation;
  • multimedia;
  • konstnärlig;
  • reklam;
  • belysande.

Ur teknisk synvinkel är datorgrafik tvådimensionell och 3D-bilder.

CPU och GPU: skillnaden

Vad är skillnaden mellan dessa två beteckningar? Många användare är medvetna om att grafikprocessorn (som beskrivs ovan) och grafikkortet utför olika uppgifter. Dessutom skiljer de sig åt i sin inre struktur. Både CPU och GPU – som har många liknande funktioner, men de är gjorda för olika ändamål.

CPU:n utför en viss kedja av instruktioner på kort tid. Den är gjord på ett sådant sätt att den bildar flera kedjor samtidigt, delar upp flödet av instruktioner i många, exekverar dem, sedan slår samman dem tillbaka till en helhet i en specifik ordning. Instruktionen i tråden är beroende av de som följer den, så CPU:n innehåller ett litet antal exekveringsenheter, här ges huvudprioritet till exekveringshastighet, vilket minskar vilotiderna. Allt detta uppnås med hjälp av en pipeline och cacheminne.

GPU:n har en annan viktig funktion - rendering av visuella effekter och 3D-grafik. Det fungerar enklare: det tar emot polygoner vid ingången, utför de nödvändiga logiska och matematiska operationerna och matar ut pixelkoordinater vid utgången. GPU:ns arbete är att hantera en stor ström av olika uppgifter. Dess egenhet är att den är utrustad med ett stort men långsamt arbete jämfört med CPU. Dessutom finns det mer än 2000 exekveringsenheter i moderna GPU:er. De skiljer sig från varandra i metoderna för att komma åt minnet. Till exempel behöver ett grafikkort inte stort cachat minne. GPU:n har mer bandbredd. Enkelt uttryckt fattar CPU:n beslut i enlighet med programmets uppgifter, och GPU:n utför många av samma beräkningar.




Topp