1 programvare GPU. Pedagogisk program på mobil maskinvare: grafiske prosessorer. Videokortminne

Oppgavebehandling Windows 10 inneholder detaljerte overvåkingsverktøy GPU (GPU). Du kan se GPU-bruk per app og systemomfattende, og Microsoft lover at indikatorene oppgavebehandling vil være mer nøyaktig enn indikatorer fra tredjepartsverktøy.

Hvordan det fungerer

Disse funksjonene GPU ble lagt til i oppdateringen Fall Creators for Windows 10 , også kjent som Windows 10 versjon 1709 . Hvis du bruker Windows 7, 8 eller høyere gammel versjon Windows 10, du vil ikke se disse verktøyene i oppgavebehandlingen din.

Windows bruker nyere funksjoner i Windows Display Driver Model for å trekke ut informasjon direkte fra GPU (VidSCH) og videominnebehandling (VidMm) i WDDM-grafikkjernen, som er ansvarlige for selve allokeringen av ressurser. Den viser svært nøyaktige data uansett hvilke API-applikasjoner som bruker for å få tilgang til GPU - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller noe annet.

Det er derfor i oppgavebehandling Kun WDDM 2.0-kompatible systemer vises GPUer . Hvis du ikke ser dette, bruker sannsynligvis systemets GPU en eldre type driver.

Du kan sjekke hvilken versjon av WDDM driveren din bruker GPU ved å trykke Windows-tasten + R, skrive "dxdiag" i feltet, og deretter trykke "Enter" for å åpne verktøyet " DirectX diagnoseverktøy" Gå til "Skjerm"-fanen og se til høyre for "Modell" i "Drivere"-delen. Hvis du ser en WDDM 2.x-driver her, er systemet ditt kompatibelt. Hvis du ser en WDDM 1.x-driver her, vil din GPU uforenlig.

Slik ser du GPU-ytelse

Denne informasjonen er tilgjengelig i oppgavebehandling , selv om den er skjult som standard. For å åpne den, åpne Oppgavebehandling ved å høyreklikke på en ledig plass på oppgavelinjen og velge " Oppgavebehandling"eller ved å trykke Ctrl+Shift+Esc på tastaturet.

Klikk på "Mer detaljer"-knappen nederst i vinduet " Oppgavebehandling" hvis du ser den enkle standardvisningen.

Hvis GPU vises ikke i oppgavebehandling , i fullskjermmodus på "-fanen Prosesser"Høyreklikk på hvilken som helst kolonneoverskrift og aktiver deretter alternativet" GPU " Dette vil legge til en kolonne GPU , som lar deg se prosentandelen av ressurser GPU , brukt av hver applikasjon.

Du kan også aktivere alternativet " GPU kjerne" for å se hvilken GPU appen bruker.

Generell bruk GPU av alle applikasjoner på systemet ditt vises øverst i kolonnen GPU. Klikk på en kolonne GPU for å sortere listen og se hvilke apper som bruker din GPU mest av alt på dette øyeblikket.

Nummer i kolonne GPU- Dette er den høyeste bruken som applikasjonen bruker på tvers av alle motorer. Så, for eksempel, hvis en applikasjon bruker 50 % GPU 3D-motor og 2 % GPU-videomotordekoding, vil du ganske enkelt se GPU-kolonnen som viser tallet 50 %.

I kolonnen " GPU kjerne» hver applikasjon vises. Dette viser deg hva fysisk GPU og hvilken motor applikasjonen bruker, for eksempel om den bruker en 3D-motor eller en videodekodingsmotor. Du kan finne ut hvilken GPU som kvalifiserer for en bestemt beregning ved å sjekke " Opptreden", som vi skal snakke om i neste avsnitt.

Hvordan se en applikasjons videominnebruk

Hvis du lurer på hvor mye videominne som brukes av et program, må du gå til fanen Detaljer i Oppgavebehandling. På fanen Detaljer høyreklikker du på en kolonneoverskrift og velger Velg kolonner. Rull ned og slå på kolonner " GPU », « GPU kjerne », « "Og" " De to første er også tilgjengelige i kategorien Prosesser, men de to siste minnealternativene er bare tilgjengelige i detaljpanelet.

Kolonne " Dedikert GPU-minne » viser hvor mye minne applikasjonen bruker på din GPU. Hvis PC-en din har en diskret NVIDIA skjermkort eller AMD, så er dette en del av dens VRAM, det vil si hvor mye fysisk minne på skjermkortet applikasjonen bruker. Hvis du har integrert grafikkprosessor , en del av ditt vanlige systemminne reservert eksklusivt for din grafikkmaskinvare. Dette viser hvor mye av det reserverte minnet som brukes av applikasjonen.

Windows lar også programmer lagre noen data i vanlig system-DRAM. Kolonne " Delt GPU-minne " viser hvor mye minne applikasjonen bruker for videoenheter fra datamaskinens vanlige system-RAM.

Du kan klikke på hvilken som helst av kolonnene for å sortere etter dem og se hvilken applikasjon som bruker mest ressurser. For å se applikasjonene som bruker mest videominne på GPU-en, klikker du for eksempel " Dedikert GPU-minne ».

Slik sporer du bruk av GPU-andel

For å spore samlet ressursbruksstatistikk GPU, gå til " Opptreden"og se på" GPU" nederst i sidefeltet. Hvis datamaskinen din har flere GPUer, vil du se flere alternativer her GPU.

Hvis du har flere koblede GPUer - ved å bruke en funksjon som NVIDIA SLI eller AMD Crossfire, vil du se dem identifisert med en "#" i navnet.

Windows viser bruk GPU i virkeligheten. Misligholde Oppgavebehandling prøver å vise de mest interessante fire motorene i henhold til hva som skjer i systemet ditt. Du vil for eksempel se forskjellig grafikk avhengig av om du spiller 3D-spill eller koder videoer. Du kan imidlertid klikke på et av navnene over diagrammene og velge en av de andre tilgjengelige motorene.

Navnet på din GPU vises også i sidefeltet og øverst i dette vinduet, noe som gjør det enkelt å sjekke hvilken grafikkmaskinvare som er installert på PC-en din.

Du vil også se grafer for dedikert og delt minnebruk GPU. Bruk av delt minne GPU refererer til hvor mye av systemets totale minne som brukes til oppgaver GPU. Dette minnet kan brukes til både vanlige systemoppgaver og videoopptak.

Nederst i vinduet vil du se informasjon som versjonsnummeret til den installerte videodriveren, utviklingsdato og fysisk plassering GPU på systemet ditt.

Hvis du vil se denne informasjonen i et mindre vindu som er lettere å la på skjermen, dobbeltklikker du hvor som helst på GPU-skjermen eller høyreklikker hvor som helst inne i den og velger alternativet Grafisk sammendrag" Du kan maksimere et vindu ved å dobbeltklikke i panelet eller ved å høyreklikke i det og fjerne merket for " Grafisk sammendrag».

Du kan også høyreklikke på grafen og velge "Rediger graf" > "Enkeltkjerne" for å se kun én motorgraf GPU.

For å holde dette vinduet permanent vist på skjermen, klikk "Alternativer" > " På toppen av andre vinduer».

Dobbeltklikk inne i panelet GPU igjen, og du vil ha et minimalt vindu som du kan plassere hvor som helst på skjermen.

Hei, kjære brukere og maskinvareelskere. I dag skal vi diskutere hva integrert grafikk i en prosessor er, hvorfor det er nødvendig i det hele tatt, og om en slik løsning er et alternativ til diskrete, det vil si eksterne skjermkort.

Hvis vi tenker fra ingeniørdesign, så er den innebygde grafikkjernen, som er mye brukt i produktene sine Intel-selskaper og AMD, er ikke et skjermkort som sådan. Dette er en videobrikke som ble integrert i CPU-arkitekturen for å utføre de grunnleggende oppgavene til en diskret akselerator. Men la oss forstå alt mer detaljert.

Fra denne artikkelen vil du lære:

Utseendehistorie

Bedrifter begynte først å implementere grafikk i sine egne brikker på midten av 2000-tallet. Intel startet imidlertid utviklingen med Intel GMA denne teknologien viste seg ganske dårlig, og var derfor uegnet for videospill. Som et resultat er den berømte HD Graphics-teknologien født (for øyeblikket er den siste representanten for linjen HD Graphics 630 i åttende generasjon sjetonger Coffee Lake). Videokjernen debuterte på Westmere-arkitekturen, bestående av mobile brikker Arrandale og desktop – Clarkdale (2010).

AMD gikk en annen vei. Først kjøpte selskapet ut ATI Electronics, en gang så kul skjermkortprodusent. Så begynte hun å studere AMDs egen Fusion-teknologi, og skapte sine egne APU-er - prosessor med innebygd videokjerne (Accelerated Processing Unit). Den første generasjonen chips debuterte som en del av Liano-arkitekturen, og deretter Trinity. Vel, grafikk i Radeon r7-serien har vært inkludert i middelklassens bærbare datamaskiner og netbooks i lang tid.

Fordelene med innebygde løsninger i spill

Så. Hvorfor trenger du et integrert kort, og hva er dets forskjeller fra et diskret?

Vi vil prøve å gjøre en sammenligning med en forklaring av hver posisjon, og gjøre alt så begrunnet som mulig. La oss starte, kanskje, med en slik egenskap som ytelse. Vi vil vurdere og sammenligne de mest aktuelle løsningene fra Intel (HD 630 med en grafikkakseleratorfrekvens fra 350 til 1200 MHz) og AMD (Vega 11 med en frekvens på 300-1300 MHz), samt fordelene som disse løsningene gir.
La oss starte med kostnadene for systemet. Integrert grafikk lar deg spare mye på å kjøpe en diskret løsning, opp til $150, som er svært viktig når du skal lage den mest økonomiske PC-en for kontorbruk.

Frekvensen til AMD-grafikkakseleratoren er merkbart høyere, og ytelsen til adapteren fra de røde er betydelig høyere, noe som indikerer følgende indikatorer i de samme spillene:

Et spill Innstillinger Intel AMD
PUBG FullHD, lav 8–14 fps 26–36 fps
GTA V FullHD, medium 15–22 fps 55–66 fps
Wolfenstein II HD, lav 9–14 fps 85–99 fps
Fortnite FullHD, medium 9–13 fps 36–45 fps
Rocket League FullHD, høy 15–27 fps 35–53 fps
CS:GO FullHD, maks 32–63 fps 105–164 fps
Overwatch FullHD, medium 15–22 fps 50–60 fps

Som du kan se, Vega 11 - det beste valget for rimelige "gaming"-systemer, siden adapterens ytelse i noen tilfeller når nivået til en fullverdig GeForce GT 1050. Og i de fleste online-kamper fungerer den bra.

For øyeblikket er denne grafikken kun tilgjengelig med AMD prosessor Ryzen 2400G, men det er definitivt verdt en titt.

Mulighet for kontoroppgaver og hjemmebruk

Hvilke krav stiller du oftest til PC-en din? Hvis vi ekskluderer spill, får vi følgende sett med parametere:

  • se filmer i HD-kvalitet og videoer på Youtube (FullHD og i sjeldne tilfeller 4K);
  • arbeide med en nettleser;
  • hører på musikk;
  • kommunisere med venner eller kolleger ved å bruke direktemeldinger;
  • Applikasjonsutvikling;
  • kontoroppgaver ( Microsoft Office og lignende programmer).

Alle disse punktene fungerer perfekt med den innebygde grafikkjernen ved oppløsninger opptil FullHD.
Den eneste nyansen som må tas i betraktning er støtte for videoutganger hovedkort, som du skal installere prosessoren på. Vennligst avklar dette punktet på forhånd for å unngå problemer i fremtiden.

Ulemper med integrert grafikk

Siden vi har forholdt oss til fordelene, må vi også finne ut av ulempene ved løsningen.

  • Den største ulempen med et slikt foretak er produktivitet. Ja, du kan spille mer eller mindre moderne spill med god samvittighet på lave og høye innstillinger, men grafikkelskere vil definitivt ikke like denne ideen. Vel, hvis du jobber med grafikk profesjonelt (behandling, gjengivelse, videoredigering, etterproduksjon), og til og med på 2-3 skjermer, vil den integrerte videotypen definitivt ikke passe deg.

  • Punkt nummer 2: mangel på egen høyhastighets minne(i moderne kort er disse GDDR5, GDDR5X og HBM). Formelt sett kan videobrikken bruke minst 64 GB minne, men hvor skal alt komme fra? Det stemmer, fra operasjonsrommet. Det betyr at det er nødvendig å bygge systemet på forhånd på en slik måte at det er nok RAM til både arbeids- og grafiske oppgaver. Husk at hastigheten på moderne DDR4-moduler er mye lavere enn GDDR5, og derfor vil mer tid bli brukt på å behandle data.
  • Den neste ulempen er varmeutvikling. I tillegg til sine egne kjerner, dukker det opp en annen under prosessen, som i teorien ikke varmer opp mindre. Du kan avkjøle all denne prakten med en (komplett) platespiller, men vær forberedt på periodisk senking av frekvenser, spesielt komplekse beregninger. Å kjøpe en kraftigere kjøler løser problemet.
  • Vel, den siste nyansen er umuligheten av å oppgradere video uten å erstatte prosessoren. Med andre ord, for å forbedre den innebygde videokjernen, må du bokstavelig talt kjøpe ny prosessor. En tvilsom fordel, ikke sant? I dette tilfellet er det lettere å kjøpe en diskret akselerator etter en stund. Produsenter som AMD og nVidia tilbyr utmerkede løsninger for enhver smak.

Resultater

Integrert grafikk – flott alternativ i 3 tilfeller:

  • du trenger et midlertidig skjermkort fordi du ikke har nok penger til et eksternt;
  • systemet ble opprinnelig tenkt som et ekstrabudsjett;
  • du lager en hjemme-multimediaarbeidsstasjon (HTPC), der hovedfokuset er på den innebygde kjernen.

Vi håper det er ett problem mindre i hodet ditt, og nå vet du hvorfor produsenter lager sine APU-er.

I de følgende artiklene vil vi snakke om begreper som virtualisering og mer. Følg med for å holde deg oppdatert med alle de siste emnene knyttet til maskinvare.

Vi vet alle at et skjermkort og en prosessor har litt forskjellige oppgaver, men vet du hvordan de skiller seg fra hverandre i den interne strukturen? Som CPU sentralenhet), og GPU (engelsk - grafikkbehandlingsenhet) er prosessorer, og de har mye til felles, men de ble designet for å utføre forskjellige oppgaver. Du vil lære mer om dette fra denne artikkelen.

prosessor

Hovedoppgaven til CPU-en, enkelt sagt, er å utføre en kjede med instruksjoner på raskest mulig tid. en kort tid. CPU-en er designet for å utføre flere slike kjeder samtidig, eller for å dele en strøm av instruksjoner i flere og, etter å ha utført dem separat, slå dem sammen tilbake til én, i riktig rekkefølge. Hver instruksjon i en tråd avhenger av de som følger den, og det er grunnen til at CPUen har så få utførelsesenheter, og hele vekten er lagt på utførelseshastighet og å redusere nedetid, noe som oppnås ved hjelp av cache-minne og en pipeline.

GPU

Hovedfunksjonen til GPUen er å gjengi 3D-grafikk og visuelle effekter, derfor er alt litt enklere: den trenger å motta polygoner som input, og etter å ha utført de nødvendige matematiske og logiske operasjonene på dem, gi ut pikselkoordinater. I hovedsak kommer arbeidet til en GPU ned til å operere på et stort antall oppgaver uavhengig av hverandre; derfor inneholder den en stor mengde minne, men ikke så raskt som i en CPU, og et stort antall utførelsesenheter: moderne GPUer er det 2048 eller flere av dem, mens antallet som en CPU kan nå 48, men som oftest ligger antallet i området 2-8.

Hovedforskjeller

CPU-en skiller seg fra GPU først og fremst i måten den får tilgang til minne på. I GPU-en er den sammenhengende og lett forutsigbar - hvis en tekstur-texel leses fra minnet, vil etter en stund komme svingen til nabo-texel. Situasjonen er lik med opptak - en piksel skrives til rammebufferen, og etter noen klokkesykluser vil den som ligger ved siden av den bli tatt opp. Dessuten trenger GPU, i motsetning til generelle prosessorer, ganske enkelt ikke hurtigbufferminne stor størrelse, og teksturer krever bare 128–256 kilobyte. I tillegg bruker skjermkort raskere minne, og som et resultat har GPUen mange ganger mer tilgjengelig gjennomstrømning, som også er veldig viktig for parallelle beregninger som opererer med enorme datastrømmer.

Det er mange forskjeller i multithreading-støtte: CPUen kjører 1 2 tråder med beregninger per prosessorkjerne, og GPUen kan støtte flere tusen tråder for hver multiprosessor, hvorav det er flere på brikken! Og hvis bytte fra en tråd til en annen koster hundrevis av klokkesykluser for CPU, så bytter GPUen flere tråder i en klokkesyklus.

I en CPU er det meste av brikkeområdet okkupert av instruksjonsbuffere, maskinvaregrenprediksjon og enorme mengder cache-minne, mens i en GPU er det meste av området okkupert av utførelsesenheter. Den ovenfor beskrevne enheten er vist skjematisk nedenfor:

Forskjell i datahastighet

Hvis CPU-en er en slags "sjef" som tar beslutninger i samsvar med instruksjonene til programmet, er GPU-en en "arbeider" som utfører et stort antall lignende beregninger. Det viser seg at hvis du mater uavhengige enkle matematiske oppgaver til GPUen, vil den klare seg mye raskere enn den sentrale prosessoren. Denne forskjellen brukes med hell av Bitcoin-gruvearbeidere.

Utvinning av Bitcoin

Essensen av gruvedrift er at datamaskiner plassert i forskjellige deler av jorden løser matematiske problemer, som et resultat av at bitcoins blir opprettet. Alle bitcoin-overføringer langs kjeden blir overført til gruvearbeidere, hvis jobb er å velge fra millioner av kombinasjoner en enkelt hash som matcher alle nye transaksjoner og en hemmelig nøkkel, som vil sikre at gruvearbeideren mottar en belønning på 25 bitcoins om gangen. Siden beregningshastigheten direkte avhenger av antall utførelsesenheter, viser det seg at GPU-er er mye bedre egnet for utførelse av denne typen oppgaver enn CPU. Jo større antall beregninger som utføres, desto større er sjansen for å motta bitcoins. Det gikk til og med så langt som å bygge hele gårder av skjermkort.

Mange har sett forkortelsen GPU, men ikke alle vet hva det er. Dette komponent, som er en del av skjermkort. Noen ganger kalles det et skjermkort, men dette er ikke riktig. GPUen er opptatt behandling kommandoer som danner et tredimensjonalt bilde. Dette er hovedelementet hvis makt er avhengig av opptreden hele videosystemet.

Spise flere typer slike sjetonger - diskret Og innebygd. Selvfølgelig er det verdt å nevne med en gang at den første er bedre. Den er plassert på separate moduler. Det er kraftig og krever godt kjøling. Den andre er installert på nesten alle datamaskiner. Den er innebygd i CPU, noe som gjør energiforbruket flere ganger lavere. Selvfølgelig kan det ikke sammenlignes med fullverdige diskrete sjetonger, men for øyeblikket viser det ganske bra resultater.

Hvordan prosessoren fungerer

GPU er engasjert behandling 2D- og 3D-grafikk. Takket være GPUen er datamaskinens CPU friere og kan utføre viktigere oppgaver. hovedfunksjon GPU er at den prøver sitt beste øke en hastighet beregning grafisk informasjon. Brikkearkitekturen gir mulighet for større effektivitet behandle grafisk informasjon i stedet for den sentrale CPU-en til en PC.

GPU installeres plassering tredimensjonale modeller i rammen. Engasjert i filtrering trekanter som er inkludert i dem, bestemmer hvilke som er synlige, og kutter av de som er skjult av andre objekter.

Moderne enheter bruker en grafikkprosessor, som også omtales som en GPU. Hva er det og hva er dets operasjonsprinsipp? GPU (Graphics - en prosessor hvis hovedoppgave er å behandle grafikk og flyttallsberegninger. GPUen letter arbeidet til hovedprosessoren hvis vi snakker om om tunge spill og applikasjoner med 3D-grafikk.

Hva er dette?

GPUen lager grafikk, teksturer, farger. En prosessor som har flere kjerner kan operere i høye hastigheter. Grafikkortet har mange kjerner som primært opererer på lave hastigheter. De gjør piksel- og toppunktberegninger. Sistnevnte behandles hovedsakelig i et koordinatsystem. Grafikkprosessoren behandler ulike oppgaver ved å lage et tredimensjonalt rom på skjermen, det vil si at objekter beveger seg i den.

Prinsipp for operasjon

Hva gjør en GPU? Han driver med grafikkbehandling i 2D- og 3D-formater. Takket være GPUen kan datamaskinen utføre viktige oppgaver raskere og enklere. Det særegne ved GPUen er at den øker beregningshastigheten på maksimalt nivå. Arkitekturen er utformet på en slik måte at den lar den behandle visuell informasjon mer effektivt enn den sentrale CPU-en til en datamaskin.

Han er ansvarlig for plasseringen av tredimensjonale modeller i rammen. I tillegg filtrerer hver prosessor trekantene som er inkludert i den. Den bestemmer hvilke som er synlige og fjerner de som er skjult bak andre objekter. Tegner lyskilder og bestemmer hvordan disse kildene påvirker fargen. Grafikkprosessoren (hva det er er beskrevet i artikkelen) lager et bilde og viser det på brukerens skjerm.

Effektivitet

Hva er grunnen effektivt arbeid GPU? Temperatur. Et av problemene med PC-er og bærbare datamaskiner er overoppheting. Dette er hovedårsaken til at enheten og dens elementer raskt mislykkes. GPU-problemer begynner når CPU-temperaturen overstiger 65 °C. I dette tilfellet merker brukere at prosessoren begynner å fungere svakere og hopper over klokkesykluser for å senke den økte temperaturen uavhengig.

Temperaturområde 65-80 °C er kritisk. I dette tilfellet starter systemet på nytt (nød) og datamaskinen slår seg av av seg selv. Det er viktig for brukeren å sørge for at GPU-temperaturen ikke overstiger 50 °C. En temperatur på 30-35 °C regnes som normal ved tomgang, 40-45 °C med lange timer med belastning. Jo lavere temperatur, jo høyere ytelse har datamaskinen. Til hovedkort, skjermkort, etuier og harddisk- dine egne temperaturforhold.

Men mange brukere er også bekymret for spørsmålet om hvordan man kan redusere temperaturen på prosessoren for å øke effektiviteten. Først må du finne ut årsaken til overoppheting. Dette kan være et tilstoppet kjølesystem, uttørket termisk pasta, skadevare, overklokking av prosessoren, rå BIOS-fastvare. Det enkleste en bruker kan gjøre er å erstatte den termiske pastaen, som er plassert på selve prosessoren. I tillegg må kjølesystemet rengjøres. Eksperter anbefaler også å installere en kraftig kjøler som forbedrer luftsirkulasjonen i systemenhet, øk rotasjonshastigheten på grafikkadapterkjøleren. Alle datamaskiner og GPUer har samme temperaturreduksjonsskjema. Det er viktig å overvåke enheten og rengjøre den i tide.

Detaljer

Grafikkprosessoren er plassert på skjermkortet, dens hovedoppgave er å behandle 2D- og 3D-grafikk. Hvis en GPU er installert på datamaskinen, utfører ikke enhetens prosessor unødvendig arbeid, og fungerer derfor raskere. Hovedfunksjonen til grafikken er at hovedmålet er å øke hastigheten på beregningen av objekter og teksturer, det vil si grafisk informasjon. Prosessorarkitekturen lar dem jobbe mye mer effektivt og behandle visuell informasjon. En vanlig prosessor kan ikke gjøre dette.

Slags

Hva er dette - en grafikkprosessor? Dette er en komponent som er inkludert i skjermkortet. Det finnes flere typer sjetonger: innebygd og diskret. Eksperter sier at den andre takler oppgaven bedre. Den er installert på separate moduler, siden den kjennetegnes ved sin kraft, men den krever utmerket kjøling. Nesten alle datamaskiner har en innebygd grafikkprosessor. Den er installert i CPU for å gjøre energiforbruket flere ganger lavere. Den kan ikke sammenlignes med diskrete når det gjelder kraft, men den har også gode egenskaper og viser gode resultater.

Data-grafikk

Hva er dette? Dette er navnet på aktivitetsfeltet der datateknologi brukes til å lage bilder og behandle visuell informasjon. Moderne data-grafikk, inkludert vitenskapelige, lar deg behandle resultater grafisk, bygge diagrammer, grafer, tegninger og også utføre ulike typer virtuelle eksperimenter.

Tekniske produkter er laget ved hjelp av konstruktiv grafikk. Det finnes andre typer datagrafikk:

  • animert;
  • multimedia;
  • kunstnerisk;
  • reklame;
  • illustrerende.

Fra et teknisk synspunkt er datagrafikk todimensjonal og 3D-bilder.

CPU og GPU: forskjellen

Hva er forskjellen mellom disse to betegnelsene? Mange brukere er klar over at grafikkprosessoren (hva det er - beskrevet ovenfor) og skjermkortet utfører forskjellige oppgaver. I tillegg er de forskjellige i deres indre struktur. Både CPUer og GPUer har mange lignende funksjoner, men de er laget for forskjellige formål.

CPU-en utfører en bestemt kjede med instruksjoner i løpet av kort tid. Den er utformet på en slik måte at den danner flere kjeder samtidig, deler strømmen av instruksjoner i mange, utfører dem, for så å slå dem sammen til én i en bestemt rekkefølge. Instruksjonen i tråden avhenger av de som følger den, derfor inneholder CPUen et lite antall utførelsesenheter, her er hovedprioriteten til utførelseshastighet og reduksjon av nedetid. Alt dette oppnås ved hjelp av en pipeline og cache-minne.

GPUen har en annen viktig funksjon - gjengivelse av visuelle effekter og 3D-grafikk. Det fungerer enklere: det mottar polygoner som input, utfører nødvendige logiske og matematiske operasjoner, og sender ut pikselkoordinater. Arbeidet til en GPU innebærer å håndtere en stor flyt av forskjellige oppgaver. Dets særegne er at den er utstyrt med stor kraft, men fungerer sakte sammenlignet med CPU. I tillegg har moderne GPUer mer enn 2000 utførelsesenheter. De er forskjellige i minnetilgangsmetoder. For eksempel trenger ikke grafikk stort bufret minne. GPUer har mer båndbredde. For å forklare det på en enkel måte, tar CPU-en beslutninger i samsvar med oppgavene til programmet, og GPU-en utfører mange identiske beregninger.




Topp