Prosessorflaskehals. Flaskehals: Evolusjon av PC-flaskehalsproblemet. I tillegg til å overvåke produksjonen, brukes følgende verktøy for å identifisere flaskehalser:

FX vs Core i7 | Ser etter flaskehalser med Eyefinity-konfigurasjonen

Vi har sett prosessorytelsen dobles hvert tredje til fjerde år. Likevel er de mest krevende spillmotorene vi testet like gamle som Core 2 Duo-prosessorer. Naturligvis burde CPU-flaskehalser være en saga blott, ikke sant? Som det viser seg, vokser GPU-hastigheten enda raskere enn CPU-ytelsen. Dermed fortsetter debatten om å kjøpe en raskere CPU eller øke grafikkkraften.

Men det kommer alltid en tid da krangling er meningsløst. For oss kom det da spill begynte å kjøre jevnt på den største skjermen med en naturlig oppløsning på 2560x1600. Og hvis en raskere komponent kan gi et gjennomsnitt på 200 i stedet for 120 bilder per sekund, vil forskjellen fortsatt ikke være merkbar.

Som svar på mangelen på mer høye oppløsninger for raske grafikkadaptere introduserte AMD Eyefinity-teknologi, og Nvidia introduserte Surround. Begge teknologiene lar deg spille på mer enn én skjerm, og å kjøre med 5760x1080 oppløsning har blitt en objektiv realitet for avanserte GPUer. I hovedsak vil tre 1920x1080 skjermer være billigere og mer imponerende enn én 2560x1600 skjerm. Derav grunnen til å bruke ekstra penger på kraftigere grafikkløsninger.

Men er det virkelig nødvendig? kraftig prosessorå spille uten å stamme med en oppløsning på 5760x1080? Spørsmålet viste seg å være interessant.

AMD introduserte nylig en ny arkitektur og vi kjøpte en eske FX-8350. I artikkelen "AMD FX-8350 gjennomgang og test: Vil Piledriver fikse bulldoserens mangler?" Vi likte godt med den nye prosessoren.

Fra et økonomisk synspunkt vil Intel i denne sammenligningen måtte bevise at den ikke bare er raskere enn AMD-brikken i spill, men også rettferdiggjør den høye prisforskjellen.


Begge hovedkortene tilhører Asus Sabertooth-familien, men selskapet ber om en høyere pris for modellen med LGA 1155-sokkelen, noe som kompliserer Intels budsjettsituasjon ytterligere. Vi valgte spesifikt disse plattformene for å gjøre ytelsessammenligninger så rettferdige som mulig, uten å ta hensyn til kostnader.

FX vs Core i7 | Konfigurasjon og tester

Mens vi ventet på at han skulle dukke opp i testlaben FX-8350, gjennomførte boksetester. Med tanke på at AMD-prosessoren når 4,4 GHz uten problemer, begynte vi å teste Intel-brikken på samme frekvens. Det viste seg senere at vi hadde undervurdert prøvene våre, da begge CPU-ene nådde 4,5 GHz på valgt spenningsnivå.

Vi ønsket ikke å utsette publiseringen på grunn av gjentatte tester ved høyere frekvenser, så vi bestemte oss for å la testresultatene ligge på 4,4 GHz.

Test konfigurasjon
CPU Intel Intel Core i7-3770K (Ivy Bridge): 3,5 GHz, 8 MB delt L3-buffer, LGA 1155 overklokket til 4,4 GHz ved 1,25 V
Intel hovedkort Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Intel CPU-kjøler Thermalright MUX-120 m/Zalman ZM-STG1 Paste
CPU AMD AMD FX-8350 (Vishera): 4,0 GHz, 8 MB delt L3-buffer, Socket AM3+ overklokket til 4,4 GHz ved 1,35 V
AMD hovedkort Asus Sabertooth 990FX, BIOS 1604 (24.10.2012)
CPU-kjøler AMD Sunbeamtech Core-Contact Fryser m/Zalman ZM-STG1 Pasta
Nett Innebygd Gigabit LAN-kontroller
Hukommelse G.Skill F3-17600CL9Q-16GBXLD (16 GB) DDR3-2200 CAS 9-11-9-36 1,65 V
Skjermkort 2 x MSI R7970-2PMD3GD5/OC: GPU, 1010 MHz GDDR5-5500
Oppbevarings enhet Mushkin Chronos Deluxe DX 240 GB, SATA 6 Gb/s SSD
Ernæring Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUSS gull
Programvare og drivere
operativsystem Microsoft Windows 8 Professional RTM x64
Grafikk driver AMD Catalyst 12.10

På grunn av deres høye effektivitet og raske installasjon, har vi brukt Thermalright MUX-120 og Sunbeamtech Core Contact Freezer-kjølere i flere år. Monteringsbrakettene som følger med disse modellene er imidlertid ikke utskiftbare.


G.Skill F3-17600CL9Q-16GBXLD minnemoduler har DDR3-2200 CAS 9-spesifikasjon, og bruker Intel XMP-profiler for halvautomatisk konfigurasjon. Sabertooth 990FX bruker XMP-verdier via Asus DOCP.

Seasonic X760-strømforsyningen gir den høye effektiviteten som trengs for å evaluere plattformforskjeller.

StarCraft II støtter ikke AMD Eyefinity-teknologi, så vi bestemte oss for å bruke eldre spill: Aliens vs. Predator and Metro 2033.

Testkonfigurasjon (3D-spill)
Aliens vs. Rovdyret ved å bruke AvP Tool v.1.03, SSAO/tesselasjon/skygger på.
Testkonfigurasjon 1: Høy teksturkvalitet, ingen AA, 4x AF
Testkonfigurasjon 2: Meget høy teksturkvalitet, 4x AA, 16x AF
Battlefield 3 Kampanjemodus, "Going Hunting" 90-sekunders Fraps
Testinnstilling 1: Middels kvalitet (ingen AA, 4x AF)
Testoppsett 2: Ultrakvalitet (4x AA, 16x AF)
F1 2012 Steam-versjon, innebygd benchmark
Testinnstilling 1: Høy kvalitet, ingen AA
Testoppsett 2: Ultrakvalitet, 8x AA
Elder Scrolls V: Skyrim Oppdatering 1.7, Celedon Aethirborn nivå 6, 25-sekunders Fraps
Testoppsett 1: DX11, Høyt detaljnivå uten AA, 8x AF, FXAA på.
Testoppsett 2: DX11, Ultra Detail Level, 8x AA, 16x AF, FXAA On.
Metro 2033 Fullversjon, innebygd benchmark, "Frontline"-scene
Testoppsett 1: DX11, High, AAA, 4x AF, No PhysX, No DoF
Testoppsett 2: DX11, veldig høy, 4x AA, 16x AF, ingen PhysX, DoF på.

FX vs Core i7 | Testresultater

Battlefield 3, F1 2012 og Skyrim

Men først, la oss ta en titt på strømforbruk og effektivitet.

Strømforbruk ikke overklokket FX-8350 Sammenlignet med Intel-brikken er den ikke så forferdelig, selv om den faktisk er høyere. På grafen ser vi imidlertid ikke hele bildet. Vi så ikke at brikken kjørte på 4GHz under konstant belastning på basisinnstillingene. I stedet, da han behandlet åtte tråder i Prime95, reduserte han multiplikatoren og spenningen for å holde seg innenfor den angitte termiske konvolutten. Gassregulering begrenser CPU-strømforbruket kunstig. Innstilling av en fast multiplikator og spenning øker denne indikatoren betydelig for Vishera prosessor under akselerasjon.

Samtidig er det ikke alle spill som kan bruke prosessorens muligheter FX-8350 behandle åtte datastrømmer samtidig, derfor vil de aldri kunne bringe brikken til strupemekanismen.

Som allerede nevnt, under spill på ikke-overklokket FX-8350 struping er ikke aktivert fordi de fleste spill ikke kan laste prosessoren helt. Faktisk drar spill nytte av Turbo Core-teknologi, som øker prosessorfrekvensen til 4,2 GHz. AMD-brikken presterte dårligst i gjennomsnittlig ytelsesdiagram, der Intel ligger merkbart foran.

For effektivitetsdiagrammet bruker vi gjennomsnittlig strømforbruk og gjennomsnittlig ytelse for alle fire konfigurasjonene som et gjennomsnitt. Dette diagrammet viser ytelsen per watt til en AMD-prosessor. FX-8350 er omtrent to tredjedeler av Intels resultat.

FX vs Core i7 | Vil AMD FX klare å ta igjen Radeon HD 7970?

Når vi snakker om god og rimelig maskinvare, liker vi å bruke setninger som "80 % ytelse for 60 % kostnad." Disse beregningene er alltid veldig rettferdige fordi vi har blitt vant med å måle ytelse, strømforbruk og effektivitet. Imidlertid tar de hensyn til kostnadene for bare én komponent, og komponenter kan som regel ikke fungere alene.

Legger man til komponentene som er brukt i dagens gjennomgang, er systemet priset til Intel basertøkt til $1900, og AMD-plattformer til $1724, dette tar ikke hensyn til tilfeller, periferiutstyr og operativsystemer. Hvis vi vurderer "ferdige" løsninger, er det verdt å legge til ytterligere $80 per sak, så vi ender opp med $1984 for Intel og $1804 for AMD. Besparelsen på en ferdig konfigurasjon med en AMD-prosessor er $180, som ikke er mye som en prosentandel av den totale kostnaden for systemet. Med andre ord, er de resterende komponentene i en high-end personlig datamaskin bagatellisert med mer enn gunstig pris prosessor.

Som et resultat sitter vi igjen med to fullstendig partiske måter å sammenligne pris og ytelse på. Vi innrømmet åpent, så vi håper at vi ikke blir dømt for resultatene som ble presentert.

Det er mer lønnsomt for AMD hvis vi bare inkluderer kostnadene for hovedkortet og CPU og øker fordelen. Du får et diagram som dette:

Som et tredje alternativ kan du vurdere hovedkortet og prosessoren som en oppgradering, forutsatt at deksel, strømforsyning, minne og stasjoner er til overs fra det forrige systemet. Mest sannsynlig et par skjermkort Radeon HD 7970 ble ikke brukt i den gamle konfigurasjonen, så det er mest rimelig å ta hensyn til prosessorer, hovedkort og grafikkadaptere. Så vi legger til to $800 Tahiti GPUer til listen.

AMD FX-8350 ser bedre ut enn Intel (spesielt i spill, med innstillingene vi valgte) bare i ett tilfelle: når resten av systemet er "gratis". Siden andre komponenter ikke kan være gratis, FX-8350 vil heller ikke kunne bli et lønnsomt kjøp for spill.

Intel og AMD skjermkort

Våre testresultater har lenge vist at ATI-grafikkbrikker er mer prosessoravhengige enn Nvidia-brikker. Som et resultat, når vi tester avanserte GPUer, utstyrer vi våre prøvebenker Intel-prosessorer, omgår plattformmangler som kan forstyrre isolasjon av grafikkytelse og påvirke resultatene negativt.

Vi håpet at veien ut AMD piledriver vil endre situasjonen, men selv noen få imponerende forbedringer var ikke nok til å få CPU-teamet til å matche effektiviteten til grafikkteamet hos AMD selv. Vel, la oss vente på utgangen AMD-brikker basert på Steamroller-arkitekturen, som lover å være 15 % mer produktiv enn Piledriver.

Når du bygger en spill-PC, er den dyreste delen grafikkortet, og du vil at det skal være verdt pengene dine. Da oppstår spørsmålet: hvilken prosessor skal jeg velge for dette skjermkortet slik at det ikke begrenser det i spill? Vårt spesiallagde materiale vil hjelpe deg med dette dilemmaet.

Introduksjon

Så det viser seg at hovedsaken i en datamaskin er prosessoren og den kommanderer alt annet. Det er han som gir ordre til skjermkortet ditt om å tegne visse objekter, og også beregner fysikken til objekter (selv prosessoren beregner noen operasjoner). Hvis skjermkortet ikke fungerer med full kapasitet, og prosessoren ikke lenger kan gå raskere, oppstår en "flaskehals"-effekt når systemytelsen begrenses av dens svakeste komponent.

I virkeligheten er det alltid operasjoner når skjermkortet ikke belaster i det hele tatt, og prosentandelen jobber for full kapasitet, men vi snakker om spill her, så vi skal resonnere i dette paradigmet.

Hvordan er belastningen fordelt mellom prosessorer og skjermkort?

Det skal bemerkes at endring av innstillingene i spillet endrer forholdet mellom prosessor og skjermkortbelastning.

Ettersom oppløsningen og grafikkinnstillingene øker, øker belastningen på skjermkortet raskere enn på prosessoren. Dette betyr at hvis prosessoren ikke er en flaskehals ved lavere oppløsninger, vil den heller ikke være ved høyere oppløsninger.

Med en reduksjon i oppløsning og grafikkinnstillinger er det motsatte: belastningen på prosessoren når du gjengir en ramme forblir nesten uendret, men skjermkortet blir mye lettere. I en slik situasjon er det mer sannsynlig at prosessoren blir en flaskehals.

Hva er tegnene på flaskehals?

For å gjennomføre testen trenger du et program. Du må se på grafen "GPU Load".

Du må også kjenne belastningen på prosessoren. Dette kan gjøres i systemovervåking i oppgavebehandlingen, det er en prosessorbelastningsgraf der.

Så hva er tegnene på det Prosessoren åpner ikke skjermkortet?

  • GPU-belastningen er ikke i nærheten av 100 %, men CPU-belastningen er alltid rundt dette merket
  • GPU-belastningsgrafen svinger mye (kanskje et dårlig optimert spill)
  • Når du endrer grafikkinnstillinger, endres ikke FPS

Det er ved disse tegnene du kan finne ut om det oppstår flaskehals i ditt tilfelle?

Hvordan velge en prosessor?

For å gjøre dette anbefaler jeg deg å se prosessortester i spillet du ønsker. Det er nettsteder som spesifikt omhandler dette (,).

Et eksempel på en test i spillet Tom Clancy's The Division:

Vanligvis, når du tester prosessorer i forskjellige spill, spesifiseres grafikkinnstillingene og oppløsningen. Betingelsene velges slik at prosessoren er flaskehalsen. I dette tilfellet kan du finne ut hvor mange bilder i en gitt oppløsning en bestemt prosessor er i stand til. På denne måten kan du sammenligne prosessorer med hverandre.

Spill er forskjellige (Captain Obvious) og prosessorkravene kan være forskjellige. Så i ett spill vil alt være bra, og prosessoren vil takle scener uten problemer, men i et annet vil skjermkortet kjøle seg ned mens prosessoren vil ha store problemer med å utføre oppgavene sine.

Dette er mest påvirket av:

  • kompleksiteten til fysikken i spillet
  • kompleks romgeometri (mange store bygninger med mange detaljer)
  • kunstig intelligens

Vårt råd

  • Når du velger, anbefaler vi deg å fokusere på nettopp slike tester med de grafikkinnstillingene du trenger og FPS du trenger (hva kortet ditt kan håndtere).
  • Det er lurt å se på de mest krevende spillene hvis du vil være sikker på at fremtidige nye produkter vil fungere bra.
  • Du kan også ta prosessoren med en reserve. Nå går spill bra selv på sjetonger som er 4 år gamle (), noe som betyr det god prosessor Nå vil det glede deg i spill i veldig lang tid.
  • Hvis FPS i spillet er normal og belastningen på skjermkortet er lav, last det. Hev grafikkinnstillingene slik at skjermkortet fungerer på full kapasitet.
  • Ved bruk av DirectX 12 bør belastningen på prosessoren reduseres noe, noe som vil redusere kravene til den.

Den teknologiske utviklingen går ikke jevnt på alle områder, dette er åpenbart. I denne artikkelen vil vi se på hvilke noder på hvilke tidspunkter forbedret egenskapene sine saktere enn andre, og ble et svakt ledd. Så, dagens tema er utviklingen av svake lenker - hvordan de oppsto, påvirket og hvordan de ble eliminert.

prosessor

Fra de tidligste personlige datamaskiner hoveddelen av beregningene falt på CPU. Dette skyldtes det faktum at brikkene ikke var veldig billige, så de fleste av periferiutstyret brukte prosessortid for deres behov. Og det var svært få periferi på den tiden. Snart, med utvidelsen av omfanget av PC-applikasjoner, ble dette paradigmet revidert. Tiden er inne for at ulike utvidelseskort skal blomstre.



I dagene med "kopek" og "tre" (disse er ikke Pentiums II og III, som unge mennesker kanskje tror, ​​men i286- og i386-prosessorer), var oppgavene som ble tildelt systemene ikke veldig komplekse, hovedsakelig kontorapplikasjoner og beregninger. Utvidelseskort avlastet allerede delvis prosessoren; for eksempel gjorde MPEG-dekoderen, som dekrypterte filer komprimert i MPEG, dette uten deltakelse fra CPU. Litt senere begynte man å utvikle standarder som ville belaste prosessoren mindre ved utveksling av data. Et eksempel var PCI buss(dukket opp starter med i486), arbeid som lastet prosessoren i mindre grad. Slike eksempler inkluderer også PIO og (U)DMA.


Prosessorer økte kraften i et godt tempo, en multiplikator dukket opp, siden hastigheten på systembussen var begrenset, og en cache så ut til å maskere forespørsler inn i RAM som opererer med en lavere frekvens. Prosessoren var fortsatt det svake leddet, og driftshastigheten var nesten helt avhengig av den.



i mellomtiden Intel-selskap etter å ha gitt ut en god en Pentium prosessor lanserer en ny generasjon - Pentium MMX. Hun ønsket å endre ting og flytte beregningene til prosessoren. Instruksjonssettet MMX - MultiMedia eXtensions, som skulle fremskynde arbeidet med lyd- og videobehandling, hjalp mye på dette. Med dens hjelp begynte MP3-musikk å spille normalt, og det var mulig å oppnå akseptabel MPEG4-avspilling ved hjelp av CPU.

De første pluggene i dekket

Systemer basert på Pentium MMX-prosessoren var allerede mer begrenset av minnebåndbredde (minnebåndbredde). 66 MHz-bussen for den nye prosessoren var en flaskehals, til tross for overgangen til en ny type SDRAM-minne, som forbedret ytelsen per megahertz. Av denne grunn ble bussoverklokking veldig populær, da bussen ble satt til 83 MHz (eller 75 MHz) og fikk en veldig merkbar økning. Ofte ble selv en lavere sluttprosessorfrekvens kompensert av en høyere bussfrekvens. For første gang ble høyere hastigheter oppnådd ved lavere frekvenser. Volum ble en annen flaskehals tilfeldig tilgangsminne. For SIMM-minne var dette maksimalt 64 MB, men oftere var det 32 ​​MB eller til og med 16. Dette kompliserte bruken av programmer betydelig, siden hver en ny versjon Windows er kjent for å like å "spise mye velsmakende ramme" (c). Nylig går det rykter om en konspirasjon mellom minneprodusenter og Microsoft Corporation.



Intel begynte i mellomtiden å utvikle den dyre og derfor lite populære Socket8-plattformen, mens AMD fortsatte å utvikle Socket7. Dessverre brukte sistnevnte sakte FPU (Flytepunktenhet– operasjonsmodul med brøktall), skapt av det da nyoppkjøpte selskapet Nexgen, noe som innebar et etterslep bak konkurrenten innen multimedieoppgaver - først og fremst spill. Overføringen til en 100 MHz-buss ga prosessorene nødvendig båndbredde, og fullhastighets 256 KB L2-cache på AMD K6-3-prosessoren forbedret situasjonen så mye at nå ble systemhastigheten bare preget av prosessorfrekvensen, og ikke bussen. Selv om dette delvis skyldtes den trege FPU. Kontorapplikasjoner som var avhengige av ALU-strøm kjørte jevnt takket være det raske minneundersystemet raskere beslutninger konkurrent.

Brikkesett

Intel forlot den dyre Pentium Pro, som hadde en L2-cache-die integrert i prosessoren, og ga ut Pentium II. Denne CPU-en hadde en kjerne som var veldig lik Pentium MMX-kjernen. Hovedforskjellene var L2-cachen, som var plassert på prosessorkassetten og opererte med halve kjernefrekvensen, og nytt dekk– AGTL. Ved hjelp av nye brikkesett (spesielt i440BX) var det mulig å øke bussfrekvensen til 100 MHz og følgelig båndbredden. Når det gjelder effektivitet (forholdet mellom tilfeldig lesehastighet og teoretisk), ble disse brikkesettene et av de beste, og til i dag har ikke Intel klart å slå denne indikatoren. I440BX-seriens brikkesett hadde ett svakt ledd - den sørlige broen, hvis funksjonalitet ikke lenger oppfylte datidens krav. Det ble brukt den gamle sørbroen fra i430-serien, brukt i systemer basert på Pentium I. Det var denne omstendigheten, samt forbindelsen mellom brikkesettene via PCI-bussen, som fikk produsentene til å gi ut hybrider som inneholdt nordbroen i440BX og sørbroen VIA (686A/B).



I mellomtiden demonstrerer Intel DVD-filmavspilling uten støttekort. Men Pentium II fikk ikke mye anerkjennelse på grunn av den høye kostnaden. Behovet for å produsere billige analoger ble åpenbart. Det første forsøket - en Intel Celeron uten L2-cache - var mislykket: når det gjelder hastighet, var Covingtons veldig mye dårligere enn sine konkurrenter og rettferdiggjorde ikke prisene. Så gjør Intel et nytt forsøk, som viste seg å være vellykket - Mendocino-kjernen, elsket av overklokkere, med halvparten av cache-størrelsen (128 KB mot 256 KB for Pentium II), men som opererer med dobbelt så høy frekvens (ved prosessorfrekvensen). , ikke halvparten så treg som Pentium II). På grunn av dette var ikke hastigheten i de fleste oppgaver lavere, og den lavere prisen tiltrakk seg kjøpere.

Den første 3D og igjen bussen

Umiddelbart etter utgivelsen av Pentium MMX begynte populariseringen av 3D-teknologier. Først var dette profesjonelle applikasjoner for å utvikle modeller og grafikk, men den virkelige æraen ble åpnet av 3D-spill, eller mer presist, Voodoo 3D-akseleratorene laget av 3dfx. Disse akseleratorene ble de første mainstream-kortene for å lage 3D-scener, noe som avlastet prosessoren under gjengivelsen. Det var fra denne tiden at utviklingen av tredimensjonale spill begynte. Ganske raskt begynte sceneberegninger med den sentrale prosessoren å tape for de som ble utført med videoakseleratorer, både i hastighet og kvalitet.



Med bruken av et nytt kraftig undersystem - grafisk, som begynte å konkurrere med volumet av beregnede data sentral prosessor, en ny flaskehals har dukket opp - PCI-bussen. Spesielt Voodoo 3 og eldre kort fikk en hastighetsøkning ganske enkelt ved å overklokke PCI-bussen til 37,5 eller 41,5 MHz. Det er åpenbart behov for å gi skjermkort en rask nok buss. En slik buss (eller rettere sagt, en havn) ble til AGP - Accelerated Graphics Port. Som navnet tilsier, er dette en dedikert grafikkbuss, og i henhold til spesifikasjonen kunne den kun ha ett spor. Den første versjonen av AGP støttet AGP 1x og 2x hastigheter, som tilsvarte enkle og doble PCI 32/66 hastigheter, det vil si 266 og 533 MB/s. Den langsomme versjonen ble lagt til for kompatibilitet, og det var med den at det oppsto problemer i ganske lang tid. Dessuten var det problemer med alle brikkesett, med unntak av de utgitt av Intel. Ifølge rykter var disse problemene relatert til tilstedeværelsen av en lisens kun fra dette selskapet og dets hindring for utviklingen av den konkurrerende Socket7-plattformen.



AGP har forbedret ting og grafikkporten er ikke lenger en flaskehals. Videokort byttet til det veldig raskt, men Socket7-plattformen led av kompatibilitetsproblemer nesten helt til slutten. Bare de nyeste brikkesettene og driverne var i stand til å forbedre denne situasjonen, men selv da oppsto nyanser.

Og skruene er der!

Tiden er inne for Coppermine, frekvensene har økt, ytelsen har økt, nye skjermkort har forbedret ytelsen og økt pipelines og minne. Datamaskinen har allerede blitt et multimediesenter - de spilte musikk og så filmer på den. Integrerte lydkort med svake egenskaper taper terreng til SBLive!, som har blitt folkets valg. Men noe hindret fullstendig idyll. Hva var det?



Denne faktoren var harddisker, hvor veksten avtok og stoppet på rundt 40 GB. For filmsamlere (den gang MPEG4) skapte dette forvirring. Snart ble problemet løst, og ganske raskt - diskene vokste i volum til 80 GB og over og sluttet å bekymre de fleste brukere.


AMD produserer en veldig god plattform - Socket A og en K7-arkitekturprosessor, kalt Athlon av markedsførere (teknisk navn Argon), samt budsjettet Duron. Athlones styrker hadde en buss og en kraftig FPU, noe som gjorde den til en utmerket prosessor for seriøse beregninger og spill, og etterlot konkurrenten - Pentium 4 - rollen som kontormaskiner, hvor imidlertid, kraftige systemer var aldri påkrevd. Tidlige Durons hadde veldig lav cachestørrelse og busshastighet, noe som gjorde det vanskelig å konkurrere med Intel Celeron (Tualatin). Men på grunn av bedre skalerbarhet (på grunn av en raskere buss), reagerte de bedre på økende frekvenser, og derfor var eldre modeller allerede lett foran Intel-løsninger.

Mellom to broer


I løpet av denne perioden dukket det opp to flaskehalser på en gang. Den første er dekket mellom akslene. Tradisjonelt har PCI blitt brukt til disse formålene. Det er verdt å huske at PCI, som brukt i stasjonære datamaskiner, har en teoretisk gjennomstrømning på 133 MB/s. Faktisk avhenger hastigheten av brikkesettet og applikasjonen og varierer fra 90 til 120 MB/s. I tillegg til dette deles båndbredden mellom alle enhetene som er koblet til den. Hvis vi har to IDE-kanaler med teoretisk gjennomstrømning ved 100 Mb/s (ATA-100) koblet til en buss med en teoretisk gjennomstrømning på 133 Mb/s, så er problemet åpenbart. LPC, PS/2, SMBus, AC97 har lave krav til båndbredde. Men Ethernet, ATA 100/133, PCI, USB 1.1/2.0 fungerer allerede med hastigheter som kan sammenlignes med grensesnittet mellom broene. I lang tid var det ikke noe problem. USB ble ikke brukt, Ethernet var sjelden nødvendig og for det meste med 100 Mbps (12,5 Mbps), og harddisker kunne ikke engang komme i nærheten av grensesnittets maksimale hastighet. Men tiden gikk, og situasjonen endret seg. Det ble besluttet å lage et spesielt inter-hub (mellom broer) dekk.


VIA, SiS og Intel har sluppet egne bussalternativer. De skilte seg først og fremst ut i gjennomstrømningsevnene. De startet med PCI 32/66 - 233 Mb/s, men det viktigste var gjort - PCI-bussen ble kun tildelt for sine egne enheter, og det var ikke nødvendig å overføre data gjennom den til andre busser. Dette forbedret hastigheten på arbeidet med periferiutstyr (i forhold til broarkitektur).


Gjennomstrømningen til grafikkporten ble også økt. Muligheten til å jobbe med Fast Writes-moduser ble introdusert, noe som gjorde det mulig å skrive data direkte til videominnet, utenom systemminne, og Side Band Addressing, som brukte en ekstra 8-bits del av bussen for overføring, vanligvis beregnet for overføring av tekniske data. Gevinsten ved å bruke FW ble kun oppnådd under høy prosessorbelastning; i andre tilfeller ga det en ubetydelig gevinst. Dermed var forskjellen mellom 8x-modus og 4x innenfor feilen.

CPU-avhengighet

En annen flaskehals som dukket opp, fortsatt relevant i dag, var prosessoravhengighet. Dette fenomenet oppsto som et resultat av den raske utviklingen av skjermkort og mente utilstrekkelig kraft“prosessor – brikkesett – minne” tilkoblinger i forhold til skjermkortet. Tross alt bestemmes antall rammer i spillet ikke bare av skjermkortet, men også av denne forbindelsen, siden det er sistnevnte som gir kortet instruksjoner og data som må behandles. Hvis tilkoblingen ikke holder tritt, vil videodelsystemet treffe et tak som først og fremst bestemmes av det. Et slikt tak vil avhenge av kraften til kortet og innstillingene som brukes, men det finnes også kort som har et slikt tak med alle innstillinger i et bestemt spill eller med samme innstillinger, men i de fleste moderne spill med nesten hvilken som helst prosessor. For eksempel var GeForce 3-kortet sterkt begrenset av ytelsen til Puntium III- og Pentium 4-prosessorene basert på Willamete-kjernen. Den litt eldre GeForce 4 Ti-modellen manglet allerede Athlon 2100+-2400+, og økningen med forbedret ytelse av kombinasjonen var veldig merkbar.



Hvordan ble ytelsen forbedret? Til å begynne med økte AMD, ved å dra nytte av fruktene av den utviklede effektive arkitekturen, ganske enkelt prosessorfrekvensen og forbedret teknologisk prosess, og brikkesettprodusenter - minnebåndbredde. Intel fortsatte å følge policyen om å øke klokkefrekvensene, heldigvis ble Netburst-arkitekturen designet for å gjøre nettopp det. Intel-prosessorer på Willamete- og Northwood-kjerner med en 400QPB-buss (quad pumped bus) var dårligere enn konkurrerende løsninger med en 266 MHz-buss. Etter introduksjonen av 533QPB ble prosessorene like i ytelse. Men så bestemte Intel seg for å bruke prosessorer i stedet for 667 MHz-bussen implementert i serverløsninger stasjonære datamaskiner overføre direkte til 800 MHz-bussen for å lage strømreserver for å konkurrere med Barton-kjernen og den nye topp Athlon XP 3200+. Intel-prosessorer var svært begrenset av bussfrekvensen, og selv 533QPB var ikke nok til å gi en tilstrekkelig mengde dataflyt. Det er derfor den utgitte 3,0 GHz-prosessoren på en 800 MHz-buss overgikk 3,06 MHz-prosessoren på en 533 MHz-buss i det hele tatt, med mulig unntak av et lite antall applikasjoner.


Støtte for nye frekvensmoduser for minne ble også introdusert, og en tokanalsmodus dukket opp. Dette ble gjort for å utjevne båndbredden til prosessoren og minnebussen. Tokanals DDR-modus matchet nøyaktig QDR på samme frekvens.


For AMD var dual-channel-modus en formalitet og ga en knapt merkbar økning. Den nye Prescott-kjernen ga ikke en klar økning i hastighet og var noen steder dårligere enn den gamle Northwood. Hovedmålet var å gå over til en ny teknisk prosess og muligheten for ytterligere å øke frekvensene. Varmeproduksjonen økte betydelig på grunn av lekkasjestrømmer, som satte en stopper for utgivelsen av en modell som opererer med en frekvens på 4,0 GHz.

Gjennom taket til et nytt minne

Generasjonen Radeon 9700/9800 og GeForce 5 for datidens prosessorer forårsaket ikke problemer med prosessoravhengighet. Men GeForce 6-generasjonen brakte de fleste systemer på kne, siden ytelsesøkningen var veldig merkbar, og derfor var prosessoravhengigheten høyere. Toppprosessorer basert på Barton (Athlon XP 2500+ - 3200+) og Northwood/Prescott (3,0-3,4 MHz 800FSB) kjerner har nådd en ny grense - minnefrekvensgrensen og bussen. AMD led spesielt av dette - 400 MHz-bussen var ikke nok til å innse kraften til en god FPU. Pentium 4 hadde en bedre situasjon og viste gode resultater på minimumstider. Men JEDEC var ikke villig til å sertifisere minnemoduler med høyere frekvens og lavere latens. Derfor var det to alternativer: enten en kompleks fire-kanals modus, eller bytte til DDR2. Det siste skjedde og LGA775 (Socket T)-plattformen ble introdusert. Bussen forble den samme, men minnefrekvensene var ikke begrenset til 400 MHz, men startet bare derfra.



AMD løste problemet bedre med tanke på skalerbarhet. K8-generasjonen, teknisk kalt Hammer, hadde i tillegg til å øke antall instruksjoner per klokkesyklus (delvis på grunn av en kortere rørledning), to innovasjoner med en reserve for fremtiden. De var den innebygde minnekontrolleren (eller rettere sagt, nordbroen med det meste av funksjonaliteten) og den raske universelle HyperTransport-bussen, som tjente til å koble prosessoren med brikkesettet eller prosessorene med hverandre i et multiprosessorsystem. Den innebygde minnekontrolleren gjorde det mulig å unngå den svake lenken - brikkesett-prosessorforbindelsen. FSB som sådan opphørte å eksistere, det var kun en minnebuss og en HT-buss.


Dette gjorde at Athlon 64s enkelt kunne forbikjøre eksisterende løsninger Intel på Netburst-arkitektur og viser den feilaktige ideologien til en lang pipeline. Tejas hadde mange problemer og kom ikke frem i lyset. Disse prosessorene realiserte lett potensialet sitt GeForce-kort 6, men som den eldre Pentium 4.


Men så dukket det opp en innovasjon som gjorde prosessorer til et svakt ledd i lang tid. Navnet er multi-GPU. Det ble besluttet å gjenopplive ideene til 3dfx SLI og implementere dem i NVIDIA SLI. ATI reagerte symmetrisk og slapp CrossFire. Dette var teknologier for å behandle scener ved hjelp av to kort. Doblingen av den teoretiske kraften til videodelsystemet og beregninger knyttet til å dele opp rammen i deler på bekostning av prosessoren førte til et skjevt system. Den eldre Athlon 64 lastet en slik kombinasjon kun i høye oppløsninger. GeForce 7 utgivelse og ATI Radeon X1000 økte denne ubalansen ytterligere.


Underveis ble en ny PCI Express-buss utviklet. Dette toveis seriebuss designet for periferiutstyr og har svært høy hastighet. Den erstattet AGP og PCI, selv om den ikke helt erstattet den. På grunn av allsidigheten, hastigheten og lave implementeringskostnadene, erstattet den raskt AGP, selv om den på den tiden ikke førte til noen økning i hastighet. Det var ingen forskjell mellom dem. Men fra et enhetssynspunkt var dette et veldig godt skritt. Det produseres nå kort som støtter PCI-E 2.0, som har dobbelt så høy gjennomstrømning (500 MB/s i hver retning mot tidligere 250 MB/s per linje). Dette ga heller ingen gevinster til dagens skjermkort. Forskjellen mellom ulike PCI-E-moduser er kun mulig i tilfelle utilstrekkelig videominne, noe som allerede betyr en ubalanse for selve kortet. Et slikt kort er GeForce 8800GTS 320 MB - det reagerer veldig følsomt på endringer i PCI-E-modus. Men å ta et ubalansert kort bare for å evaluere gevinsten fra PCI-E 2.0 er ikke den mest fornuftige avgjørelsen. En annen ting er kort med støtte for Turbocache og Hypermemory – teknologier for å bruke RAM som videominne. Her vil økningen i minnebåndbredde være omtrent det dobbelte, noe som vil ha en positiv effekt på ytelsen.


Du kan se om skjermkortet har nok minne i enhver gjennomgang av enheter med forskjellige VRAM-størrelser. Der det vil være et kraftig fall i bilder per sekund, er det mangel på VideoRAM. Men det hender at forskjellen blir veldig merkbar bare i ikke-spillbare moduser - oppløsning 2560x1600 og AA/AF maksimalt. Da vil forskjellen mellom 4 og 8 bilder per sekund være todelt, men det er åpenbart at begge modusene er umulige under reelle forhold, og derfor bør de ikke tas i betraktning.

Et nytt svar på videobrikker

Utgivelsen av den nye Core 2-arkitekturen (teknisk navn Conroe) forbedret situasjonen med prosessoravhengighet og lastet løsninger på GeForce 7 SLI uten problemer. Men Quad SLI og GeForce 8 ankom i tide og tok hevn, og gjenopprettet ubalansen. Dette fortsetter til i dag. Situasjonen ble bare verre med utgivelsen av 3-veis SLI og den kommende Quad SLI på GeForce 8800 og Crossfire X 3-veis og 4-veis. Utgivelsen av Wolfdale økte klokkehastighetene litt, men overklokking av denne prosessoren er ikke nok til å laste slike videosystemer ordentlig. 64-bits spill er svært sjeldne, og vekst i denne modusen er observert i isolerte tilfeller. Spillene som drar nytte av fire kjerner kan telles på fingrene til en funksjonshemmet hånd. Som vanlig trekker Microsoft alle ut, laster opp deres nye OS og minne, og prosessoren fungerer utmerket. Det er implisitt annonsert at 3-veis SLI- og Crossfire X-teknologier utelukkende vil fungere under Vista. Gitt appetitten, kan spillere bli tvunget til å ta firekjerners prosessorer. Dette skyldes en mer jevn belastning av kjerner enn i Windoes XP. Hvis den må spise opp en god del av prosessortiden, så la den i det minste spise opp kjernene som uansett ikke brukes av spillet. Men jeg tviler på at det er nytt operativsystem vil være fornøyd med de gitte kjernene.



Intel-plattformen begynner å bli foreldet. De fire kjernene lider allerede sterkt av mangel på minnebåndbredde og forsinkelser knyttet til busssvitsjer. Bussen er delt, og det tar tid før kjernen tar kontroll over bussen. Med to kjerner tåles dette, men med fire kjerner blir effekten av midlertidige tap mer merkbar. Dessuten har ikke systembussen holdt tritt med båndbredden på lenge. Påvirkningen av denne faktoren ble svekket ved å forbedre effektiviteten til den asynkrone modusen, som Intel implementerte godt. Arbeidsstasjoner lider av dette i enda større grad på grunn av feilen til det mislykkede brikkesettet, hvis minnekontroller bare gir opptil 33 % av den teoretiske minnebåndbredden. Et eksempel på dette er tap Intel-plattformer Skulltrail i de fleste spillapplikasjoner (3Dmark06 CPU-test er ikke en spillapplikasjon :)) selv når du bruker de samme skjermkortene. Derfor annonserte Intel en ny generasjon Nehalem, som vil implementere en infrastruktur som ligner mye på AMDs utviklinger – en integrert minnekontroller og en QPI perifer buss (teknisk navn CSI). Dette vil forbedre skalerbarheten til plattformen og gi positive resultater i dual-prosessor og multi-core konfigurasjoner.


AMD har for tiden flere flaskehalser. Den første er relatert til hurtigbuffermekanismen - på grunn av den er det en viss båndbreddegrense, avhengig av prosessorfrekvensen, slik at det ikke er mulig å hoppe over denne verdien, selv ved bruk av høyere frekvensmoduser. For eksempel, med en gjennomsnittlig prosessor kan forskjellen i arbeid med minne mellom DDR2 667 og 800 MHz være omtrent 1-3%, men for en reell oppgave er den generelt ubetydelig. Derfor er det best å velge den optimale frekvensen og senke timingene - kontrolleren reagerer veldig bra på dem. Derfor gir det ingen mening å implementere DDR3 - høye timings vil bare skade, og det er kanskje ingen gevinst i det hele tatt. AMDs problem nå er også den langsomme (til tross for SSE128) behandling av SIMD-instruksjoner. Det er av denne grunn at Core 2 ligger langt foran K8/K10. ALU, som alltid har vært Intels sterke side, har blitt enda sterkere, og kan i noen tilfeller være mange ganger raskere enn motparten i Phenom. Det er hovedproblemet AMD-prosessorer– svak «matematikk».


Generelt sett er svake lenker veldig oppgavespesifikke. Bare "epokegjørende" ble vurdert. Så i noen oppgaver kan hastigheten være begrenset av mengden RAM eller hastigheten til diskundersystemet. Deretter legges mer minne til (mengden bestemmes ved hjelp av ytelsestellere) og RAID-arrayer installeres. Hastigheten på spill kan økes ved å deaktivere det innebygde lydkortet og kjøpe et vanlig diskret - Creative Audigy 2 eller X-Fi, som belaster prosessoren mindre ved å behandle effekter med brikken deres. Dette gjelder i større grad AC’97 lydkort og i mindre grad HD-Audio (Intel Azalia), siden sistnevnte har fikset problemet med høy prosessorbelastning.


Husk at systemet alltid skal være skreddersydd for spesifikke oppgaver. Ofte, hvis du kan velge et balansert skjermkort (og valget i henhold til priskategorier vil avhenge av priser som varierer sterkt på forskjellige steder), så er, for eksempel, med et diskundersystem en slik mulighet ikke alltid tilgjengelig. Svært få mennesker trenger RAID 5, men for en server er det en uunnværlig ting. Det samme gjelder for en dual-prosessor eller multi-core konfigurasjon, ubrukelig i kontorapplikasjoner, men et "must have" for en designer som jobber i 3Ds Max.

I siste versjon Windows har nå en effektvurderingsfunksjon for forskjellige komponenter PC. Dette gir en oversikt over ytelsen og flaskehalsene til systemet. Men her finner du ingen detaljer om hastighetsparametrene til komponentene. I tillegg lar denne diagnostikken deg ikke utføre en maskinvarestresstest, noe som kan være nyttig for å forstå toppbelastninger under lanseringen av moderne spill. Tredjeparts benchmarks for 3DMark-familien gir også kun estimater i betingede poeng. Det er ingen hemmelighet at mange maskinvareprodusenter optimerer driften av skjermkort og andre komponenter på en slik måte at de får maksimalt antall poeng når de passerer 3DMark. Dette programmet lar deg til og med sammenligne ytelsen til utstyret ditt med lignende fra databasen, men du vil ikke få spesifikke verdier.

Derfor bør PC-testing gjøres separat, og tar ikke bare hensyn til referanseindeksens ytelsesvurdering, men også reell spesifikasjoner, registrert som et resultat av utstyrsinspeksjon. Vi har valgt for deg et sett med verktøy (både betalte og gratis) som lar deg få spesifikke resultater og identifisere svake lenker.

Bildebehandlingshastighet og 3D

Testing av skjermkort er et av de viktigste trinnene når man vurderer PC-kraft. Produsenter av moderne videoadaptere utstyrer dem med spesiell programvare og drivere som gjør at GPUen ikke bare kan brukes til bildebehandling, men også for andre beregninger, for eksempel ved koding av video. Derfor den eneste pålitelig måte finne ut hvor effektivt det behandles data-grafikk, - ty til en spesiell applikasjon som måler ytelsen til enheten.

Sjekker skjermkortets stabilitet

Program: FurMark 1.9.1 Nettsted: www.ozone3d.net FurMark-programmet er et av de raskeste og enkleste verktøyene for å kontrollere funksjonen til en videoadapter. Verktøyet tester ytelsen til et skjermkort ved å bruke OpenGL-teknologi som grunnlag. Den foreslåtte visualiseringsalgoritmen bruker multi-pass rendering, hvor hvert lag er basert på GLSL (OpenGL shader language).

For å laste grafikkortets prosessor, gjengir denne benchmarken et abstrakt 3D-bilde med en torus dekket av pels. Behovet for å behandle en stor mengde hår fører til maksimal belastning på enheten. FurMark sjekker stabiliteten til skjermkortet og viser også endringer i temperaturen på enheten når belastningen øker.

I FurMark-innstillingene kan du spesifisere oppløsningen som maskinvaren skal testes med, og ved ferdigstillelse vil programmet presentere en kort rapport om PC-konfigurasjonen med en endelig poengsum i betingede poeng. Denne verdien er praktisk å bruke når du sammenligner ytelsen til flere skjermkort generelt. Du kan også sjekke "standby"-oppløsningene på 1080p og 720p.

Virtuell stereogang

Program: Unigine Heaven DX11 Benchmark Nettsted: www.unigine.com En av de sikreste måtene å teste hva du kan gjøre ny datamaskin,- kjør spill på den. Moderne spill utnytter maskinvareressurser fullt ut - skjermkort, minne og prosessor. Det er imidlertid ikke alle som har mulighet og lyst til å bruke tid på slik underholdning. Du kan bruke Unigine Heaven DX11 Benchmark i stedet. Denne testen er basert på Unigine-spillmotoren (spill som Oil Rush, Dilogus: The Winds of War, Syndicates of Arkon og andre er bygget på den), som støtter grafikk-APIer (DirectX 9, 10, 11 og OpenGL). Etter å ha lansert det, vil programmet lage en demovisualisering som tegner det virtuelle miljøet i sanntid. Brukeren vil se en kort video som vil inkludere en virtuell vandring gjennom en fantasiverden. Disse scenene lages av skjermkortet. I tillegg til tredimensjonale objekter, simulerer motoren kompleks belysning, modellering globalt system med flere refleksjoner av lysstråler fra sceneelementer.

Du kan teste datamaskinen din i stereomodus, og i benchmark-innstillingene kan du velge en surroundvideobildestandard: Anaglyph 3D, separat rammeutgang for høyre og venstre øyne, etc.

Til tross for at tittelen på programmet nevner den ellevte versjonen av DirectX, betyr ikke dette at Unigine Heaven kun er beregnet på moderne skjermkort. I innstillingene for denne testen kan du velge en av de tidligere versjonene av DirectX, samt angi et akseptabelt nivå for bildedetaljer og spesifisere kvaliteten på skyggegjengivelse.

Finne det svake leddet

I en situasjon der en bruker er overveldet av ønsket om å øke ytelsen til datamaskinen sin, kan spørsmålet oppstå: hvilken komponent er den svakeste? Hva vil gjøre datamaskinen raskere - bytte ut skjermkortet, prosessoren eller installere en enorm mengde RAM? For å svare på dette spørsmålet er det nødvendig å teste individuelle komponenter og bestemme den "svake lenken" i gjeldende konfigurasjon. Et unikt multitestverktøy vil hjelpe deg å finne det.

Last simulator

Program: PassMark PerformanceTest Nettsted: www.passmark.com PassMark PerformanceTest analyserer nesten alle enheter som finnes i PC-konfigurasjonen - fra hovedkort og minne til optiske stasjoner.

En spesiell egenskap ved PassMark PerformanceTest er at programmet bruker et stort antall forskjellige oppgaver, og måler nøye datamaskinens ytelse i forskjellige situasjoner. På et bestemt tidspunkt kan det til og med virke som noen har tatt kontroll over systemet i egne hender - vinduer åpnes tilfeldig, innholdet rulles og bilder vises på skjermen. Alt dette er resultatet av en benchmark som simulerer utførelsen av de mest typiske oppgavene som vanligvis kreves i Windows. Samtidig kontrolleres hastigheten på datakomprimering, tiden som kreves for å kryptere informasjon registreres, filtre brukes på fotografier og gjengivelseshastigheten settes vektorgrafikk, korte 3D-demovideoer spilles av osv.

På slutten av testen gir PassMark PerformanceTest en total poengsum og tilbyr å sammenligne dette resultatet med data innhentet på PC-er med forskjellige konfigurasjoner. For hver av de testede parameterne lager applikasjonen et diagram der de svake komponentene til datamaskinen er tydelig synlige.

Kontrollerer disksystemet

Disksystemgjennomstrømning kan være den største flaskehalsen i PC-ytelse. Derfor er det ekstremt viktig å kjenne de virkelige egenskapene til disse komponentene. Testing av en harddisk vil ikke bare bestemme lese- og skrivehastigheten, men vil også vise hvor pålitelig enheten fungerer. For å sjekke stasjonen din, anbefaler vi å prøve to små verktøy.

Eksamen for HDD

Programmer: CrystalDiskInfo og CrystalDiskMark Nettsted: http://crystalmark.info/software/index-e.html Disse programmene ble laget av samme utvikler og utfyller hverandre perfekt. Begge er gratis og kan fungere uten installasjon på en datamaskin, direkte fra en flash-stasjon.

De fleste harddisker implementerer SMART selvdiagnoseteknologi, som lar deg forutsi mulige funksjonsfeil i stasjonen. Ved å bruke CrystalDiskInfo-programmet kan du vurdere den virkelige tilstanden til harddisken din når det gjelder pålitelighet: den leser SMART-data, bestemmer antall problemsektorer, antall lesehodeplasseringsfeil, tiden det tar å spinne opp disken, også som gjeldende temperatur på enheten. Hvis den sistnevnte indikatoren er for høy, vil levetiden til mediet før feil være svært kort. Programmet viser også fastvareversjonen og gir data om bruksvarigheten harddisk.

CrystalDiskMark er et lite program som måler skrive- og lesehastigheter. Dette diskkontrollverktøyet skiller seg fra lignende verktøy ved at det lar deg bruke forskjellige betingelser for å skrive og lese data - for eksempel å måle avlesninger for blokker av forskjellige størrelser. Verktøyet lar deg også angi antall tester som skal utføres og mengden data som brukes for dem.

Speedometer for nettsurfing

Ekte fart Nettverkstilkobling skiller seg vanligvis fra det som er angitt i innstillingene eller deklarert av leverandøren, og som regel i mindre grad. Dataoverføringshastigheten kan påvirkes av mange faktorer - nivået av elektromagnetisk interferens i rommet, antall brukere som samtidig jobber på nettverket, kabelkvalitet, etc.

Anslag for nettverkshastighet

Program: Fartstest Nettsted: www.raccoonworks.com Hvis du vil vite den faktiske dataoverføringshastigheten i din lokalt nettverk, vil SpeedTest-programmet hjelpe deg. Den lar deg avgjøre om leverandøren overholder de angitte parametrene. Verktøyet måler dataoverføringshastigheten mellom to fungerende brukermaskiner, så vel som mellom ekstern server og en personlig datamaskin.

Programmet består av to deler - server og klient. For å måle hastigheten på informasjonsoverføring fra en datamaskin til en annen, må den første brukeren starte serverdelen og spesifisere en vilkårlig fil (helst stor størrelse) som skal brukes til testen. Den andre testdeltakeren må starte klientkomponenten og spesifisere serverparametrene - adresse og port. Begge applikasjonene oppretter en forbindelse og begynner å utveksle data. Under filoverføringsprosessen plotter SpeedTest et grafisk forhold og samler inn statistikk om tiden det tok å kopiere dataene over nettverket. Hvis du tester flere eksterne PC-er, vil programmet legge til nye kurver til den plottede grafen om og om igjen.

I tillegg vil SpeedTest sjekke hastigheten på Internett: i "Web Page"-modus tester programmet tilkoblingen til et hvilket som helst nettsted. Denne parameteren kan også vurderes ved å gå til den spesialiserte ressursen http://internet.yandex.ru.

Feil i RAM vises kanskje ikke umiddelbart, men under visse belastninger. For å være sikker på at de valgte modulene ikke vil svikte deg i noen situasjon, er det bedre å teste dem grundig og velge de raskeste.

Meme OL

Program: MaxxMEM2 - Forhåndsvisning Nettsted: www.maxxpi.net Dette programmet er laget for å teste minnehastigheten. I løpet av en veldig kort periode utfører den flere tester: den måler tiden det tar å kopiere data til RAM, bestemmer hastigheten på lesing og skriving av data, og viser minnelatensparameteren. I verktøyinnstillingene kan du angi prioritet for testen, og sammenligne resultatet med gjeldende verdier oppnådd av andre brukere. Fra programmenyen kan du raskt gå til nettstatistikk på den offisielle MaxxMEM2-nettsiden og finne ut hvilket minne som er mest produktivt.

For lyd er ikke hastigheten viktig

Når du tester de fleste enheter, er databehandlingshastighet vanligvis viktig. Men med hensyn til lydkortet er ikke dette hovedindikatoren. Det er mye viktigere for brukeren å sjekke egenskapene til den analoge og digitale lydbanen - for å finne ut hvor mye lyden er forvrengt under avspilling og opptak, måle støynivået osv.

Sammenligning med standarden

Program: RightMark Audio Analyzer 6.2.3 Nettsted: http://audio.rightmark.org Skaperne av dette verktøyet tilbyr flere måter å sjekke lydytelsen på. Det første alternativet er selvdiagnose av lydkortet. Enheten gjengir et testsignal gjennom lydbanen og tar det umiddelbart opp. Bølgeformen til det mottatte signalet bør ideelt sett samsvare med originalen. Avvik indikerer lydforvrengning av lydkortet som er installert på PC-en.

Den andre og tredje testmetoden er mer nøyaktig - ved å bruke en referansegenerator lydsignal eller bruke et ekstra lydkort. I begge tilfeller er kvaliteten på signalkilden tatt som standard, men en viss feil ekstra enheter også bidra. Når du bruker et andre lydkort, bør utgangssignalets forvrengningsfaktor være minimal - enheten skal ha bedre egenskaper enn lydkortet som testes. På slutten av testen kan du også bestemme parametere som lydkortets frekvenskarakteristikk, støynivå, harmonisk forvrengningsutgang, etc.

I tillegg til de grunnleggende funksjonene som er tilgjengelige i gratisutgaven, inkluderer den kraftigere versjonen av RightMark Audio Analyzer 6.2.3 PRO også støtte for et profesjonelt ASIO-grensesnitt, fire ganger mer detaljert spektrumoppløsning og muligheten til å bruke direkte kjernestrømming-dataoverføring.

Det er viktig at ingen blander seg inn

Når du kjører en ytelsestest, husk at de endelige resultatene påvirkes av mange faktorer, spesielt ytelsen til bakgrunnstjenester og applikasjoner. Derfor, for den mest nøyaktige vurderingen av PC-en din, anbefales det først å deaktivere antivirusskanneren og lukke alle kjører applikasjoner, helt ned til e-postklienten. Og selvfølgelig, for å unngå feil i målinger, bør du stoppe alt arbeid til programmet fullfører testing av utstyret.

Teorien om systembegrensninger ble formulert på 80-tallet av det tjuende århundre. og gjaldt ledelsen av produksjonsbedrifter. Kort fortalt koker dens essens ned til det faktum at i hver produksjonssystem det er begrensninger som begrenser effektiviteten. Hvis du fjerner en nøkkelbegrensning, vil systemet fungere mye mer effektivt enn om du prøver å påvirke hele systemet på en gang. Derfor må prosessen med å forbedre produksjonen begynne med å eliminere flaskehalser.

Nå kan begrepet flaskehals brukes i enhver bransje – i tjenestesektoren, utvikling programvare, logistikk, Hverdagen.

Hva er flaskehals

Definisjonen av flaskehals er et sted i et produksjonssystem hvor overbelastning oppstår fordi materialer strømmer inn for raskt, men ikke kan behandles like raskt. Dette er ofte en stasjon med mindre effekt enn forrige node. Begrepet kommer fra en analogi med den smale halsen på en flaske, som bremser strømmen av væske ut.


Flaskehals – flaskehals i produksjonsprosessen

I produksjon forårsaker flaskehalseffekten nedetid og produksjonskostnader, reduserer total effektivitet og øker leveringstiden til kundene.

Det er to typer flaskehalser:

  1. Kortsiktige flaskehalser- forårsaket av midlertidige problemer. Godt eksempel— sykefravær eller ferie for nøkkelansatte. Ingen i teamet kan erstatte dem fullt ut, og arbeidet stopper. I produksjon kan dette være et sammenbrudd av en av en gruppe maskiner når lasten er fordelt på arbeidsutstyret.
  2. Langsiktige flaskehalser- handle konstant. For eksempel en konstant forsinkelse i månedlige rapporter i et selskap på grunn av at en person må behandle en enorm mengde informasjon som kommer til ham i et snøskred helt i slutten av måneden.

Hvordan identifisere flaskehals i produksjonsprosessen

Det er flere måter å søke etter flaskehalser i produksjon av varierende grad av kompleksitet, med eller uten bruk av spesialverktøy. La oss begynne med mer enkle måter basert på observasjon.

Køer og overbelastning

Prosessen på en produksjonslinje som har den største køen av arbeids-i-prosess-enheter foran seg er vanligvis en flaskehals. Denne flaskehalssøkemetoden er egnet for stykke-for-stykke transportbåndproduksjon, for eksempel på en tappelinje. Det er godt synlig hvor flasker samler seg i linjen, og hvilken mekanisme som har utilstrekkelig kraft, ofte går i stykker eller blir betjent av en uerfaren operatør. Hvis det er flere overbelastningspunkter på linjen, er situasjonen mer komplisert, og ytterligere metoder må brukes for å finne den mest kritiske flaskehalsen.

Båndbredde

Gjennomstrømningen til hele produksjonslinjen avhenger direkte av produksjonen til flaskehalsutstyret. Denne egenskapen vil hjelpe deg med å finne hovedflaskehalsen i produksjonsprosessen. Å øke ytelsen til et utstyr som ikke er en flaskehals vil ikke påvirke den totale produksjonen av linjen i vesentlig grad. Ved å sjekke alt utstyret en etter en, kan du identifisere flaskehalsen - det vil si trinnet hvis effektøkning vil påvirke produksjonen av hele prosessen mest.

Full kraft

De fleste produksjonslinjer sporer utnyttelsesprosenten for hvert utstyr. Maskiner og stasjoner har en fast kapasitet og brukes i produksjonsprosessen til en viss prosentandel av maksimal effekt. Stasjonen som bruker maksimalt strøm er en flaskehals. Slikt utstyr begrenser prosentandelen av kraftutnyttelsen til annet utstyr. Hvis du øker flaskehalskraften, vil kraften til hele linjen øke.

Forventning

Produksjonsprosessen tar også hensyn til nedetid og ventetider. Når det er en flaskehals på linjen, står utstyret som går direkte til den ubrukt lenge. Flaskehals forsinker produksjonen og neste maskin får ikke nok materiale til å fungere kontinuerlig. Når du finner en maskin med lang ventetid, se etter flaskehalsen i forrige trinn.

I tillegg til å overvåke produksjonen, brukes følgende verktøy for å identifisere flaskehalser:

Value Stream Mapping - kart over å skape verdistrømmer

Når du forstår årsaken eller årsakene til flaskehalser, må du bestemme handlingerå utvide flaskehalsen og øke produksjonen. Du må kanskje flytte ansatte til problemområdet eller leie inn ekstra personell og utstyr.

Flaskehalser kan oppstå der operatører rekonfigurerer utstyr for å produsere et annet produkt. I dette tilfellet må du tenke på hvordan du kan redusere nedetiden. For eksempel å endre produksjonsplanen for å redusere antall omstillinger eller redusere virkningen.

Hvordan redusere virkningen av flaskehalser

Flaskehalshåndtering foreslår at produksjonsbedrifter tar tre tilnærminger for å redusere virkningen av flaskehalser.

Første tilnærming

Øke kapasiteten på eksisterende flaskehalser.

Det er flere måter å øke kapasiteten til flaskehalser på:

  1. Legg til ressurser til den begrensende prosessen. Det er ikke nødvendig å ansette nye medarbeidere. Tverrfunksjonell opplæring av personalet kan redusere virkningen av flaskehalser til lave kostnader. I dette tilfellet vil arbeidere betjene flere stasjoner samtidig og lette passasjen av flaskehalser.
  2. Sørg for uavbrutt tilførsel av deler til flaskehalsen. Hold alltid et øye med pågående arbeid før flaskehalsen, styr ressursflyten til flaskehalsstasjonen, ta hensyn til overtid, hvor utstyret også alltid skal ha deler å behandle.
  3. Sørg for at flaskehalsen kun fungerer med kvalitetsdeler. Ikke kast bort kraft og flaskehalstid på skrapbehandling. Plasser kvalitetskontrollpunkter foran flaskehalsstasjoner. Dette vil øke gjennomstrømningen av prosessen.
  4. Sjekk produksjonsplanen. Hvis en prosess produserer flere forskjellige produkter som krever forskjellige flaskehalstider, juster produksjonsplanen slik at den totale flaskehalsetterspørselen reduseres
  5. Øk driftstiden for begrensende utstyr. La flaskehalsen vare lenger enn annet utstyr. Tildel en operatør til å betjene prosessen i lunsjpauser, planlagt nedetid og om nødvendig overtid. Selv om denne metoden ikke vil redusere syklustiden, vil den holde flaskehalsen i gang mens resten av utstyret er inaktivt.
  6. Reduser nedetid. Unngå planlagt og uplanlagt nedetid. Hvis flaskehalsutstyret svikter under driftsprosessen, send umiddelbart et reparasjonsteam for å reparere det og få det i gang. Prøv også å redusere tiden det tar å skifte utstyr fra ett produkt til et annet.
  7. Forbedre prosessen ved flaskehalsen. Bruk VSM for å eliminere ikke-verdiskapende aktiviteter og redusere tiden for å tilføre verdi samtidig som du eliminerer avfall. Til slutt vil du få mer en kort tid syklus.
  8. Omfordele belastningen på flaskehalsen. Hvis mulig, del operasjonen i deler og tilordne dem til andre ressurser. Resultatet er kortere syklustider og økt effekt.


Andre tilnærming

Salg av overskuddsproduksjon produsert av utstyr uten flaskehals.

For eksempel har du 20 injeksjonspresser på linjen din, men du bruker bare 12 av dem fordi flaskehalsutstyret ikke kan behandle produksjonen fra alle 20 pressene. I dette tilfellet kan du finne andre selskaper som er interessert i underleverandører av sprøytestøping. Du vil være lønnsom fordi du vil motta mer fra underleverandører enn dine variable kostnader.


Tredje tilnærming

Reduser ubrukt strøm.

Det tredje alternativet for å optimalisere produksjonen er å selge ut utstyr med ekstra kapasitet og redusere eller omplassere personellet som betjener det. I dette tilfellet vil kraften til alt utstyr utjevnes.


Eksempler på flaskehals utenfor produksjonen

Transportere

Et klassisk eksempel er trafikkork, som stadig kan oppstå enkelte steder, eller oppstå midlertidig under en ulykke eller veiarbeid. Andre eksempler er en elvesluse, en gaffeltruck, en jernbaneplattform.

Datanettverk

En treg WiFi-ruter koblet til et effektivt nettverk med høy båndbredde er en flaskehals.

Kommunikasjon

En utvikler som bruker seks timer om dagen på møter og bare to timer på å skrive kode.

Programvare

Applikasjoner har også flaskehalser - dette er kodeelementer der programmet "bremser ned", og tvinger brukeren til å vente.

Maskinvare

Datamaskinflaskehalser er maskinvarebegrensninger der kraften til hele systemet er begrenset til en enkelt komponent. Ofte blir prosessoren sett på som den begrensende komponenten for grafikkortet.

Byråkrati

I hverdagen møter vi ofte flaskehalser. For eksempel når skjemaer for pass eller førerkort plutselig går tom og hele systemet stopper. Eller når du skal gjennom en legeundersøkelse, men fluorografirommet er åpent kun tre timer om dagen.

Kjennelse

Flaskehalser i produksjon, ledelse og liv er punkter med potensielle forbedringer.

Å utvide flaskehalsen vil gi en betydelig økning i produktivitet og effektivitet.

Og å ikke ta hensyn til de begrensende elementene i systemet betyr ikke å tjene nok profitt og jobbe under dine evner.




Topp