Problémové miesto procesora. Prekážka: Vývoj problému úzkeho miesta na PC. Okrem monitorovania výroby sa na identifikáciu úzkych miest používajú tieto nástroje:

FX vs Core i7 | Hľadajte prekážky s konfiguráciou Eyefinity

Zaznamenali sme zdvojnásobenie výkonu procesora každé tri až štyri roky. Najnáročnejšie herné enginy, ktoré sme testovali, sú však staré ako procesory Core 2 Duo. Prirodzene, problémy s CPU by mali byť minulosťou, však? Ako sa ukázalo, rýchlosť GPU rastie ešte rýchlejšie ako výkon CPU. Pokračuje tak debata o kúpe rýchlejšieho CPU či zvýšení výkonu grafiky.

Ale vždy príde čas, keď sa hádať nemá zmysel. U nás to prišlo, keď hry začali plynulo bežať na najväčšom monitore s natívnym rozlíšením 2560x1600. A ak rýchlejší komponent dokáže poskytnúť v priemere 200 namiesto 120 snímok za sekundu, rozdiel stále nebude badateľný.

V reakcii na nedostatok viac vysoké rozlíšenia pre rýchle grafické adaptéry AMD predstavilo technológiu Eyefinity a Nvidia predstavila Surround. Obe technológie umožňujú hrať na viac ako jednom monitore a beh v rozlíšení 5760 x 1080 sa stal objektívnou realitou pre špičkové GPU. Tri displeje s rozlíšením 1920 x 1080 budú v podstate lacnejšie a pôsobivejšie ako jeden displej s rozlíšením 2560 x 1600. Preto je dôvod utrácať peniaze navyše za výkonnejšie grafické riešenia.

Ale je to naozaj potrebné? výkonný procesor hrať bez zadrhávania v rozlíšení 5760x1080? Otázka sa ukázala byť zaujímavá.

AMD nedávno predstavilo novú architektúru a my sme kúpili krabicovú FX-8350. V článku "Revízia a test AMD FX-8350: Opraví Piledriver nedostatky buldozéra?" Nový procesor sa nám veľmi páčil.

Z ekonomického hľadiska bude musieť Intel v tomto porovnaní dokázať, že je v hrách nielen rýchlejší ako čip AMD, ale ospravedlňuje aj vysoký cenový rozdiel.


Obe základné dosky patria do rodiny Asus Sabertooth, no spoločnosť si za model so päticou LGA 1155 pýta vyššiu cenu, čo Intelu ešte viac komplikuje rozpočtovú situáciu. Tieto platformy sme špeciálne vybrali, aby bolo porovnanie výkonu čo najspravodlivejšie, bez toho, aby sme brali do úvahy náklady.

FX vs Core i7 | Konfigurácia a testy

Kým sme čakali, kým sa objaví v testlabe FX-8350, vykonal boxerské testy. Vzhľadom na to, že procesor AMD bez problémov dosahuje 4,4 GHz, začali sme testovať čip Intel na rovnakej frekvencii. Neskôr sa ukázalo, že sme naše vzorky podcenili, keďže oba CPU dosiahli pri zvolenej napäťovej úrovni frekvenciu 4,5 GHz.

Nechceli sme zdržiavať zverejnenie kvôli opakovanému testovaniu na vyšších frekvenciách, preto sme sa rozhodli výsledky testu ponechať na 4,4 GHz.

Testovacia konfigurácia
CPU Intel Intel Core i7-3770K (Ivy Bridge): 3,5 GHz, 8 MB zdieľaná vyrovnávacia pamäť L3, LGA 1155 pretaktovaná na 4,4 GHz pri 1,25 V
Základná doska Intel Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Chladič procesora Intel Thermalright MUX-120 s pastou Zalman ZM-STG1
CPU AMD AMD FX-8350 (Vishera): 4,0 GHz, 8 MB zdieľaná vyrovnávacia pamäť L3, Socket AM3+ pretaktovaný na 4,4 GHz pri 1,35 V
základná doska AMD Asus Sabertooth 990FX, BIOS 1604 (24. 10. 2012)
Chladič CPU AMD Sunbeamtech Core-Contact Freezer s pastou Zalman ZM-STG1
Net Vstavaný gigabitový LAN ovládač
Pamäť G.Skill F3-17600CL9Q-16GBXLD (16 GB) DDR3-2200 CAS 9-11-9-36 1,65 V
Grafická karta 2 x MSI R7970-2PMD3GD5/OC: GPU, 1010 MHz GDDR5-5500
Úložné zariadenie Mushkin Chronos Deluxe DX 240 GB, SATA 6 Gb/s SSD
Výživa Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUS Gold
Softvér a ovládače
operačný systém Microsoft Windows 8 Professional RTM x64
Grafický ovládač AMD Catalyst 12.10

Pre ich vysokú účinnosť a rýchlu inštaláciu používame chladiče Thermalright MUX-120 a Sunbeamtech Core Contact Freezer už niekoľko rokov. Montážne konzoly dodávané s týmito modelmi však nie sú zameniteľné.


Pamäťové moduly G.Skill F3-17600CL9Q-16GBXLD majú špecifikáciu DDR3-2200 CAS 9 a využívajú profily Intel XMP na poloautomatickú konfiguráciu. Sabertooth 990FX využíva hodnoty XMP cez Asus DOCP.

Napájací zdroj Seasonic X760 poskytuje vysokú účinnosť potrebnú na vyhodnotenie rozdielov medzi platformami.

StarCraft II nepodporuje technológiu AMD Eyefinity, preto sme sa rozhodli použiť staršie hry: Aliens vs. Predator a Metro 2033.

Testovacia konfigurácia (3D hry)
Mimozemšťania vs. Predátor pomocou nástroja AvP v.1.03, zapnuté SSAO/tessellation/shadows.
Testovacia konfigurácia 1: Vysoká kvalita textúry, bez AA, 4x AF
Testovacia konfigurácia 2: Veľmi vysoká kvalita textúry, 4x AA, 16x AF
Battlefield 3 Režim kampane, "Going Hunting" 90-sekundový Fraps
Testovacie nastavenie 1: stredná kvalita (bez AA, 4x AF)
Testovacie nastavenie 2: Ultra kvalita (4x AA, 16x AF)
F1 2012 Steam verzia, vstavaný benchmark
Testovacie nastavenie 1: Vysoká kvalita, bez AA
Nastavenie testu 2: Ultra kvalita, 8x AA
Elder Scrolls V: Skyrim Aktualizácia 1.7, Celedon Aethirborn úroveň 6, 25-sekundový Fraps
Nastavenie testu 1: DX11, vysoká úroveň detailov bez AA, 8x AF, zapnuté FXAA.
Nastavenie testu 2: DX11, Ultra Detail Level, 8x AA, 16x AF, FXAA zapnuté.
Metro 2033 Plná verzia, vstavaný benchmark, scéna "Frontline".
Nastavenie testu 1: DX11, Vysoká, AAA, 4x AF, Bez PhysX, Bez DoF
Nastavenie testu 2: DX11, veľmi vysoká, 4x AA, 16x AF, bez PhysX, zapnutá DoF.

FX vs Core i7 | Výsledky testu

Battlefield 3, F1 2012 a Skyrim

Najprv sa však pozrime na spotrebu a efektivitu.

Spotreba energie nie je pretaktovaná FX-8350 V porovnaní s čipom Intel to nie je také hrozné, aj keď v skutočnosti je vyššie. Na grafe však nevidíme celý obraz. Čip pri konštantnej záťaži na základných nastaveniach sme nevideli bežať na frekvencii 4 GHz. Namiesto toho pri spracovaní ôsmich vlákien v Prime95 znížil multiplikátor a napätie, aby zostali v rámci uvedenej tepelnej obálky. Throttling umelo obmedzuje spotrebu CPU. Nastavenie pevného multiplikátora a napätia výrazne zvyšuje tento indikátor pre procesor Vishera počas zrýchlenia.

Zároveň nie všetky hry dokážu využívať možnosti procesora FX-8350 spracovávať osem dátových tokov súčasne, preto nikdy nebudú môcť priviesť čip k škrtiacemu mechanizmu.

Ako už bolo uvedené, počas hier na nepretaktovaných FX-8350 throttling nie je aktivovaný, pretože väčšina hier nedokáže plne zaťažiť procesor. V skutočnosti hry ťažia z technológie Turbo Core, ktorá zvyšuje frekvenciu procesora na 4,2 GHz. Čip AMD dopadol najhoršie v grafe priemerného výkonu, kde je Intel citeľne popredu.

Pre tabuľku účinnosti používame ako priemer priemernú spotrebu energie a priemerný výkon všetkých štyroch konfigurácií. Tento graf zobrazuje výkon na watt procesora AMD. FX-8350 sú asi dve tretiny výsledku Intelu.

FX vs Core i7 | Podarí sa AMD FX dobehnúť Radeon HD 7970?

Keď hovoríme o dobrom a cenovo dostupnom hardvéri, radi používame frázy ako „80 % výkonu za 60 % nákladov“. Tieto metriky sú vždy veľmi spravodlivé, pretože sme si zvykli merať výkon, spotrebu energie a efektivitu. Zohľadňujú však náklady iba na jeden komponent a komponenty spravidla nemôžu fungovať samostatne.

Pridaním komponentov použitých v dnešnej recenzii je cena systému za založené na Intel zvýšil na 1 900 USD a platformy AMD na 1 724 USD, neberie to do úvahy puzdrá, periférie a operačné systémy. Ak vezmeme do úvahy „hotové“ riešenia, potom sa oplatí pridať asi ďalších 80 dolárov za puzdro, takže skončíme s 1984 dolármi pre Intel a 1804 dolármi pre AMD. Úspora na hotovej konfigurácii s procesorom AMD je 180 dolárov, čo nie je veľa ako percento z celkových nákladov na systém. Inými slovami, zvyšné komponenty špičkového osobného počítača sú bagatelizované o viac ako výhodná cena procesor.

V dôsledku toho nám ostávajú dva úplne neobjektívne spôsoby porovnávania ceny a výkonu. Otvorene sme sa priznali, tak dúfame, že za prezentované výsledky nebudeme súdení.

Pre AMD je výhodnejšie, ak započítame len náklady na základnú dosku a CPU a zvýšime úžitok. Získate takýto diagram:

Ako tretiu alternatívu môžete považovať základnú dosku a procesor za upgrade, za predpokladu, že skriňa, napájací zdroj, pamäť a disky zostali z predchádzajúceho systému. S najväčšou pravdepodobnosťou pár grafických kariet Radeon HD 7970 nebol použitý v starej konfigurácii, takže je najrozumnejšie brať do úvahy procesory, základné dosky a grafické adaptéry. Do zoznamu teda pridávame dve Tahiti GPU za 800 dolárov.

AMD FX-8350 vyzerá lepšie ako Intel (najmä v hrách, v nastaveniach, ktoré sme zvolili) iba v jednom prípade: keď je zvyšok systému „zadarmo“. Keďže ostatné komponenty nemôžu byť zadarmo, FX-8350 tiež sa nebude môcť stať ziskovým nákupom hier.

Grafické karty Intel a AMD

Výsledky našich testov už dávno ukázali, že grafické čipy ATI sú viac závislé od procesora ako čipy Nvidia. Výsledkom je, že pri testovaní špičkových GPU vybavujeme naše skúšobné lavice Procesory Intel, ktoré obchádzajú nedostatky platformy, ktoré môžu narušiť izoláciu grafického výkonu a nepriaznivo ovplyvniť výsledky.

Dúfali sme, že cesta von AMD Piledriver situáciu zmení, ale ani niekoľko pôsobivých vylepšení nestačilo na to, aby sa tím CPU vyrovnal efektivite grafického tímu v samotnej AMD. No, počkáme si na výstup čipy AMD založený na architektúre Steamroller, ktorá sľubuje, že bude o 15 % produktívnejšia ako Piledriver.

Pri zostavovaní herného PC je najdrahšou časťou grafická karta a chcete, aby sa vám to oplatilo. Potom vyvstáva otázka: aký procesor by som si mal vybrať pre túto grafickú kartu, aby ju neobmedzoval v hrách? Náš špeciálne pripravený materiál vám s touto dilemou pomôže.

Úvod

Ukazuje sa teda, že hlavnou vecou v počítači je procesor a ten riadi všetko ostatné. Je to on, kto dáva vašej grafickej karte príkazy na kreslenie určitých objektov a tiež vypočítava fyziku objektov (dokonca aj procesor vypočítava niektoré operácie). Ak grafická karta nepracuje na plnú kapacitu a procesor už nemôže byť rýchlejší, dochádza k efektu „úzkeho hrdla“, keď je výkon systému obmedzený jeho najslabším komponentom.

V skutočnosti vždy existujú operácie, keď sa grafická karta vôbec nezaťažuje a percento pracuje na plnú kapacitu, ale tu hovoríme o hrách, takže budeme uvažovať v tejto paradigme.

Ako je zaťaženie rozdelené medzi procesory a grafickú kartu?

Treba poznamenať, že zmenou nastavení v hre sa mení pomer zaťaženia procesora a grafickej karty.

So zvyšujúcim sa rozlíšením a nastavením grafiky sa zaťaženie grafickej karty zvyšuje rýchlejšie ako zaťaženie procesora. To znamená, že ak procesor nie je prekážkou pri nižších rozlíšeniach, nebude to ani pri vyšších rozlíšeniach.

S poklesom rozlíšenia a nastavení grafiky je opak pravdou: zaťaženie procesora pri vykresľovaní jednej snímky zostáva takmer nezmenené, ale grafická karta sa stáva oveľa ľahšou. V takejto situácii je pravdepodobnejšie, že sa procesor stane prekážkou.

Aké sú príznaky úzkych miest?

Na vykonanie testu potrebujete program. Musíte sa pozrieť na graf „Zaťaženie GPU“.

Musíte tiež poznať zaťaženie procesora. Dá sa to urobiť v monitorovaní systému v správcovi úloh, tam je graf zaťaženia procesora.

Aké sú teda znaky toho Procesor neotvorí grafickú kartu?

  • Zaťaženie GPU sa nepribližuje k 100 %, ale zaťaženie procesora sa vždy pohybuje okolo tejto značky
  • Graf zaťaženia GPU veľmi kolíše (možno zle optimalizovaná hra)
  • Pri zmene nastavení grafiky sa FPS nezmení

Podľa týchto znakov môžete zistiť, či vo vašom prípade dochádza k prekážke?

Ako si vybrať procesor?

Aby ste to urobili, odporúčam vám sledovať testy procesora v hre, ktorú chcete. Existujú stránky, ktoré sa týmto konkrétne zaoberajú (,).

Príklad testu v hre Tom Clancy's The Division:

Pri testovaní procesorov v rôznych hrách sa zvyčajne špecifikujú nastavenia grafiky a rozlíšenie. Podmienky sú zvolené tak, že prekážkou je procesor. V tomto prípade môžete zistiť, koľko snímok v danom rozlíšení dokáže konkrétny procesor. Takto môžete porovnávať procesory medzi sebou.

Hry sú rôzne (Captain Obvious) a môžu sa líšiť aj ich nároky na procesor. Takže v jednej hre bude všetko v poriadku a procesor sa bez problémov vyrovná so scénami, ale v inej sa grafická karta ochladí, zatiaľ čo procesor bude mať veľké problémy s vykonávaním svojich úloh.

Najviac to ovplyvňuje:

  • zložitosť fyziky v hre
  • komplexná geometria priestoru (veľa veľkých budov s mnohými detailmi)
  • umela inteligencia

Naša rada

  • Pri výbere radíme zamerať sa práve na takéto testy s potrebnými nastaveniami grafiky a FPS, ktoré potrebujete (čo vaša karta zvládne).
  • Ak chcete mať istotu, že budúce nové produkty budú fungovať dobre, je vhodné pozrieť sa na tie najnáročnejšie hry.
  • S rezervou môžete brať aj procesor. Teraz hry fungujú dobre aj na čipoch, ktoré sú staré 4 roky (), čo znamená dobrý procesor Teraz vás bude v hrách tešiť na veľmi dlhú dobu.
  • Ak je FPS v hre normálne a zaťaženie grafickej karty je nízke, načítajte ju. Zvýšte nastavenia grafiky tak, aby grafická karta fungovala na plnú kapacitu.
  • Pri použití DirectX 12 by sa malo mierne znížiť zaťaženie procesora, čím sa znížia nároky naň.

Technologický pokrok sa neposúva rovnomerne vo všetkých oblastiach, to je zrejmé. V tomto článku sa pozrieme na to, ktoré uzly v ktorých časoch zlepšovali svoje charakteristiky pomalšie ako iné, čím sa stali slabým článkom. Dnešnou témou je teda vývoj slabých článkov – ako vznikli, ovplyvnili a ako boli odstránené.

CPU

Od najskorších osobné počítače väčšina výpočtov pripadla na CPU. Bolo to spôsobené tým, že čipy neboli veľmi lacné, takže väčšina periférií využívala procesorový čas pre svoje potreby. A periférií bolo v tom čase veľmi málo. Čoskoro, s rozšírením rozsahu PC aplikácií, bola táto paradigma revidovaná. Nastal čas rozkvetu rôznych rozširujúcich kariet.



V časoch „kopečiek“ a „trojok“ (to nie sú Pentiá II a III, ako by si mladí ľudia mohli myslieť, ale procesory i286 a i386) neboli úlohy prideľované systémom príliš zložité, hlavne kancelárske aplikácie a výpočty. Rozširujúce karty už čiastočne odbremenili procesor, napríklad MPEG dekodér, ktorý dešifroval súbory komprimované v MPEG, to dokázal bez účasti CPU. O niečo neskôr sa začali vyvíjať štandardy, ktoré by menej zaťažili procesor pri výmene dát. Príkladom bol PCI zbernica(objavilo sa počnúc i486), práca, ktorá zaťažila procesor v menšej miere. Medzi takéto príklady patria aj PIO a (U)DMA.


Procesory zvyšovali svoj výkon dobrým tempom, objavil sa multiplikátor, pretože rýchlosť systémovej zbernice bola obmedzená a zdá sa, že vyrovnávacia pamäť maskuje požiadavky do pamäte RAM pracujúcej pri nižšej frekvencii. Procesor bol stále slabým článkom a rýchlosť prevádzky takmer úplne závisela od neho.



Medzitým Spoločnosť Intel po prepustení dobrého Procesor Pentium vydáva novú generáciu - Pentium MMX. Chcela veci zmeniť a presunúť výpočty na procesor. K tomu veľmi pomohla inštrukčná sada MMX - MultiMedia eXtensions, ktorá mala zrýchliť prácu so spracovaním zvuku a videa. S jeho pomocou sa začala normálne prehrávať hudba MP3 a pomocou CPU bolo možné dosiahnuť prijateľné prehrávanie MPEG4.

Prvé zátky v pneumatike

Systémy založené na procesore Pentium MMX už boli viac obmedzené šírkou pásma pamäte (memory bandwidth). 66 MHz zbernica pre nový procesor bola prekážkou aj napriek prechodu na nový typ pamäte SDRAM, ktorý zlepšil výkon na megahertz. Z tohto dôvodu sa stalo veľmi populárnym pretaktovanie zbernice, kedy bola zbernica nastavená na 83 MHz (alebo 75 MHz) a zaznamenala veľmi citeľný nárast. Často aj nižšia konečná frekvencia procesora bola kompenzovaná vyššou frekvenciou zbernice. Prvýkrát boli dosiahnuté vyššie rýchlosti pri nižších frekvenciách. Ďalším prekážkou sa stal objem Náhodný vstup do pamäťe. Pre pamäť SIMM to bolo maximálne 64 MB, ale častejšie to bolo 32 MB alebo dokonca 16. To značne komplikovalo používanie programov, pretože každý novú verziu Windows je známy tým, že rád „zje veľa chutného rámu“ (c). Nedávno sa objavili zvesti o sprisahaní medzi výrobcami pamätí a Microsoft Corporation.



Intel medzitým začal vyvíjať drahú a teda nie veľmi populárnu platformu Socket8, zatiaľ čo AMD pokračovalo vo vývoji Socket7. Bohužiaľ, ten druhý používal pomaly FPU (Jednotka s pohyblivou rádovou čiarkou– modul operácií s zlomkové čísla), ktorú vytvorila vtedy novozískaná spoločnosť Nexgen, čo znamenalo zaostávanie za konkurentom v multimediálnych úlohách - predovšetkým hrách. Prechod na 100 MHz zbernicu dal procesorom potrebnú šírku pásma a plná rýchlosť 256 KB L2 cache na procesore AMD K6-3 zlepšila situáciu natoľko, že teraz bola rýchlosť systému charakterizovaná iba frekvenciou procesora, a nie autobus. Aj keď to bolo čiastočne spôsobené pomalým FPU. Kancelárske aplikácie, ktoré boli závislé na výkone ALU, bežali plynulo vďaka rýchlemu pamäťovému subsystému rýchlejšie rozhodnutia konkurent.

Čipsety

Intel opustil drahé Pentium Pro, ktoré malo do procesora integrovanú vyrovnávaciu pamäť L2, a vydal Pentium II. Tento CPU mal jadro veľmi podobné jadru Pentium MMX. Hlavnými rozdielmi boli vyrovnávacia pamäť L2, ktorá bola umiestnená na kazete procesora a pracovala na polovičnej frekvencii jadra a nová pneumatika– AGTL. Pomocou nových čipsetov (najmä i440BX) bolo možné zvýšiť frekvenciu zbernice na 100 MHz, a teda aj šírku pásma. Z hľadiska efektivity (pomer rýchlosti náhodného čítania k teoretickej) sa tieto čipsety stali jednými z najlepších a Intel dodnes nedokázal tento ukazovateľ prekonať. Čipsety série i440BX mali jeden slabý článok – južný mostík, ktorého funkčnosť už nevyhovovala vtedajším požiadavkám. Použitý bol starý južný mostík zo série i430, používaný v systémoch založených na Pentiu I. Práve táto okolnosť, ako aj prepojenie čipsetov cez PCI zbernicu podnietili výrobcov k tomu, aby vydali hybridy obsahujúce severný mostík i440BX resp. južný most VIA (686A/B).



Intel medzitým demonštruje prehrávanie DVD filmov bez podporných kariet. Ale Pentium II nezískalo veľké uznanie kvôli jeho vysokým nákladom. Potreba vyrábať lacné analógy bola zrejmá. Prvý pokus - Intel Celeron bez vyrovnávacej pamäte L2 - bol neúspešný: z hľadiska rýchlosti boli Covingtony oveľa horšie ako ich konkurenti a neodôvodňovali ich ceny. Potom Intel urobí druhý pokus, ktorý sa ukázal ako úspešný – pretaktovateľmi milované jadro Mendocino, ktoré má polovičnú veľkosť vyrovnávacej pamäte (128 KB oproti 256 KB pre Pentium II), ale pracuje na dvojnásobnej frekvencii (pri procesore frekvencia, nie o polovicu pomalšia ako Pentium II). Vďaka tomu nebola rýchlosť vo väčšine úloh nižšia a nižšia cena prilákala kupujúcich.

Prvé 3D a opäť autobus

Hneď po vydaní Pentia MMX sa začala popularizácia 3D technológií. Najprv to boli profesionálne aplikácie na vývoj modelov a grafiky, no skutočnú éru otvorili 3D hry, presnejšie Voodoo 3D akcelerátory vytvorené 3dfx. Tieto akcelerátory sa stali prvými mainstreamovými kartami na vytváranie 3D scén, ktoré odbremenili procesor pri renderingu. Od tejto doby sa začal vývoj trojrozmerných hier. Pomerne rýchlo začali výpočty scén pomocou centrálneho procesora strácať v porovnaní s tými, ktoré sa vykonávajú pomocou video akcelerátorov, a to v rýchlosti aj kvalite.



S príchodom nového výkonného subsystému – grafického, ktorý začal konkurovať objemom vypočítaných dát centrálny procesor, sa objavilo nové úzke miesto - zbernica PCI. Najmä karty Voodoo 3 a staršie dostali zvýšenie rýchlosti jednoduchým pretaktovaním PCI zbernice na 37,5 alebo 41,5 MHz. Je zrejmé, že je potrebné poskytnúť grafickým kartám dostatočne rýchlu zbernicu. Takouto zbernicou (alebo skôr portom) sa stal AGP – Accelerated Graphics Port. Ako už názov napovedá, ide o dedikovanú grafickú zbernicu a podľa špecifikácie mohla mať len jeden slot. Prvá verzia AGP podporovala rýchlosti AGP 1x a 2x, čo zodpovedalo rýchlostiam single a double PCI 32/66, teda 266 a 533 MB/s. Pomalá verzia bola pridaná kvôli kompatibilite a práve s ňou vznikali pomerne dlho problémy. Okrem toho sa vyskytli problémy so všetkými čipsetmi, s výnimkou tých, ktoré vydala spoločnosť Intel. Podľa klebiet tieto problémy súviseli s prítomnosťou licencie len od tejto spoločnosti a jej bránením vo vývoji konkurenčnej platformy Socket7.



AGP veci vylepšilo a grafický port už nie je prekážkou. Grafické karty naň prešli veľmi rýchlo, no platforma Socket7 trpela problémami s kompatibilitou takmer až do samého konca. Iba najnovšie čipsety a ovládače dokázali túto situáciu zlepšiť, no aj tak sa objavili nuansy.

A skrutky sú tam!

Nastal čas pre Coppermine, frekvencie sa zvýšili, výkon sa zvýšil, nové grafické karty zlepšili výkon a zvýšili sa potrubia a pamäť. Z počítača sa už stalo multimediálne centrum – púšťali si na ňom hudbu a pozerali filmy. Integrované zvukové karty so slabými vlastnosťami strácajú pôdu pod nohami v porovnaní s SBLive!, ktoré sa stali ľudovou voľbou. Úplnej idyle však niečo bránilo. Čo to bolo?



Tento faktor bol pevné disky, ktorej rast sa spomalil a zastavil sa na úrovni okolo 40 GB. Pre zberateľov filmov (vtedy MPEG4) to spôsobilo zmätok. Čoskoro bol problém vyriešený a pomerne rýchlo - objem diskov narástol na 80 GB a viac a prestali znepokojovať väčšinu používateľov.


AMD vyrába veľmi dobrú platformu – Socket A a procesor s architektúrou K7, obchodníkmi nazývaný Athlon (technický názov Argon), ako aj lacný Duron. Atlone's silné stránky disponoval zbernicou a výkonným FPU, čo z neho urobilo výborný procesor na seriózne výpočty a hry, pričom jeho konkurentovi – Pentiu 4 – zostala úloha kancelárskych strojov, kde však výkonné systémy neboli nikdy požadované. Skoré Durony mali veľmi nízku veľkosť vyrovnávacej pamäte a rýchlosť zbernice, takže bolo ťažké konkurovať Intel Celeron (Tualatin). Ale vďaka lepšej škálovateľnosti (kvôli rýchlejšej zbernici) lepšie reagovali na zvyšujúce sa frekvencie, a preto staršie modely už ľahko predbiehali Riešenia Intel.

Medzi dvoma mostami


Počas tohto obdobia sa objavili dve úzke miesta naraz. Prvým je pneumatika medzi nápravami. Na tieto účely sa tradične používa PCI. Je potrebné pripomenúť, že PCI, ako sa používa v stolných počítačoch, má teoretickú priepustnosť 133 MB/s. V skutočnosti rýchlosť závisí od čipsetu a aplikácie a pohybuje sa od 90 do 120 MB/s. Okrem toho je šírka pásma zdieľaná medzi všetkými zariadeniami, ktoré sú k nej pripojené. Ak máme dva kanály IDE s teoretickým priepustnosť pri 100 Mb/s (ATA-100) pripojený na zbernicu s teoretickou priepustnosťou 133 Mb/s, potom je problém zrejmý. LPC, PS/2, SMBus, AC97 majú nízke požiadavky na šírku pásma. Ale Ethernet, ATA 100/133, PCI, USB 1.1/2.0 už fungujú rýchlosťou porovnateľnou s inter-bridge rozhraním. Dlho nebol problém. USB sa nepoužívalo, Ethernet bol potrebný zriedkavo a väčšinou rýchlosťou 100 Mbps (12,5 Mbps) a pevné disky sa nemohli ani priblížiť k maximálnej rýchlosti rozhrania. Ale čas plynul a situácia sa zmenila. Bolo rozhodnuté vyrobiť špeciálnu pneumatiku medzi nábojmi (medzi mostami).


VIA, SiS a Intel vydali svoje vlastné možnosti zbernice. Líšili sa predovšetkým svojimi priepustnými schopnosťami. Začínali s PCI 32/66 - 233 Mb/s, ale to hlavné bolo urobené - PCI zbernica bola pridelená len pre vlastné zariadenia a nebolo potrebné cez ňu prenášať dáta do iných zberníc. Tým sa zlepšila rýchlosť práce s perifériami (v porovnaní s architektúrou mostov).


Zvýšila sa aj priepustnosť grafického portu. Bola predstavená možnosť pracovať s režimami rýchleho zápisu, čo umožnilo zapisovať údaje priamo do videopamäte a obchádzať systémová pamäť, a Side Band Addressing, ktorý na prenos využíval dodatočnú 8-bitovú časť zbernice, zvyčajne určenú na prenos technických údajov. Zisk z používania FW bol dosiahnutý len pri vysokom zaťažení procesora, v ostatných prípadoch priniesol zanedbateľný zisk. Rozdiel medzi režimom 8x a 4x bol teda v rámci chyby.

CPU závislosť

Ďalšou prekážkou, ktorá sa objavila a je stále aktuálna, bola závislosť od procesora. Tento jav vznikol v dôsledku rýchleho vývoja grafických kariet a znamenalo nedostatočný výkon spojenia „procesor – čipset – pamäť“ vo vzťahu ku grafickej karte. Koniec koncov, počet snímok v hre je určený nielen grafickou kartou, ale aj týmto spojením, pretože práve toto spojenie poskytuje karte pokyny a údaje, ktoré je potrebné spracovať. Ak sa spojenie neudrží, video subsystém narazí na strop, ktorý primárne určuje. Takýto strop bude závisieť od výkonu karty a použitých nastavení, existujú však aj karty, ktoré majú takýto strop s ľubovoľnými nastaveniami v konkrétnej hre alebo s rovnakými nastaveniami, ale vo väčšine moderných hier s takmer akýmkoľvek procesorom. Napríklad karta GeForce 3 bola značne obmedzená výkonom procesorov Puntium III a Pentium 4 založených na jadre Willamete. O niečo staršiemu modelu GeForce 4 Ti už chýbal Athlon 2100+-2400+ a nárast so zlepšeným výkonom kombinácie bol veľmi citeľný.



Ako sa zlepšil výkon? AMD, využívajúc plody vyvinutej efektívnej architektúry, najprv jednoducho zvýšilo frekvenciu procesora a zlepšilo sa technologický postup, a výrobcovia čipsetov - šírka pásma pamäte. Intel pokračoval v politike zvyšovania taktovacích frekvencií, našťastie architektúra Netburst bola navrhnutá práve na to. procesory Intel na jadrách Willamete a Northwood so zbernicou 400QPB (quad pumped bus) boli horšie ako konkurenčné riešenia so zbernicou 266 MHz. Po uvedení 533QPB sa procesory výkonovo vyrovnali. Potom sa však Intel namiesto 667 MHz zbernice implementovanej v serverových riešeniach rozhodol použiť procesory stolné počítače preniesť priamo na 800 MHz zbernicu, aby sa vytvorili výkonové rezervy pre konkurenciu jadra Barton a nového špičkového Athlonu XP 3200+. Procesory Intel boli veľmi obmedzené frekvenciou zbernice a ani 533QPB nestačilo na zabezpečenie dostatočného množstva dátového toku. To je dôvod, prečo uvoľnený 3,0 GHz CPU na 800 MHz zbernici celkovo prekonal 3,06 MHz procesor na 533 MHz zbernici, možno s výnimkou malého počtu aplikácií.


Bola predstavená aj podpora nových frekvenčných režimov pre pamäť a objavil sa dvojkanálový režim. Toto bolo urobené s cieľom vyrovnať šírku pásma procesora a pamäťovej zbernice. Dvojkanálový režim DDR presne zodpovedal QDR na rovnakej frekvencii.


Pre AMD bol dvojkanálový režim formalitou a priniesol sotva badateľný nárast. Nové jadro Prescott neprinieslo jednoznačné zvýšenie rýchlosti a miestami bolo horšie ako starý Northwood. Jeho hlavným cieľom bol prechod na nový technický proces a možnosť ďalšieho zvyšovania frekvencií. Produkcia tepla sa výrazne zvýšila v dôsledku zvodových prúdov, čo ukončilo vydanie modelu pracujúceho na frekvencii 4,0 GHz.

Cez strop do novej pamäte

Generácia Radeon 9700/9800 a GeForce 5 pre procesory tej doby nerobila problémy so závislosťou procesora. Ale generácia GeForce 6 položila väčšinu systémov na kolená, keďže nárast výkonu bol veľmi citeľný, a teda aj závislosť na procesore bola vyššia. Špičkové procesory založené na jadrách Barton (Athlon XP 2500+ - 3200+) a Northwood/Prescott (3,0-3,4 MHz 800FSB) narazili na nový limit - limit frekvencie pamäte a zbernice. Tým trpelo najmä AMD – 400 MHz zbernica nestačila na realizáciu sily dobrého FPU. Pentium 4 malo lepšiu situáciu a vykazovalo dobré výsledky pri minimálnom časovaní. JEDEC však nebol ochotný certifikovať pamäťové moduly s vyššou frekvenciou a nižšou latenciou. Preto boli dve možnosti: buď komplexný štvorkanálový režim, alebo prechod na DDR2. To druhé sa stalo a bola predstavená platforma LGA775 (Socket T). Zbernica zostala rovnaká, ale frekvencie pamätí neboli obmedzené na 400 MHz, ale začínali až odtiaľ.



AMD vyriešilo problém lepšie z hľadiska škálovateľnosti. Generácia K8, odborne nazývaná Hammer, mala okrem zvýšenia počtu inštrukcií na takt (čiastočne kvôli kratšiemu pipeline) dve novinky s rezervou do budúcnosti. Boli to vstavaný pamäťový radič (alebo skôr severný mostík s väčšinou funkcií) a rýchla univerzálna zbernica HyperTransport, ktorá slúžila na prepojenie procesora s čipsetom alebo procesorov medzi sebou v multiprocesorovom systéme. Zabudovaný pamäťový radič umožnil vyhnúť sa slabému článku - spojeniu čipset-procesor. FSB ako taká prestala existovať, existovala len pamäťová zbernica a HT zbernica.


To umožnilo Athlon 64 ľahko predbehnúť existujúce riešenia Intel na architektúre Netburst a ukázať chybnú ideológiu dlhého potrubia. Tejas mal veľa problémov a nevyšli najavo. Tieto procesory ľahko rozpoznali svoj potenciál Karty GeForce 6, ale ako staršie Pentium 4.


Potom sa však objavila inovácia, ktorá z procesorov urobila na dlhú dobu slabý článok. Jeho názov je multi-GPU. Bolo rozhodnuté oživiť myšlienky 3dfx SLI a implementovať ich do NVIDIA SLI. ATI zareagovala symetricky a uvoľnila CrossFire. Išlo o technológie na spracovanie scén pomocou dvoch kariet. Zdvojnásobenie teoretického výkonu video subsystému a výpočty spojené s rozdelením snímky na časti na úkor procesora viedli k skreslenému systému. Starší Athlon 64 načítal takúto kombináciu len vo vysokých rozlíšeniach. Vydanie GeForce 7 a ATI Radeon X1000 túto nerovnováhu ešte zvýšil.


Popri tom bola vyvinutá nová zbernica PCI Express. Tento obojsmerný sériová zbernica určený pre periférne zariadenia a má veľmi vysokú rýchlosť. Nahradil AGP a PCI, hoci ho úplne nenahradil. Pre svoju univerzálnosť, rýchlosť a nízke náklady na implementáciu rýchlo nahradil AGP, aj keď v tom čase nepriniesol žiadne zvýšenie rýchlosti. Nebol medzi nimi rozdiel. Ale z hľadiska zjednotenia to bol veľmi dobrý krok. Teraz sa vyrábajú dosky, ktoré podporujú PCI-E 2.0, ktorý má dvojnásobnú priepustnosť (500 MB/s v každom smere oproti predchádzajúcim 250 MB/s na linku). To tiež neprinieslo žiadne výhody súčasným grafickým kartám. Rozdiel medzi rôznymi režimami PCI-E je možný len v prípade nedostatočnej videopamäte, čo už znamená nevyváženosť pre samotnú kartu. Takouto kartou je GeForce 8800GTS 320 MB – veľmi citlivo reaguje na zmeny v režime PCI-E. Ale vziať si nevyváženú kartu len na vyhodnotenie zisku z PCI-E 2.0 nie je najrozumnejšie rozhodnutie. Ďalšou vecou sú karty s podporou Turbocache a Hypermemory – technológií na využitie RAM ako video pamäte. Tu bude nárast šírky pásma pamäte približne dvojnásobný, čo bude mať pozitívny vplyv na výkon.


Či má grafická karta dostatok pamäte, môžete vidieť v každom prehľade zariadení s rôznymi veľkosťami VRAM. Tam, kde dôjde k prudkému poklesu počtu snímok za sekundu, chýba VideoRAM. Stáva sa však, že rozdiel je veľmi viditeľný iba v nehrateľných režimoch - rozlíšenie 2560 x 1600 a maximálne AA/AF. Potom bude rozdiel medzi 4 a 8 snímkami za sekundu dvojnásobný, ale je zrejmé, že oba režimy sú v reálnych podmienkach nemožné, a preto by sa nemali brať do úvahy.

Nová odpoveď na video čipy

Vydanie novej architektúry Core 2 (technický názov Conroe) zlepšilo situáciu so závislosťou od procesora a bez problémov načítalo riešenia na GeForce 7 SLI. Quad SLI a GeForce 8 však dorazili včas a pomstili sa a obnovili nerovnováhu. Toto trvá dodnes. Situácia sa len zhoršila s vydaním 3-way SLI a pripravovaného Quad SLI na GeForce 8800 a Crossfire X 3-way a 4-way. Vydanie Wolfdale mierne zvýšilo rýchlosť hodín, ale pretaktovanie tohto procesora nestačí na správne načítanie takýchto video systémov. 64-bitové hry sú veľmi zriedkavé a rast v tomto režime sa pozoruje v ojedinelých prípadoch. Hry, ktoré ťažia zo štyroch jadier, sa dajú spočítať na prstoch jednej postihnutej ruky. Ako zvyčajne, Microsoft sťahuje všetkých, načítava ich nový OS a pamäť a procesor ide skvele. Implicitne sa oznamuje, že technológie 3-way SLI a Crossfire X budú fungovať výhradne pod Vista. Vzhľadom na jeho apetít môžu byť hráči nútení vziať si štvorjadrové procesory. Je to spôsobené rovnomernejším zaťažením jadier ako vo Windoes XP. Ak už musí zabrať slušnú porciu procesorového času, tak aspoň nech zožerie jadrá, ktoré hra aj tak nevyužíva. Pochybujem však, že je to novinka operačný systém bude spokojný s danými jadrami.



Platforma Intel sa stáva zastaranou. Štyri jadrá už teraz veľmi trpia nedostatkom šírky pásma pamäte a oneskorením spojeným s prepínačmi zberníc. Zbernica je zdieľaná a trvá určitý čas, kým jadro prevezme kontrolu nad zbernicou. Pri dvoch jadrách je to tolerovateľné, ale pri štyroch jadrách je efekt dočasných strát výraznejší. Systémová zbernica tiež dlho nedrží krok so šírkou pásma. Vplyv tohto faktora bol oslabený zlepšením efektivity asynchrónneho režimu, ktorý Intel dobre implementoval. Pracovné stanice tým trpia ešte vo väčšej miere vinou nepodareného čipsetu, ktorého pamäťový radič poskytuje len do 33 % teoretickej šírky pásma pamäte. Príkladom toho je prehra platformy Intel Skulltrail vo väčšine herných aplikácií (test 3Dmark06 CPU nie je herná aplikácia :)) aj pri použití rovnakých grafických kariet. Intel preto oznámil novú generáciu Nehalemu, ktorá bude implementovať infraštruktúru veľmi podobnú vývoju AMD – integrovaný pamäťový radič a periférnu zbernicu QPI (technický názov CSI). Tým sa zlepší škálovateľnosť platformy a dá pozitívne výsledky v dvojprocesorových a viacjadrových konfiguráciách.


AMD má v súčasnosti niekoľko úzkych miest. Prvý súvisí s cachovacím mechanizmom – kvôli nemu existuje určitý limit šírky pásma v závislosti od frekvencie procesora taký, že nie je možné preskočiť túto hodnotu ani pri použití režimov s vyššou frekvenciou. Napríklad pri priemernom procesore môže byť rozdiel v práci s pamäťou medzi DDR2 667 a 800 MHz asi 1-3%, ale pre skutočnú úlohu je to spravidla zanedbateľné. Preto je najlepšie zvoliť optimálnu frekvenciu a znížiť predstihy - regulátor na ne veľmi dobre reaguje. Preto nemá zmysel implementovať DDR3 - vysoké časovanie bude len bolieť a nemusí to byť vôbec žiadny zisk. Problémom AMD je teraz aj pomalé (napriek SSE128) spracovanie inštrukcií SIMD. Z tohto dôvodu je Core 2 výrazne pred K8/K10. ALU, ktorá bola vždy silnou stránkou Intelu, sa stala ešte silnejšou a v niektorých prípadoch môže byť mnohonásobne rýchlejšia ako jej náprotivok v Phenome. To je hlavný problém procesory AMD– slabá „matematika“.


Vo všeobecnosti sú slabé články veľmi špecifické pre danú úlohu. Zvažovali sa len tie „epochálne“. Takže v niektorých úlohách môže byť rýchlosť obmedzená množstvom pamäte RAM alebo rýchlosťou diskového subsystému. Potom sa pridá viac pamäte (množstvo sa určí pomocou počítadiel výkonu) a nainštalujú sa polia RAID. Rýchlosť hier sa dá zvýšiť vypnutím vstavanej zvukovej karty a zakúpením normálnej diskrétnej - Creative Audigy 2 alebo X-Fi, ktoré procesor menej zaťažujú spracovaním efektov svojim čipom. To platí vo väčšej miere pre zvukové karty AC’97 a v menšej miere pre HD-Audio (Intel Azalia), keďže ten vyriešil problém vysokej záťaže procesora.


Pamätajte, že systém by mal byť vždy prispôsobený konkrétnym úlohám. Často, ak si môžete vybrať vyváženú grafickú kartu (a výber podľa cenových kategórií bude závisieť od cien, ktoré sa na rôznych miestach výrazne líšia), potom, povedzme, s diskovým podsystémom takáto príležitosť nie je vždy k dispozícii. Len veľmi málo ľudí potrebuje RAID 5, ale pre server je to nepostrádateľná vec. To isté platí pre dvojprocesorovú alebo viacjadrovú konfiguráciu, ktorá je v kancelárskych aplikáciách nepoužiteľná, no pre dizajnéra pracujúceho v 3Ds Max je nevyhnutná.

IN Najnovšia verzia Systém Windows má teraz funkciu hodnotenia spotreby energie rôzne komponenty PC. To poskytuje prehľad o výkone a úzkych miestach systému. Tu ale nenájdete žiadne detaily o rýchlostných parametroch komponentov. Okrem toho vám táto diagnostika neumožňuje vykonať záťažový test hardvéru, ktorý môže byť užitočný na pochopenie špičkového zaťaženia počas spúšťania moderných hier. Benchmarky tretích strán z rodiny 3DMark tiež poskytujú iba odhady v podmienených bodoch. Nie je žiadnym tajomstvom, že mnohí výrobcovia počítačového hardvéru optimalizujú fungovanie grafických kariet a iných komponentov tak, aby získali maximálny počet bodov pri absolvovaní 3DMark. Tento program vám dokonca umožňuje porovnať výkon vášho zariadenia s podobnými z jeho databázy, konkrétne hodnoty však nezískate.

Testovanie PC by sa preto malo vykonávať oddelene, berúc do úvahy nielen hodnotenie výkonu benchmarku, ale aj skutočné technické údaje, zaznamenané ako výsledok kontroly zariadenia. Vybrali sme pre vás sadu nástrojov (platených aj bezplatných), ktoré vám umožňujú získať konkrétne výsledky a identifikovať slabé odkazy.

Rýchlosť spracovania obrazu a 3D

Testovanie grafických kariet je jedným z najdôležitejších krokov pri hodnotení výkonu počítača. Výrobcovia moderných grafických adaptérov ich vybavujú špeciálnym softvérom a ovládačmi, ktoré umožňujú použitie GPU nielen na spracovanie obrazu, ale aj na iné výpočty, napríklad pri kódovaní videa. Preto jediný spoľahlivým spôsobom zistiť, ako efektívne je spracované počítačová grafika, - uchýlite sa k špeciálnej aplikácii, ktorá meria výkon zariadenia.

Kontrola stability grafickej karty

Program: FurMark 1.9.1 webové stránky: www.ozone3d.net Program FurMark je jedným z najrýchlejších a najjednoduchších nástrojov na kontrolu činnosti grafického adaptéra. Nástroj testuje výkon grafickej karty pomocou technológie OpenGL ako základu. Navrhovaný vizualizačný algoritmus využíva multi-pass rendering, ktorého každá vrstva je založená na GLSL (OpenGL shader language).

Na zaťaženie procesora grafickej karty tento benchmark vykresľuje abstraktný 3D obraz s torusom pokrytým kožušinou. Potreba spracovania veľkého množstva vlasov vedie k maximálnemu možnému zaťaženiu zariadenia. FurMark kontroluje stabilitu grafickej karty a tiež ukazuje zmeny teploty zariadenia pri zvyšovaní zaťaženia.

V nastaveniach FurMarku môžete určiť rozlíšenie, pri ktorom sa bude hardvér testovať, a po dokončení program predloží krátku správu o konfigurácii PC s konečným skóre v podmienených bodoch. Túto hodnotu je vhodné použiť pri porovnávaní výkonu niekoľkých grafických kariet vo všeobecnosti. Môžete tiež skontrolovať „pohotovostné“ rozlíšenia 1080p a 720p.

Virtuálna stereo prechádzka

Program: Benchmark Unigine Heaven DX11 webové stránky: www.unigine.com Jeden z najistejších spôsobov, ako otestovať, čo dokážete nový počítač, - spúšťajte na ňom hry. Moderné hry plne využívajú hardvérové ​​zdroje - grafickú kartu, pamäť a procesor. Nie každý má však možnosť a chuť venovať čas takejto zábave. Namiesto toho môžete použiť Benchmark Unigine Heaven DX11. Tento test je založený na hernom engine Unigine (sú na ňom postavené hry ako Oil Rush, Dilogus: The Winds of War, Syndicates of Arkon a iné), ktorý podporuje grafické API (DirectX 9, 10, 11 a OpenGL). Po jeho spustení program vytvorí demo vizualizáciu, vykresľovanie virtuálneho prostredia v reálnom čase. Používateľovi sa zobrazí krátke video, ktoré bude obsahovať virtuálnu prechádzku fantasy svetom. Tieto scény vytvára grafická karta. Okrem trojrozmerných objektov motor simuluje zložité osvetlenie, modelovanie globálny systém s viacnásobnými odrazmi svetelných lúčov od prvkov scény.

Počítač môžete otestovať v stereo režime a v nastaveniach benchmarku si môžete vybrať štandard priestorového obrazu videa: anaglyph 3D, samostatný výstup snímok pre pravé a ľavé oko atď.

Napriek tomu, že názov programu spomína jedenástu verziu DirectX, neznamená to, že Unigine Heaven je určený len pre moderné grafické karty. V nastaveniach tohto testu si môžete vybrať jednu zo starších verzií DirectX, ako aj nastaviť prijateľnú úroveň detailov obrazu a určiť kvalitu vykresľovania shaderov.

Nájdenie slabého článku

V situácii, keď je používateľ premožený túžbou zvýšiť výkon svojho počítača, môže vzniknúť otázka: ktorý komponent je najslabší? Čo zrýchli počítač - výmena grafickej karty, procesora alebo inštalácia veľkého množstva pamäte RAM? Na zodpovedanie tejto otázky je potrebné otestovať jednotlivé komponenty a určiť „slabý článok“ v aktuálnej konfigurácii. Jedinečný nástroj na viacnásobné testovanie vám ho pomôže nájsť.

Simulátor zaťaženia

Program: PassMark PerformanceTest webové stránky: www.passmark.com PassMark PerformanceTest analyzuje takmer každé zariadenie prítomné v konfigurácii PC - od základná doska a pamäte na optické mechaniky.

Špeciálnou vlastnosťou PassMark PerformanceTest je, že program používa veľké množstvo rôznych úloh, ktoré dôsledne merajú výkon počítača v rôznych situáciách. V istom momente sa môže dokonca zdať, že niekto prevzal kontrolu nad systémom do svojich rúk – okná sa náhodne otvárajú, ich obsah sa posúva, na obrazovke sa zobrazujú obrázky. To všetko je výsledkom benchmarku, ktorý simuluje vykonávanie najtypickejších úloh, ktoré sa zvyčajne vyžadujú v systéme Windows. Zároveň sa kontroluje rýchlosť kompresie dát, zaznamenáva sa čas potrebný na zašifrovanie informácií, na fotografie sa aplikujú filtre a nastavuje sa rýchlosť vykresľovania vektorová grafika, prehrávajú sa krátke 3D ukážkové videá atď.

Na konci testovania PassMark PerformanceTest poskytuje celkové skóre a ponúka porovnanie tohto výsledku s údajmi získanými na počítačoch s rôznymi konfiguráciami. Pre každý z testovaných parametrov aplikácia vytvorí diagram, na ktorom sú jasne viditeľné slabé komponenty počítača.

Kontrola systému disku

Priepustnosť diskového systému môže byť najväčšou prekážkou vo výkone PC. Preto je mimoriadne dôležité poznať skutočné vlastnosti týchto komponentov. Testovanie pevného disku nielenže určí jeho rýchlosť čítania a zápisu, ale ukáže aj to, ako spoľahlivo zariadenie funguje. Na kontrolu disku odporúčame vyskúšať dva malé nástroje.

Skúšky pre HDD

programy: CrystalDiskInfo a CrystalDiskMark webové stránky: http://crystalmark.info/software/index-e.html Tieto programy vytvoril ten istý vývojár a dokonale sa dopĺňajú. Oba sú zadarmo a môžu fungovať bez inštalácie na počítači, priamo z flash disku.

Väčšina pevných diskov využíva technológiu vlastnej diagnostiky SMART, ktorá vám umožňuje predvídať možné poruchy na disku. Pomocou programu CrystalDiskInfo môžete posúdiť skutočný stav vášho HDD z hľadiska spoľahlivosti: načítava SMART dáta, zisťuje počet problémových sektorov, počet chýb polohovania čítacej hlavy, čas potrebný na roztočenie disku, ako aj ako aktuálna teplota zariadenia. Ak je druhý indikátor príliš vysoký, životnosť média pred zlyhaním bude veľmi krátka. Program tiež zobrazuje verziu firmvéru a poskytuje údaje o dĺžke používania pevný disk.

CrystalDiskMark je malá aplikácia, ktorá meria rýchlosť zápisu a čítania. Tento nástroj na kontrolu disku sa líši od podobných pomôcok v tom, že vám umožňuje používať rôzne podmienky na zapisovanie a čítanie údajov – napríklad meranie údajov pre bloky rôznych veľkostí. Pomôcka tiež umožňuje nastaviť počet testov, ktoré sa majú vykonať, a množstvo údajov, ktoré sa na ne použijú.

Rýchlomer na surfovanie po webe

Skutočná rýchlosť sieťové pripojenie sa zvyčajne líši od toho, čo je uvedené v jeho nastaveniach alebo deklarované poskytovateľom, a spravidla v menšom rozsahu. Rýchlosť prenosu dát môže byť ovplyvnená množstvom faktorov – mierou elektromagnetického rušenia v miestnosti, počtom používateľov súčasne pracujúcich na sieti, kvalitou káblov atď.

Odhad rýchlosti siete

Program: SpeedTest webové stránky: www.raccoonworks.com Ak chcete vedieť skutočnú rýchlosť prenosu dát vo vašom lokálna sieť, pomôže vám program SpeedTest. Umožňuje vám zistiť, či poskytovateľ dodržiava uvedené parametre. Nástroj meria rýchlosť prenosu údajov medzi dvoma pracovnými používateľskými strojmi, ako aj medzi nimi vzdialený server a osobný počítač.

Program sa skladá z dvoch častí – servera a klienta. Na meranie rýchlosti prenosu informácií z jedného počítača do druhého musí prvý používateľ spustiť serverovú časť a zadať ľubovoľný súbor (najlepšie veľká veľkosť), ktorý sa použije na test. Druhý účastník testu musí spustiť klientsky komponent a špecifikovať parametre servera – adresu a port. Obe aplikácie nadviažu spojenie a začnú si vymieňať údaje. Počas procesu prenosu súborov SpeedTest vykresľuje grafický vzťah a zhromažďuje štatistiky o čase, ktorý potreboval na skopírovanie údajov cez sieť. Ak testujete niekoľko vzdialených počítačov, program bude do vykresleného grafu znova a znova pridávať nové krivky.

Okrem toho SpeedTest skontroluje rýchlosť internetu: v režime „Webová stránka“ program otestuje pripojenie k ľubovoľnej stránke. Tento parameter je možné posúdiť aj tak, že prejdete na špecializovaný zdroj http://internet.yandex.ru.

Poruchy v pamäti RAM sa nemusia objaviť okamžite, ale pri určitých zaťaženiach. Aby ste mali istotu, že vás vybrané moduly v žiadnej situácii nesklamú, je lepšie ich poriadne otestovať a vybrať tie najrýchlejšie.

Olympijské hry Meme

Program: MaxxMEM2 - Náhľad webové stránky: www.maxxpi.net Tento program je určený na testovanie rýchlosti pamäte. Vo veľmi krátkom čase vykoná niekoľko testov: meria čas potrebný na skopírovanie dát do RAM, určí rýchlosť čítania a zápisu dát a zobrazí parameter latencie pamäte. V nastaveniach pomôcky môžete nastaviť prioritu testu a porovnať výsledok s aktuálnymi hodnotami získanými inými používateľmi. Z ponuky programu môžete rýchlo prejsť na online štatistiky na oficiálnej stránke MaxxMEM2 a zistiť, ktorá pamäť je najproduktívnejšia.

Pre zvuk nie je dôležitá rýchlosť

Pri testovaní väčšiny zariadení je zvyčajne dôležitá rýchlosť spracovania dát. Ale pokiaľ ide o zvukovú kartu, toto nie je hlavný ukazovateľ. Pre používateľa je oveľa dôležitejšie skontrolovať vlastnosti analógovej a digitálnej zvukovej cesty – zistiť, ako veľmi je zvuk skreslený pri prehrávaní a nahrávaní, zmerať úroveň hluku atď.

Porovnanie so štandardom

Program: RightMark Audio Analyzer 6.2.3 webové stránky: http://audio.rightmark.org Tvorcovia tohto nástroja ponúkajú niekoľko spôsobov kontroly výkonu zvuku. Prvou možnosťou je vlastná diagnostika zvukovej karty. Zariadenie reprodukuje testovací signál cez audio cestu a okamžite ho zaznamená. Tvar vlny prijímaného signálu by sa mal ideálne zhodovať s originálom. Odchýlky označujú skreslenie zvuku zvukovou kartou nainštalovanou v počítači.

Druhá a tretia testovacia metóda sú presnejšie – pomocou referenčného generátora zvukový signál alebo pomocou prídavnej zvukovej karty. V oboch prípadoch je kvalita zdroja signálu braná ako štandardná, aj keď istá chyba prídavné zariadenia tiež prispieť. Pri použití druhej zvukovej karty by mal byť faktor skreslenia výstupného signálu minimálny – zariadenie by malo mať lepšie vlastnosti ako testovaná zvuková karta. Na konci testu môžete určiť aj parametre, ako sú frekvenčná charakteristika zvukovej karty, jej hladina hluku, výstup harmonického skreslenia atď.

Okrem základných funkcií dostupných v bezplatnej edícii obsahuje výkonnejšia verzia RightMark Audio Analyzer 6.2.3 PRO aj podporu profesionálneho rozhrania ASIO, štvornásobne detailnejšie rozlíšenie spektra a možnosť využívať priamy prenos dát Kernel Streaming.

Je dôležité, aby nikto nezasahoval

Pri spúšťaní akéhokoľvek testu výkonu majte na pamäti, že konečné výsledky ovplyvňuje mnoho faktorov, najmä výkon služieb a aplikácií na pozadí. Preto sa pre čo najpresnejšie posúdenie vášho počítača odporúča najskôr vypnúť antivírusový skener a zatvoriť všetky spustených aplikácií, až po e-mailového klienta. A samozrejme, aby ste sa vyhli chybám v meraniach, mali by ste zastaviť všetky práce, kým program nedokončí testovanie zariadenia.

Teória systémových obmedzení bola sformulovaná v 80. rokoch dvadsiateho storočia. a týkali sa riadenia výrobných podnikov. Stručne povedané, jeho podstata sa scvrkáva na skutočnosť, že v každom výrobný systém existujú obmedzenia, ktoré obmedzujú efektivitu. Ak odstránite kľúčové obmedzenie, systém bude fungovať oveľa efektívnejšie, ako keby ste sa pokúsili ovplyvniť celý systém naraz. Proces zlepšovania výroby preto musí začať odstránením úzkych miest.

Teraz sa termín úzke miesto môže používať v akomkoľvek odvetví – v sektore služieb, developmente softvér, logistika, Každodenný život.

Čo je úzke miesto

Definícia úzkeho miesta je miesto vo výrobnom systéme, kde dochádza k preťaženiu, pretože materiály prúdia príliš rýchlo, ale nemôžu byť spracované tak rýchlo. Toto je často stanica s menším výkonom ako predchádzajúci uzol. Pojem pochádza z analógie s úzkym hrdlom fľaše, ktoré spomaľuje vytekanie tekutiny.


Bottleneck – úzke miesto vo výrobnom procese

Vo výrobe efekt úzkeho miesta spôsobuje prestoje a výrobné náklady, znižuje celkovú efektivitu a predlžuje dodacie lehoty zákazníkom.

Existujú dva typy prekážok:

  1. Krátkodobé úzke miesta- spôsobené dočasnými problémami. Dobrý príklad— práceneschopnosť alebo dovolenka kľúčových zamestnancov. Nikto z tímu ich nemôže plne nahradiť a práca sa zastaví. Vo výrobe to môže byť porucha jedného zo skupiny strojov, keď je jeho zaťaženie rozdelené medzi pracovné zariadenia.
  2. Dlhodobé úzke miesta- konať neustále. Napríklad neustále meškanie mesačných reportov vo firme kvôli tomu, že jeden človek musí spracovať obrovské množstvo informácií, ktoré sa k nemu dostanú v lavíne na samom konci mesiaca.

Ako identifikovať úzke miesto vo výrobnom procese

Existuje niekoľko spôsobov, ako hľadať úzke miesta vo výrobe s rôznou úrovňou zložitosti, s použitím alebo bez použitia špeciálnych nástrojov. Začnime s viacerými jednoduchými spôsobmi na základe pozorovania.

Fronty a zápchy

Proces na výrobnej linke, ktorá má pred sebou najväčší rad rozpracovaných jednotiek, je zvyčajne prekážkou. Táto metóda vyhľadávania úzkych miest je vhodná pre kusovú výrobu dopravníkov, napríklad na plniacej linke. Je jasne viditeľné, kde sa v linke hromadia fľaše a ktorý mechanizmus má nedostatočný výkon, často sa pokazí alebo je obsluhovaný neskúseným operátorom. Ak je na trati niekoľko bodov preťaženia, potom je situácia komplikovanejšia a na nájdenie najkritickejšieho úzkeho miesta je potrebné použiť ďalšie metódy.

Šírka pásma

Priepustnosť celej výrobnej linky priamo závisí od výkonu zariadenia úzkeho miesta. Táto charakteristika vám pomôže nájsť hlavné úzke miesto výrobného procesu. Zvýšenie výkonu časti zariadenia, ktoré nie je prekážkou, výrazne neovplyvní celkový výkon linky. Postupnou kontrolou všetkých zariadení môžete identifikovať úzke miesto – teda krok, ktorého zvýšenie výkonu najviac ovplyvní výstup celého procesu.

Plný výkon

Väčšina výrobných liniek sleduje percento využitia každého kusu zariadenia. Stroje a stanice majú pevnú kapacitu a vo výrobnom procese sa využívajú v určitom percente maximálny výkon. Stanica, ktorá využíva maximálny výkon, je prekážkou. Takéto zariadenie obmedzuje percento využitia energie iným zariadením. Ak zvýšite výkon úzkeho miesta, zvýši sa výkon celej línie.

Očakávanie

Výrobný proces zohľadňuje aj prestoje a čakacie doby. Keď je na linke úzke miesto, zariadenie, ktoré ide priamo k nej, dlho nečinne. Úzke miesto oneskoruje výrobu a ďalší stroj nedostáva dostatok materiálu na nepretržitú prevádzku. Keď nájdete stroj s dlhou čakacou dobou, hľadajte prekážku v predchádzajúcom kroku.

Okrem monitorovania výroby sa na identifikáciu úzkych miest používajú tieto nástroje:

Value Stream Mapping - mapa vytvárania hodnotových tokov

Keď pochopíte príčinu alebo príčiny úzkych miest, musíte určiť opatrenia rozšíriť úzke miesto a zvýšiť produkciu. Možno budete musieť premiestniť zamestnancov do problémovej oblasti alebo si najať ďalší personál a vybavenie.

Úzke miesta sa môžu vyskytnúť, keď operátori prekonfigurujú zariadenie na výrobu iného produktu. V tomto prípade musíte premýšľať o tom, ako znížiť prestoje. Napríklad zmena výrobného plánu s cieľom znížiť počet zmien alebo znížiť ich vplyv.

Ako znížiť vplyv úzkych miest

Bottleneck Management navrhuje, aby výrobné spoločnosti zvolili tri prístupy na zníženie vplyvu úzkych miest.

Prvý prístup

Zvýšenie kapacity existujúcich úzkych miest.

Existuje niekoľko spôsobov, ako zvýšiť kapacitu úzkych miest:

  1. Pridajte zdroje do procesu obmedzovania. Nie je potrebné prijímať nových zamestnancov. Medzifunkčné školenie zamestnancov môže znížiť dosah úzkych miest pri nízkych nákladoch. V tomto prípade pracovníci obslúžia niekoľko staníc naraz a uľahčia prechod cez úzke miesta.
  2. Zabezpečte neprerušovaný prísun dielov do úzkeho miesta. Vždy sledujte rozpracovanosť pred úzkym miestom, manažujte tok zdrojov na úzku stanicu, počítajte s nadčasmi, počas ktorých musí mať zariadenie vždy súčiastky na spracovanie.
  3. Uistite sa, že úzke miesto funguje iba s kvalitnými dielmi. Neplytvajte energiou a prekážkou pri spracovaní šrotu. Umiestnite kontrolné body kvality pred úzkymi stanicami. Tým sa zvýši priepustnosť procesu.
  4. Skontrolujte plán výroby. Ak proces produkuje niekoľko rôznych produktov, ktoré si vyžadujú rôzne časy prekážok, upravte plán výroby tak, aby sa celkový dopyt po prekážkach znížil
  5. Zvýšte prevádzkový čas obmedzovacieho zariadenia. Nechajte úzke hrdlo trvať dlhšie ako iné vybavenie. Prideľte operátorovi, aby obsluhoval proces počas prestávok na obed, plánovaných odstávok a v prípade potreby aj nadčasov. Hoci táto metóda nezníži čas cyklu, udrží úzky profil v chode, kým bude zvyšok zariadenia nečinný.
  6. Znížte prestoje. Vyhnite sa plánovaným a neplánovaným prestojom. Ak počas prevádzky dôjde k poruche zariadenia s prekážkou, okamžite pošlite opravárenský tím, aby ho opravil a uviedol do prevádzky. Pokúste sa tiež skrátiť čas potrebný na výmenu zariadenia z jedného produktu na druhý.
  7. Zlepšite proces v úzkych miestach. Použite VSM na elimináciu činností, ktoré nepridávajú hodnotu, a skráťte čas na pridanie hodnoty a zároveň eliminujte plytvanie. Nakoniec získate viac krátky čas cyklu.
  8. Prerozdeľte záťaž na úzke miesto. Ak je to možné, rozdeľte operáciu na časti a priraďte ich k iným zdrojom. Výsledkom sú kratšie časy cyklov a zvýšený výkon.


Druhý prístup

Predaj nadprodukcie produkovanej zariadeniami, ktoré nie sú prekážkou.

Na vašej linke máte napríklad 20 vstrekovacích lisov, ale používate len 12 z nich, pretože zariadenie na úzke miesto nedokáže spracovať výstup všetkých 20 lisov. V tomto prípade môžete nájsť ďalšie spoločnosti, ktoré majú záujem o subdodávky vstrekovacích operácií. Budete ziskoví, pretože od subdodávateľov dostanete viac, ako sú vaše variabilné náklady.


Tretí prístup

Znížte nevyužitý výkon.

Treťou možnosťou optimalizácie výroby je odpredať zariadenia s dodatočnou kapacitou a znížiť alebo premiestniť personál, ktorý ich obsluhuje. V tomto prípade sa výkon všetkých zariadení vyrovná.


Príklady úzkych miest mimo výroby

Doprava

Klasickým príkladom sú dopravné zápchy, ktoré sa môžu na určitých miestach neustále vytvárať, prípadne sa môžu dočasne objaviť pri nehode či práci na ceste. Ďalšími príkladmi sú plavebná komora, vysokozdvižný vozík, železničná plošina.

Počítačové siete

Pomalý WiFi router pripojený k efektívnej širokopásmovej sieti je prekážkou.

Komunikácia

Vývojár, ktorý trávi šesť hodín denne na stretnutiach a iba dve hodiny písaním kódu.

softvér

Aplikácie majú tiež úzke miesta - sú to prvky kódu, pri ktorých sa program „spomalí“ a núti používateľa čakať.

Hardvér počítača

Počítačové úzke miesta sú hardvérové ​​obmedzenia, pri ktorých je výkon celého systému obmedzený na jeden komponent. Procesor sa často považuje za obmedzujúci komponent grafickej karty.

Byrokracia

V každodennom živote sa často stretávame s prekážkami. Napríklad, keď sa náhle minú tlačivá na pasy či vodičské preukazy a celý systém sa zastaví. Alebo keď potrebujete podstúpiť lekárske vyšetrenie, ale fluorografická miestnosť je otvorená len tri hodiny denne.

Verdikt

Úzke miesta vo výrobe, riadení a živote sú bodmi potenciálneho zlepšenia.

Rozšírenie úzkeho miesta prinesie výrazné zvýšenie produktivity a efektívnosti.

A nevenovať pozornosť obmedzujúcim prvkom systému znamená nerobiť dostatočný zisk a pracovať pod svoje možnosti.




Hore