Processore del collo di bottiglia. Collo di bottiglia: l'evoluzione del problema del collo di bottiglia del PC. Oltre al monitoraggio della produzione, vengono utilizzati i seguenti strumenti per identificare i colli di bottiglia

FX vs Core i7 | Alla ricerca di colli di bottiglia con la configurazione Eyefinity

Abbiamo visto raddoppiare le prestazioni della CPU ogni tre o quattro anni. Eppure i motori di gioco più esigenti che abbiamo testato hanno la stessa età Processori principali 2 duetti. Naturalmente, i colli di bottiglia della CPU avrebbero dovuto essere un ricordo del passato, giusto? Come si è scoperto, la velocità della GPU sta crescendo ancora più velocemente delle prestazioni della CPU. Pertanto, il dibattito sull'acquisto di una CPU più veloce o sull'aumento della potenza grafica continua.

Ma arriva sempre un momento in cui è inutile discutere. Per noi, è arrivato quando i giochi hanno iniziato a funzionare senza problemi sul monitor più grande con una risoluzione nativa di 2560x1600. E se un componente più veloce può fornire una media di 200 anziché 120 fotogrammi al secondo, la differenza non sarà comunque evidente.

In risposta alla mancanza di più alte risoluzioni per adattatori grafici veloci, AMD ha introdotto Eyefinity e Nvidia ha introdotto Surround. Entrambe le tecnologie ti consentono di giocare su più di un monitor e, per le GPU di fascia alta, l'esecuzione a una risoluzione di 5760x1080 è diventata una realtà oggettiva. Infatti, tre display 1920x1080 costeranno meno e impressioneranno di più di un display 2560x1600. Quindi, c'era un motivo per spendere soldi extra per soluzioni grafiche più potenti.

Ma è davvero necessario potente processore giocare senza "freni" con una risoluzione di 5760x1080? La domanda si è rivelata interessante.

AMD ha recentemente introdotto una nuova architettura e ne abbiamo acquistata una in scatola FX-8350. Nell'articolo "Recensione e test AMD FX-8350: Piledriver risolverà i difetti di Bulldozer?" Ci è piaciuto molto il nuovo processore.

Dal punto di vista economico, in questo confronto, Intel dovrà dimostrare di non essere solo più veloce del chip AMD nei giochi, ma giustifica anche l'elevata differenza di prezzo.


Entrambe le schede madri appartengono alla famiglia Asus Sabertooth, ma l'azienda chiede un prezzo più alto per il modello LGA 1155, il che complica ulteriormente la posizione di Intel sul budget. Abbiamo scelto specificamente queste piattaforme in modo che il confronto delle prestazioni fosse il più equo possibile, mentre il costo non è stato preso in considerazione.

FX vs Core i7 | Configurazione e test

Mentre aspettavamo l'apparizione nel laboratorio di prova FX-8350, ha effettuato test di boxe. Considerando che il processore AMD raggiunge senza problemi i 4,4 GHz, abbiamo iniziato a testare il chip Intel alla stessa frequenza. In seguito si è scoperto che avevamo sottovalutato i nostri campioni poiché entrambe le CPU hanno raggiunto i 4,5 GHz al livello di tensione selezionato.

Non volevamo ritardare la pubblicazione a causa di ripetuti test a frequenze più elevate, quindi abbiamo deciso di lasciare i risultati del test a 4,4 GHz.

Configurazione di prova
ProcessoreIntel Intel Core i7-3770K (Ivy Bridge): 3,5 GHz, 8 MB di cache L3 condivisa, LGA 1155 overcloccato a 4,4 GHz a 1,25 V
Scheda madre Intel Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Dispositivo di raffreddamento della CPU Intel Thermalright MUX-120 con pasta Zalman ZM-STG1
Processore AMD AMD FX-8350 (Vishera): 4,0 GHz, 8 MB di cache L3 condivisa, Socket AM3+ overcloccato a 4,4 GHz a 1,35 V
Scheda madre AMD Asus Sabertooth 990FX, BIOS 1604 (24/10/2012)
Dispositivo di raffreddamento della CPU AMD Congelatore Sunbeamtech Core-Contact con pasta Zalman ZM-STG1
Netto Controller LAN Gigabit integrato
Memoria G.Skill F3-17600CL9Q-16GBXLD (16 GB) DDR3-2200 CAS 9-11-9-36 1,65 V
scheda video 2 x MSI R7970-2PMD3GD5/OC: GPU, 1010 MHz GDDR5-5500
Dispositivo di archiviazione Mushkin Chronos Deluxe DX 240GB SATA 6Gb/s SSD
Nutrizione Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUS Gold
Software e driver
sistema operativo Microsoft Windows 8 Professional RTM x64
Driver grafico Catalizzatore AMD 12.10

Grazie alle sue elevate prestazioni e alla rapida installazione, utilizziamo i refrigeratori Thermalright MUX-120 e Sunbeamtech Core Contact Freezer da diversi anni ormai. Tuttavia, le staffe di montaggio fornite con questi modelli non sono intercambiabili.


I moduli di memoria G.Skill F3-17600CL9Q-16GBXLD sono dotati di DDR3-2200 CAS 9 e utilizzano i profili Intel XMP per la configurazione semiautomatica. Sabertooth 990FX utilizza i valori XMP tramite Asus DOCP.

L'alimentatore Seasonic X760 offre le prestazioni elevate necessarie per apprezzare le differenze tra piattaforme.

StarCraft II non supporta la tecnologia AMD Eyefinity, quindi abbiamo deciso di usare i vecchi giochi: Aliens vs. Predator e Metro 2033.

Configurazione di prova (giochi 3D)
Alieni contro Predatore utilizzando AvP Tool v.1.03, SSAO/Tessellazione/Ombre incl.
Configurazione di test 1: alta qualità della trama, nessun AA, 4x AF
Configurazione del test 2: altissima qualità delle texture, 4x AA, 16x AF
Campo di battaglia 3 Modalità campagna, ""Going Hunting"" Fraps di 90 secondi
Impostazione test 1: Qualità media (no AA, 4x AF)
Impostazione test 2: qualità ultra (4x AA, 16x AF)
Formula 1 2012 Versione Steam, benchmark integrato
Impostazione test 1: Alta qualità, no AA
Impostazione del test 2: Qualità ultra, 8x AA
Elder Scrolls V: Skyrim Aggiornamento 1.7 Celedon Aethirborn Livello 6 Fraps di 25 secondi
Impostazione test 1: DX11, livello di dettaglio elevato senza AA, AF 8x, FXAA attivato.
Impostazione test 2: DX11, livello di dettaglio Ultra, 8x AA, 16x AF, FXAA attivato.
Metropolitana 2033 Versione completa, benchmark integrato, scena "Prima linea"
Impostazione test 1: DX11, Alto, AAA, 4x AF, no PhysX, no DoF
Impostazione test 2: DX11, Molto alto, 4x AA, 16x AF, no PhysX, DoF attivo

FX vs Core i7 | Risultati del test

Battlefield 3, F1 2012 e Skyrim

Ma prima, diamo un'occhiata al consumo energetico e all'efficienza.

Consumo energetico non overcloccato FX-8350 rispetto al chip Intel, non è così terribile, anche se in realtà è più alto. Tuttavia, il grafico non mostra l'intero quadro. Non abbiamo visto il chip funzionare a 4GHz sotto carico costante con le impostazioni di base. Invece, durante l'elaborazione di otto flussi in Prime95, ha abbassato il moltiplicatore e la tensione per rimanere all'interno del TDP pubblicizzato. La limitazione limita artificialmente il consumo energetico della CPU. L'impostazione di un moltiplicatore e di una tensione fissi aumenta significativamente questo indicatore per il processore Vishera durante l'overclocking.

Allo stesso tempo, non tutti i giochi possono utilizzare la capacità della CPU FX-8350 elaborare otto flussi di dati contemporaneamente, pertanto, non saranno mai in grado di portare il chip al meccanismo di limitazione.

Come già notato, durante i giochi su un non overcloccato FX-8350 La limitazione non è attivata perché la maggior parte dei giochi non è in grado di caricare completamente il processore. Infatti, i giochi beneficiano della tecnologia Turbo Core, che aumenta la frequenza del processore a 4,2 GHz. Il chip AMD si è comportato peggio di tutti nella classifica delle prestazioni medie, dove Intel è notevolmente in testa.

Per il grafico dell'efficienza, utilizziamo come media il consumo energetico medio e il throughput medio di tutte e quattro le configurazioni. In questo grafico, le prestazioni per watt di un processore AMD FX-8350è circa i due terzi di quello di Intel.

FX vs Core i7 | AMD FX può raggiungere la Radeon HD 7970?

Quando parliamo di hardware buono e conveniente, ci piace usare frasi come "80% di prestazioni per il 60% di costo". Queste metriche sono sempre molto oneste, perché abbiamo preso l'abitudine di misurare le prestazioni, il consumo energetico e l'efficienza. Tuttavia, tengono conto del costo di un solo componente e, di norma, i componenti non possono funzionare da soli.

Aggiungendo i componenti utilizzati nella recensione di oggi, il prezzo del sistema è Basato su Intel aumentato a $ 1900 e piattaforme AMD a $ 1724, questo senza tener conto di custodie, periferiche e sistema operativo. Se consideriamo le soluzioni "pronte all'uso", vale la pena aggiungere circa $ 80 in più per il case, di conseguenza otteniamo $ 1984 per Intel e $ 1804 per AMD. Il risparmio su una configurazione predefinita con un processore AMD è di $ 180, che non è molto in percentuale del costo totale del sistema. In altre parole, il resto dei componenti del personal computer di fascia alta minimizza di più prezzo favorevole processore.

Di conseguenza, ci rimangono due modi completamente distorti per confrontare prezzo e prestazioni. Abbiamo confessato apertamente, quindi speriamo di non essere giudicati per i risultati presentati.

È meglio per AMD se includiamo solo il costo della scheda madre e della CPU e aumentiamo i vantaggi. Ottieni un grafico come questo:

Come terza alternativa, puoi considerare la scheda madre e il processore come un aggiornamento, supponendo che il case, l'alimentatore, la memoria e le unità siano rimasti dal sistema precedente. Molto probabilmente un paio di schede video RadeonHD7970 non è stato utilizzato nella vecchia configurazione, quindi è più ragionevole prendere in considerazione i processori schede madri e adattatori grafici. Quindi, aggiungiamo all'elenco due schede grafiche con GPU Tahiti per $ 800.

AMD FX-8350 sembra più redditizio di Intel (soprattutto nei giochi, con le impostazioni che abbiamo scelto) in un solo caso: quando il resto del sistema è "libero". Poiché il resto dei componenti potrebbe non essere gratuito, FX-8350 inoltre non può essere un'acquisizione redditizia per i giochi.

Schede grafiche Intel e AMD

I risultati dei nostri test hanno da tempo dimostrato che i chip grafici ATI dipendono maggiormente dal processore rispetto ai chip Nvidia. Di conseguenza, quando testiamo le GPU di fascia alta, dotiamo il nostro banchi di prova Processori Intel, aggirando i difetti della piattaforma che possono interferire con l'isolamento delle prestazioni grafiche e influire negativamente sui risultati.

Speravamo che la via d'uscita Battipalo AMD cambierà la situazione, ma anche alcuni miglioramenti impressionanti non sono stati sufficienti al team di sviluppo della CPU per eguagliare l'efficienza del team di progettazione grafica della stessa AMD. Bene, aspettiamo il rilascio Chip AMD basato sull'architettura Steamroller, che promette di essere il 15% più veloce di Piledriver.

Quando costruisci un PC da gioco, la parte più costosa è la scheda grafica e vuoi che funzioni completamente. Quindi sorge la domanda: quale processore scegliere per questa scheda video in modo che non la limiti nei giochi? Il nostro materiale appositamente preparato ti aiuterà in questo dilemma.

introduzione

Quindi si scopre che la cosa principale nel computer è il processore e comanda tutto il resto. È lui che istruisce la tua scheda video a disegnare determinati oggetti e calcola anche la fisica degli oggetti (anche il processore conta con alcune operazioni). Se la scheda video non funziona a piena capacità e il processore non può più essere più veloce, si verifica l'effetto collo di bottiglia, quando le prestazioni del sistema sono limitate dal suo componente più debole.

In realtà, ci sono sempre operazioni in cui la scheda video non si sforza affatto e la percentuale è sfruttata al massimo, ma qui stiamo parlando di giochi, quindi discuteremo in questo paradigma.

Come viene distribuito il carico tra processori e scheda video?

Va notato che con una modifica delle impostazioni nel gioco, cambia il rapporto tra il carico di lavoro del processore e la scheda video.

Quando aumenti la risoluzione e le impostazioni grafiche, il carico sulla scheda video aumenta più velocemente che sul processore. Ciò significa che se il processore non è un collo di bottiglia a risoluzioni inferiori, non lo sarà nemmeno a risoluzioni più elevate.

Con una diminuzione della risoluzione e delle impostazioni grafiche, è vero il contrario: il carico sul processore durante il rendering di un fotogramma quasi non cambia e la scheda video diventa molto più semplice. In una situazione del genere, è più probabile che il processore diventi un collo di bottiglia.

Quali sono i segni di un collo di bottiglia?

È necessario un programma per eseguire il test. Devi guardare il grafico "Caricamento GPU".

È inoltre necessario conoscere il carico sul processore. Questo può essere fatto nel monitoraggio del sistema nel task manager, c'è un grafico del carico del processore.

Quindi quali sono i segni che cpu non apre la scheda grafica?

  • Il carico della GPU non è vicino al 100% e il carico della CPU è sempre intorno a questo segno
  • Il grafico del carico della GPU oscilla molto (potrebbe essere un gioco mal ottimizzato)
  • Quando si modificano le impostazioni grafiche, FPS non cambia

È da questi segni che puoi scoprire se c'è un collo di bottiglia nel tuo caso?

Come affrontare la scelta del processore?

Per fare ciò, ti consiglio di guardare i test del processore nel gioco di cui hai bisogno. Ci sono siti che si occupano specificamente di questo (,).

Un esempio di test nel gioco Tom Clancy's The Division:

Di solito, quando si testano processori in giochi diversi, vengono indicate le impostazioni grafiche e la risoluzione. Tali condizioni sono selezionate in modo che il processore sia il collo di bottiglia. In questo caso, puoi scoprire di quanti fotogrammi in una data risoluzione è capace questo o quel processore. Pertanto, è possibile confrontare i processori tra loro.

I giochi sono diversi (il capitano è ovvio) e i requisiti del processore potrebbero essere diversi. Quindi, in un gioco andrà tutto bene e il processore affronterà le scene senza problemi, e nell'altro la scheda video si raffredderà mentre il processore lavorerà con grande difficoltà per svolgere i suoi compiti.

È maggiormente influenzato da:

  • la complessità della fisica nel gioco
  • complessa geometria dello spazio (molti grandi edifici con molti dettagli)
  • intelligenza artificiale

Il nostro consiglio

  • Quando scegli, ti consigliamo di concentrarti su tali test con le impostazioni grafiche di cui hai bisogno e l'FPS di cui hai bisogno (cosa tirerà la tua scheda).
  • Si consiglia di guardare i giochi più impegnativi se si vuole essere sicuri che le versioni future funzionino bene.
  • Puoi anche prendere il processore con un margine. Ora i giochi funzionano bene anche su chip di 4 anni (), il che significa che buon processore ora ti delizierà ancora nei giochi per molto tempo.
  • Se l'FPS nel gioco è normale e il carico sulla scheda video è basso, caricalo. Aumenta le impostazioni grafiche in modo che la scheda video funzioni a pieno regime.
  • Quando si utilizza DirectX 12, il carico sul processore dovrebbe essere leggermente ridotto, il che ridurrà i requisiti per esso.

Il progresso tecnologico non si muove uniformemente in tutti i settori, questo è evidente. In questo articolo considereremo quali nodi a che ora hanno migliorato le loro caratteristiche più lentamente di altri, diventando un anello debole. Quindi, l'argomento di oggi è l'evoluzione degli anelli deboli: come sono sorti, influenzati e come sono stati eliminati.

processore

Fin dai primi computer personale la parte principale dei calcoli si trova sulla CPU. Ciò era dovuto al fatto che i chip non erano molto economici, poiché la maggior parte delle periferiche utilizzava il tempo del processore per le proprie esigenze. Sì, e la periferia stessa allora era molto piccola. Ben presto, con l'espansione dell'ambito del PC, questo paradigma fu rivisto. È tempo che fioriscano varie carte di espansione.



Ai tempi dei "pezzi copechi" e dei "tre rubli" (questi non sono Pentium II e III, come possono decidere i giovani, ma processori i286 e i386), i compiti non erano molto difficili per i sistemi, principalmente applicazioni per ufficio e calcoli. Le schede di espansione scaricavano già in parte il processore, ad esempio un decoder MPEG che decodificava i file compressi in MPEG lo faceva senza la partecipazione della CPU. Poco dopo, iniziarono a essere sviluppati standard che caricavano meno il processore durante lo scambio di dati. Un esempio è stato Bus PCI(apparso a partire da i486), il lavoro su cui ha caricato il processore in misura minore. Altri esempi includono PIO e (U)DMA.


I processori hanno aumentato la potenza a un buon ritmo, è apparso un moltiplicatore, poiché la velocità del bus di sistema era limitata e una cache - per mascherare le richieste alla RAM che operava a una frequenza inferiore. Il processore era ancora l'anello debole e la velocità del lavoro dipendeva quasi interamente da esso.



Nel frattempo Intel dopo il rilascio di un bene Processore Pentium rilascia una nuova generazione: Pentium MMX. Voleva cambiare la situazione e trasferire i calcoli al processore. Il set di istruzioni MMX - MultiMedia eXtensions, che aveva lo scopo di accelerare il lavoro con l'elaborazione audio e video, ha aiutato molto in questo. Con il suo aiuto, la musica mp3 ha iniziato a essere riprodotta normalmente ed è stato possibile ottenere una riproduzione MPEG4 accettabile utilizzando la CPU.

I primi ingorghi nel pneumatico

I sistemi basati sul processore Pentium MMX erano già più limitati dalla larghezza di banda della memoria. Il bus a 66 MHz per il nuovo processore è stato un collo di bottiglia, nonostante il passaggio a un nuovo tipo di memoria SDRAM che ha migliorato le prestazioni per megahertz. Per questo motivo, l'overclock del bus è diventato molto popolare, quando si imposta il bus a 83 MHz (o 75 MHz) e si ottiene un aumento molto evidente. Spesso anche una frequenza del processore finale inferiore veniva compensata da una frequenza del bus più elevata. Per la prima volta, è stato possibile ottenere una maggiore velocità a una frequenza inferiore. Un altro collo di bottiglia era il volume memoria ad accesso casuale. Per la memoria SIMM, questo era un massimo di 64 MB, ma più spesso era di 32 MB o addirittura 16. Ciò complicava notevolmente l'uso dei programmi, poiché ogni una nuova versioneÈ noto che a Windows piace "mangiare un sacco di gustoso montone" (c). Circolano voci sulla cospirazione dei produttori di memorie con Microsoft.



Nel frattempo, Intel ha iniziato a sviluppare la costosa e quindi poco popolare piattaforma Socket8, mentre AMD ha continuato a sviluppare Socket7. Sfortunatamente, quest'ultimo utilizzato nei suoi prodotti è lento FPU (Unità in virgola mobile– modulo di operazioni con numeri frazionari), creato dalla società Nexgen, che era appena stata acquistata in quel momento, il che ha comportato un ritardo rispetto al concorrente nelle attività multimediali, principalmente giochi. Il passaggio a un bus da 100 MHz ha fornito ai processori la larghezza di banda di memoria necessaria e una cache L2 da 256 KB a piena velocità sul processore AMD K6-3 ha migliorato così tanto la situazione che ora la velocità del sistema era caratterizzata solo dalla frequenza del processore, non dal autobus. Anche se, in parte, ciò era dovuto alla lentezza dell'FPU. Le applicazioni per ufficio che dipendono dalla potenza dell'ALU, grazie al veloce sottosistema di memoria, hanno funzionato decisioni più rapide concorrente.

Chipset

Intel abbandonò il costoso Pentium Pro, che aveva un die cache L2 integrato nel processore, e rilasciò il Pentium II. Questa CPU aveva un core molto simile al core Pentium MMX. Le principali differenze erano la cache L2, che si trovava sulla cartuccia del processore e funzionava a metà della frequenza del core, e gomma nuova- AGTL. Con l'aiuto di nuovi chipset (in particolare i440BX), siamo riusciti ad aumentare la frequenza del bus a 100 MHz e, di conseguenza, la larghezza di banda della memoria. In termini di efficienza (il rapporto tra velocità di lettura casuale e teorica), questi chipset sono diventati uno dei migliori e fino ad oggi Intel non è stata in grado di battere questo indicatore. I chipset della serie i440BX avevano un anello debole: il southbridge, la cui funzionalità non soddisfaceva più i requisiti di quel tempo. Abbiamo utilizzato il vecchio southbridge della serie i430 utilizzato nei sistemi basati su Pentium I. Proprio questa circostanza, oltre alla connessione tra i chipset tramite il bus PCI, ha spinto i produttori a rilasciare ibridi contenenti il ​​northbridge i440BX e il southbridge VIA (686A/ B).



Nel frattempo, Intel dimostra la riproduzione di film in DVD senza schede ausiliarie. Ma il Pentium II non ha ricevuto molti riconoscimenti a causa del suo costo elevato. La necessità di produrre analoghi economici divenne evidente. Il primo tentativo - Intel Celeron senza cache L2 - non ha avuto successo: in termini di velocità, i Covington hanno perso molto rispetto alla concorrenza e non hanno giustificato i loro prezzi. Quindi Intel fa un secondo tentativo, che si è rivelato vincente: il core Mendocino, amato dagli overclocker, ha metà della cache (128 KB contro 256 KB per il Pentium II), ma funziona al doppio della frequenza (al processore frequenza, non la metà lenta rispetto al Pentium II). Per questo motivo, la velocità nella maggior parte delle attività non era inferiore e il prezzo inferiore attirava gli acquirenti.

Primo 3D e di nuovo autobus

Subito dopo il rilascio del Pentium MMX, è iniziata la divulgazione delle tecnologie 3D. All'inizio si trattava di modelli professionali e applicazioni grafiche, ma la vera era è stata aperta dai giochi 3D e, più specificamente, dagli acceleratori 3D Voodoo di 3dfx. Questi acceleratori sono stati le prime schede mainstream per la creazione di scene 3D che scaricavano il processore durante il rendering. Fu da quel momento che iniziò il conto alla rovescia dell'evoluzione dei giochi tridimensionali. Abbastanza rapidamente, il calcolo della scena da parte del processore centrale ha cominciato a perdere rispetto a quello eseguito mediante l'acceleratore video sia in termini di velocità che di qualità.



Con l'avvento di un nuovo potente sottosistema - quello grafico, che è diventato in termini di quantità di dati calcolati con cui competere Unità centrale di elaborazione, è emerso un nuovo collo di bottiglia: il bus PCI. In particolare, Voodoo 3 e le schede precedenti hanno ricevuto un aumento di velocità semplicemente overcloccando il bus PCI a 37,5 o 41,5 MHz. Ovviamente c'era la necessità di dotare le schede video di un bus sufficientemente veloce. Tale bus (o meglio, una porta) era AGP - Accelerated Graphics Port. Come suggerisce il nome, si tratta di un bus grafico dedicato e, per specifica, potrebbe avere un solo slot. La prima versione di AGP supportava velocità AGP 1x e 2x, che corrispondevano a velocità PCI 32/66 singola e doppia, ovvero 266 e 533 Mb / s. La versione lenta è stata aggiunta per compatibilità, ed è stato con essa che sono sorti problemi per molto tempo. Inoltre, si sono verificati problemi con tutti i chipset, ad eccezione di quelli rilasciati da Intel. Si dice che questi problemi fossero dovuti al fatto che la società era l'unica autorizzata e ostacolava lo sviluppo della piattaforma Socket7 concorrente.



AGP ha migliorato la situazione e la porta grafica non è più un collo di bottiglia. Le schede video sono passate ad esso molto rapidamente, ma la piattaforma Socket7 ha sofferto di problemi di compatibilità quasi fino alla fine. Solo i chipset e i driver più recenti sono stati in grado di migliorare questa situazione, ma anche allora c'erano delle sfumature.

E anche le viti!

È giunto il momento per Coppermine, le frequenze sono aumentate, le prestazioni sono cresciute, le nuove schede video hanno migliorato le prestazioni e aumentato le pipeline e la memoria. Il computer è già diventato un centro multimediale: ci hanno riprodotto musica e guardato film. Le deboli schede audio integrate lasciano il posto a SBLive!, che sono diventate la scelta della gente. Ma qualcosa ha impedito un completo idillio. Cos'era?



Questo fattore sono stati i dischi rigidi, la cui crescita è rallentata e si è fermata a circa 40 GB. Per i collezionisti di film (allora MPEG4), questo era un problema. Presto il problema è stato risolto e abbastanza rapidamente: i dischi sono cresciuti di volume fino a 80 GB e oltre e hanno cessato di entusiasmare la maggior parte degli utenti.


AMD rilascia un'ottima piattaforma: Socket A e un processore con architettura K7, chiamato Athlon (nome tecnico Argon) dai marketer, oltre a un Duron economico. All'Athlones punti di forza c'era un bus e una potente FPU, che lo rendeva un ottimo processore per calcoli e giochi seri, lasciando al suo concorrente - il Pentium 4 - il ruolo di macchine da ufficio, dove però, sistemi potenti mai richiesto. I primi Duron avevano velocità di cache e bus molto basse, rendendo difficile competere con Intel Celeron (Tualatin). Ma grazie a una migliore scalabilità (dovuta a un bus più veloce), hanno risposto meglio alla crescita della frequenza, e quindi i modelli più vecchi hanno già facilmente superato Soluzioni Intel.

Tra due ponti


Durante questo periodo sono comparsi contemporaneamente due colli di bottiglia. Il primo è l'autobus tra i ponti. Tradizionalmente, PCI è stato utilizzato per questi scopi. Vale la pena ricordare che PCI nella versione utilizzata nei computer desktop ha una larghezza di banda teorica di 133 Mb / s. La velocità dipende infatti dal chipset e dall'applicazione e varia da 90 a 120 Mb/s. Inoltre, la larghezza di banda è condivisa tra tutti i dispositivi ad essa collegati. Se abbiamo due canali IDE con un file teorico portata a 100 Mb/s (ATA-100) collegato a un bus con una larghezza di banda teorica di 133 Mb/s, il problema è evidente. LPC, PS/2, SMBus, AC97 hanno requisiti di larghezza di banda ridotti. Ma Ethernet, ATA 100/133, PCI, USB 1.1/2.0 funzionano già a velocità paragonabili all'interfaccia inter-bridge. Per molto tempo non ci sono stati problemi. L'USB non veniva utilizzato, l'Ethernet era necessaria raramente e per lo più a 100 Mbps (12,5 Mbps) e i dischi rigidi non potevano nemmeno avvicinarsi alla velocità massima dell'interfaccia. Ma il tempo è passato e la situazione è cambiata. Si è deciso di realizzare uno speciale pneumatico interhub (tra gli assi).


VIA, SiS e Intel hanno rilasciato le loro opzioni bus. Differivano, prima di tutto, nella capacità di carico. Hanno iniziato con PCI 32/66 - 233 Mb / s, ma la cosa principale è stata fatta: il bus PCI è stato assegnato solo per i propri dispositivi e non è stato necessario trasferire i dati attraverso di esso ad altri bus. Ciò ha migliorato la velocità di lavoro con le periferiche (rispetto all'architettura dei bridge).


Anche la larghezza di banda della porta grafica è stata aumentata. È stata introdotta la possibilità di lavorare con le modalità Fast Writes, che consentivano di scrivere direttamente i dati nella memoria video, bypassando la memoria di sistema, e Side Band Addressing, che utilizzava una parte aggiuntiva del bus a 8 bit per la trasmissione, solitamente destinata alla trasmissione di dati tecnici. Il guadagno dall'uso del FW si otteneva solo con un carico elevato sul processore, in altri casi dava un guadagno scarso. Pertanto, la differenza tra le modalità 8x e 4x rientrava nel margine di errore.

Dipendenza dal processore

Un altro collo di bottiglia che si è verificato, che è ancora rilevante fino ad oggi, è diventato la dipendenza dal processore. Questo fenomeno è sorto a seguito del rapido sviluppo di schede video e significato potenza insufficiente bundle "processore - chipset - memoria" in relazione alla scheda video. Dopotutto, il numero di frame nel gioco è determinato non solo dalla scheda video, ma anche da questo bundle, poiché è quest'ultimo che fornisce alla scheda le istruzioni ei dati che devono essere elaborati. Se il pacchetto non tiene il passo, il sottosistema video raggiungerà il limite, che è determinato principalmente da esso. Tale massimale dipenderà dalla potenza della carta e dalle impostazioni utilizzate, ma ci sono anche carte che hanno tale massimale a qualsiasi impostazione in un particolare gioco o alle stesse impostazioni, ma nella maggior parte dei giochi moderni con quasi tutti i processori. Ad esempio, la scheda GeForce 3 si basava fortemente sulle prestazioni dei processori Puntium III e Pentium 4 basati sul core Willamete. Il modello leggermente più vecchio GeForce 4 Ti mancava di Athlons 2100+-2400+, e il guadagno con caratteristiche bundle migliorate era piuttosto evidente.



Come sono state migliorate le prestazioni? Inizialmente, AMD, utilizzando i frutti dell'architettura efficiente sviluppata, ha semplicemente aumentato la frequenza dei processori e migliorato processo tecnologico e produttori di chipset: larghezza di banda della memoria. Intel ha continuato a seguire la politica di aumentare le frequenze di clock, poiché l'architettura Netburst aveva esattamente questo in mente. Processori Intel sui core Willamete, Northwood con un bus 400QPB (quad pumped bus) ha perso contro soluzioni concorrenti con un bus da 266 MHz. Dopo l'introduzione di 533QPB, i processori sono diventati uguali in termini di prestazioni. Ma poi, invece del bus a 667 MHz implementato nelle soluzioni server, Intel ha deciso per i processori computer desktop passare direttamente al bus da 800 MHz per riservare energia per la competizione con il core Barton e il nuovo top Athlon XP 3200+. I processori Intel si basavano fortemente sulla frequenza del bus e anche 533QPB non erano sufficienti per fornire un flusso di dati sufficiente. Questo è il motivo per cui la CPU da 3,0 GHz rilasciata sul bus da 800 MHz ha superato il processore da 3,06 MHz sul bus da 533 MHz in quasi tutte le applicazioni.


È stato inoltre introdotto il supporto per nuove modalità di frequenza per la memoria ed è apparsa una modalità a doppio canale. Questo è stato fatto per equalizzare la larghezza di banda del processore e del bus di memoria. La DDR a doppio canale ha appena eguagliato il QDR alla stessa frequenza.


Per AMD, la modalità dual-channel è stata una formalità e ha dato una spinta appena percettibile. Il nuovo nucleo Prescott non ha portato un netto aumento di velocità e talvolta ha perso contro il vecchio Northwood. Il suo obiettivo principale era trasferire a una nuova tecnologia di processo e la possibilità di un'ulteriore crescita della frequenza. La dissipazione del calore è notevolmente aumentata a causa delle correnti di dispersione, che hanno posto fine al rilascio di un modello funzionante a una frequenza di 4,0 GHz.

Attraverso il soffitto verso un nuovo ricordo

La generazione di Radeon 9700/9800 e GeForce 5 per processori di quel tempo non causava problemi con la dipendenza dal processore. D'altra parte, la generazione GeForce 6 ha messo in ginocchio la maggior parte dei sistemi, poiché l'aumento delle prestazioni era molto evidente e quindi la dipendenza dal processore è maggiore. I migliori processori basati su core Barton (Athlon XP 2500+ - 3200+) e Northwood/Prescott (3.0-3.4 MHz 800FSB) raggiungono un nuovo limite: il limite di frequenza della memoria e il bus. AMD ne ha particolarmente sofferto: il bus a 400 MHz non era sufficiente per realizzare la potenza di una buona FPU. Il Pentium 4 ha avuto una situazione migliore e ha dimostrato buoni risultati con tempi minimi. Ma JEDEC non era disposto a certificare moduli di memoria a frequenza più elevata e latenza inferiore. Pertanto, c'erano due opzioni: una complessa modalità a quattro canali o una transizione a DDR2. Quest'ultimo è avvenuto ed è stata introdotta la piattaforma LGA775 (Socket T). Il bus è rimasto lo stesso, ma le frequenze di memoria non erano limitate a 400 MHz, ma partivano solo da esso.



AMD ha risolto meglio il problema in termini di scalabilità. La generazione K8, che portava il nome tecnico Hammer, oltre ad aumentare il numero di istruzioni per clock (in parte a causa di una pipeline più corta), aveva due innovazioni con una riserva per il futuro. Erano il controller di memoria integrato (più precisamente, il northbridge con la maggior parte delle sue funzionalità) e il veloce bus HyperTransport universale, che serviva a collegare il processore con il chipset oi processori tra loro in un sistema multiprocessore. Il controller di memoria integrato ha permesso di evitare l'anello debole: il collegamento chipset-processore. L'FSB in quanto tale ha cessato di esistere, c'erano solo un bus di memoria e un bus HT.


Ciò ha permesso agli Athlon 64 di sorpassare facilmente soluzioni esistenti Intel sull'architettura Netburst e mostra l'inferiorità dell'ideologia di una lunga pipeline. Tejas ha avuto molti problemi e non è uscito. Questi processori hanno realizzato facilmente il potenziale Carte GeForce 6, tuttavia, come il vecchio Pentium 4.


Ma poi è apparsa un'innovazione che ha reso i processori un anello debole per molto tempo. Il suo nome è multi-GPU. Si è deciso di far rivivere le idee di 3dfx SLI e trasformarle in NVIDIA SLI. ATI ha risposto in modo simmetrico e ha rilasciato CrossFire. Queste erano tecnologie per l'elaborazione di scene con la potenza di due carte. La potenza teorica raddoppiata del sottosistema video ei calcoli associati alla suddivisione del fotogramma in parti dovuta al processore hanno portato a un'inclinazione del sistema. Il vecchio Athlon 64 caricava un tale gruppo solo ad alte risoluzioni. Il rilascio di GeForce 7 e ATIRadeon L'X1000 ha ulteriormente aumentato questo squilibrio.


Lungo la strada, è stato sviluppato un nuovo bus PCI Express. Questo bidirezionale bus seriale progettato per la periferia e ha una velocità molto elevata. È venuta a sostituire AGP e PCI, anche se non l'ha sostituita completamente. Grazie alla sua versatilità, velocità e basso costo di implementazione, sostituì rapidamente l'AGP, sebbene all'epoca non portasse alcun aumento di velocità. Non c'era differenza tra loro. Ma dal punto di vista dell'unificazione, è stato un ottimo passo. Sono già in produzione schede con supporto PCI-E 2.0, che hanno il doppio della larghezza di banda (500 Mb / s in ciascuna direzione contro i precedenti 250 Mb / s per linea). Anche questo non ha dato un aumento alle attuali schede video. La differenza tra le diverse modalità PCI-E è possibile solo in caso di mancanza di memoria video, il che significa già uno squilibrio per la scheda stessa. Tale scheda è la GeForce 8800GTS 320 MB: reagisce in modo molto sensibile ai cambiamenti nella modalità PCI-E. Ma prendere una scheda sbilanciata solo per apprezzare il vantaggio del PCI-E 2.0 non è la decisione più ragionevole. Un'altra cosa sono le schede con supporto per Turbocache e Hypermemory, tecnologie per l'utilizzo della RAM come memoria video. Qui, l'aumento in termini di larghezza di banda della memoria sarà approssimativamente raddoppiato, il che influirà positivamente sulle prestazioni.


Se c'è abbastanza memoria per una scheda video può essere trovata in qualsiasi recensione di dispositivi con dimensioni VRAM diverse. Dove ci sarà un forte calo dei frame al secondo, c'è una carenza di VideoRAM. Ma succede che la differenza diventa molto evidente solo nelle modalità non riproducibili: una risoluzione di 2560x1600 e AA / AF al massimo. Quindi la differenza tra 4 e 8 fotogrammi al secondo, anche se sarà doppia, ma è ovvio che entrambe le modalità sono impossibili in condizioni reali, e quindi non dovrebbero essere prese in considerazione.

Una nuova risposta ai chip video

Il rilascio della nuova architettura Core 2 (nome tecnico Conroe) ha migliorato la situazione con dipendenza dal processore e soluzioni sulla GeForce 7 SLI caricate senza problemi. Ma Quad SLI e GeForce 8 sono arrivate in tempo per vendicarsi, ripristinando l'inclinazione. Questo continua fino ad oggi. La situazione è solo peggiorata con il rilascio di 3-way SLI e l'imminente Quad SLI su GeForce 8800 e Crossfire X 3-way e 4-way. Il rilascio di Wolfdale ha leggermente aumentato le velocità di clock, ma l'overclock di questo processore non è sufficiente per caricare normalmente tali sistemi video. I giochi a 64 bit sono una rarità e in casi isolati si osserva un aumento di questa modalità. I giochi che ottengono una spinta da quattro core possono essere contati sulle dita di una mano di una persona disabile. Come al solito, tutti sono attratti da Microsoft, caricando il loro nuovo sistema operativo e memoria, e il processore vive alla grande. Viene implicitamente annunciato che le tecnologie 3-way SLI e Crossfire X funzioneranno esclusivamente con Vista. Dati i suoi appetiti, è possibile che i giocatori saranno costretti a prendere processori quad-core. Ciò è dovuto a un caricamento più uniforme dei kernel rispetto a Windows XP. Se deve consumare una discreta quantità di tempo della CPU, lascia che mangi almeno i core che il gioco non utilizza comunque. Tuttavia, dubito che il nuovo sistema operativo accontentarsi dei dati in balia dei core.



La piattaforma Intel sta diventando obsoleta. I quattro core soffrono già di carenza di larghezza di banda della memoria e latenza associata agli switch del bus. Il bus è condiviso e ci vuole tempo perché il kernel prenda il controllo del bus. Con due core, questo è tollerabile, ma con quattro l'effetto delle perdite temporanee diventa più evidente. Inoltre, il bus di sistema non ha tenuto il passo con la larghezza di banda della memoria per molto tempo. L'influenza di questo fattore è stata indebolita migliorando l'efficienza della modalità asincrona, che Intel ha implementato bene. Le workstation ne soffrono ancora di più a causa del chipset difettoso, il cui controller di memoria fornisce solo fino al 33% della larghezza di banda teorica della memoria. Un esempio di questo sta perdendo Piattaforme Intel Skulltrail nella maggior parte delle applicazioni di gioco (il test della CPU 3Dmark06 non è un'applicazione di gioco :)) anche quando si utilizzano le stesse schede video. Pertanto, Intel ha annunciato una nuova generazione di Nehalem, che introdurrà un'infrastruttura molto simile agli sviluppi di AMD: un controller di memoria integrato e un bus periferico QPI (nome tecnico CSI). Ciò migliorerà la scalabilità della piattaforma e darà risultati positivi nelle configurazioni dual-processor e multi-core.


AMD ha diversi colli di bottiglia in questo momento. Il primo è legato al meccanismo di memorizzazione nella cache: per questo motivo esiste un certo limite di larghezza di banda della memoria, a seconda della frequenza del processore, tale che è impossibile superare questo valore, anche utilizzando modalità a frequenza più elevata. Ad esempio, con un processore medio, la differenza nel lavorare con la memoria tra DDR2 667 e 800 MHz può essere di circa l'1-3%, per un'attività reale è generalmente trascurabile. Pertanto, è meglio selezionare la frequenza ottimale e abbassare i tempi: il controller risponde molto bene a loro. Pertanto, non ha senso introdurre DDR3: tempi di grandi dimensioni faranno solo male, potrebbe non esserci alcun aumento. Anche il problema di AMD ora è l'elaborazione lenta (nonostante SSE128) delle istruzioni SIMD. È per questo motivo che il Core 2 supera di molto il K8/K10. ALU, che è sempre stato il punto di forza di Intel, è diventato ancora più forte e in alcuni casi può essere molte volte più veloce della sua controparte in Phenom. Questo è il problema principale Processori AMD- Matematica debole.


In generale, gli anelli deboli dipendono molto dal compito specifico. Sono stati considerati solo quelli "epocali". Quindi, in alcune attività, la velocità può dipendere dalla quantità di RAM o dalla velocità del sottosistema del disco. Quindi viene aggiunta più memoria (la quantità viene determinata utilizzando i contatori delle prestazioni) e vengono configurati gli array RAID. La velocità dei giochi può essere aumentata disabilitando la scheda audio integrata e acquistandone una normale discreta: Creative Audigy 2 o X-Fi, che caricano meno il processore, elaborando gli effetti sul proprio chip. Questo è più vero per le schede audio AC'97 e meno per HD-Audio (Intel Azalia), poiché quest'ultima ha risolto il problema dell'elevato utilizzo della CPU.


Ricorda, il sistema dovrebbe sempre essere utilizzato per compiti specifici. Spesso, se puoi scegliere una scheda video bilanciata (e quindi la scelta per categorie di prezzo dipenderà da prezzi che variano notevolmente in luoghi diversi), quindi, diciamo, con un sottosistema disco, tale opportunità non è sempre disponibile. Pochissime persone hanno bisogno di RAID 5, ma per un server è una cosa indispensabile. Lo stesso vale per una configurazione a doppio processore o multi-core, che è inutile nelle applicazioni per ufficio, ma è un "must have" per un designer che lavora in 3Ds Max.

IN ultima versione Windows ha una funzione per determinare la potenza nominale per componenti differenti pc. Questo dà un'idea generale delle prestazioni e dei colli di bottiglia del sistema. Ma qui non troverai alcun dettaglio sui parametri di velocità dei componenti. Inoltre, questa diagnostica non consente di sottoporre a stress test l'hardware, utile per comprendere i picchi di carico durante il lancio dei giochi moderni. Anche i benchmark di terze parti della famiglia 3DMark forniscono solo una caratteristica stimata nei punteggi condizionali. Allo stesso tempo, non è un segreto che molti produttori di hardware per computer ottimizzino il funzionamento delle schede video e di altri componenti in modo tale da ottenere il numero massimo di punti al superamento di 3DMark. Questo programma ti consente persino di confrontare le prestazioni della tua attrezzatura con altre simili dal suo database, ma non otterrai valori specifici.

Pertanto, i test del PC dovrebbero essere eseguiti separatamente, tenendo conto non solo della valutazione delle prestazioni da parte del benchmark, ma anche di quella reale specifiche, registrato a seguito di test delle apparecchiature. Abbiamo selezionato per te una serie di utilità (sia a pagamento che gratuite) che ti consentono di ottenere risultati specifici e identificare i punti deboli.

Velocità di elaborazione delle immagini e 3D

Il test delle schede video è uno dei passaggi più importanti nella valutazione della potenza di un PC. I produttori di moderni adattatori video li dotano di software e driver speciali che consentono di utilizzare la GPU non solo per l'elaborazione delle immagini, ma anche per altri calcoli, ad esempio durante la codifica di video. Quindi l'unico modo affidabile scopri quanto è efficiente grafica computerizzata, - ricorrere a un'applicazione speciale che misura le prestazioni del dispositivo.

Verifica della stabilità della scheda video

Programma: FurMark 1.9.1 Sito web: www.ozone3d.net FurMark è uno degli strumenti più veloci e semplici per testare la tua scheda video. L'utility verifica le prestazioni di una scheda video basata sulla tecnologia OpenGL. L'algoritmo di rendering proposto utilizza il rendering multi-pass, ciascuno dei quali è basato su GLSL (OpenGL shader language).

Per caricare il processore della scheda video, questo benchmark esegue il rendering di un'immagine tridimensionale astratta con un toro ricoperto di pelliccia. La necessità di elaborare una grande quantità di capelli porta al massimo carico di lavoro possibile del dispositivo. FurMark controlla la stabilità della scheda video e mostra anche i cambiamenti nella temperatura del dispositivo con l'aumentare del carico.

Nelle impostazioni di FurMark è possibile specificare la risoluzione con cui verrà testato l'hardware e, al termine, il programma presenterà un breve rapporto sulla configurazione del PC con un punteggio finale in punti condizionali. Questo valore è utile quando si confrontano le prestazioni di diverse schede video in generale. Puoi anche controllare le risoluzioni "di servizio" di 1080p e 720p.

Passeggiata stereo virtuale

Programma: Punto di riferimento Unigine Heaven DX11 Sito web: www.unigine.com Uno dei modi più sicuri per testare quello che sai fare nuovo computer, - esegui giochi su di esso. I giochi moderni utilizzano appieno le risorse hardware: scheda video, memoria e processore. Tuttavia, non tutti hanno l'opportunità e il desiderio di dedicare del tempo a tale intrattenimento. Puoi invece utilizzare Unigine Heaven DX11 Benchmark. Questo test si basa sul motore di gioco Unigine (su cui sono costruiti giochi come Oil Rush, Dilogus: The Winds of War, Syndicates of Arkon e altri) che supporta le API grafiche (DirectX 9, 10, 11 e OpenGL). Dopo averlo eseguito, il programma creerà una visualizzazione demo, disegnando l'ambiente virtuale in tempo reale. L'utente vedrà un breve video che includerà una passeggiata virtuale attraverso il mondo fantastico. Queste scene sono create dalla scheda grafica. Oltre agli oggetti 3D, il motore simula l'illuminazione complessa simulando sistema globale con molteplici riflessi di raggi di luce dagli elementi della scena.

I test del computer possono essere eseguiti in modalità stereo e nelle impostazioni del benchmark è possibile selezionare lo standard per il video 3D: anaglifo 3D, output di frame separato per l'occhio destro e sinistro, ecc.

Nonostante il nome del programma menzioni l'undicesima versione di DirectX, ciò non significa che Unigine Heaven sia destinato solo alle moderne schede video. Nelle impostazioni di questo test, puoi scegliere una delle versioni precedenti di DirectX, nonché impostare un livello accettabile di dettaglio dell'immagine e specificare la qualità di rendering degli shader.

Rilevamento dei collegamenti deboli

In una situazione in cui un utente è sopraffatto dal desiderio di aumentare le prestazioni del proprio computer, potrebbe sorgere la domanda: qual è il componente più debole? Cosa renderà il computer più veloce: sostituendo la scheda video, il processore o installando un'enorme quantità di RAM? Per rispondere a questa domanda, è necessario testare i singoli componenti e determinare il "collegamento debole" nella configurazione corrente. Un'esclusiva utility multi-test ti aiuterà a trovarlo.

Carica simulatore

Programma: Pass Mark Performance Test Sito web: www.passmark.com PassMark PerformanceTest analizza praticamente qualsiasi dispositivo presente in una configurazione PC - da scheda madre e memoria alle unità ottiche.

Una caratteristica di PassMark PerformanceTest è che il programma utilizza un gran numero di attività diverse, misurando scrupolosamente le prestazioni del computer in diverse situazioni. Ad un certo momento, può anche sembrare che qualcuno abbia preso il controllo del sistema nelle proprie mani: le finestre si aprono in modo casuale, il loro contenuto viene fatto scorrere, le immagini vengono visualizzate sullo schermo. Tutto questo è il risultato del benchmark, che simula l'esecuzione delle attività più tipiche comunemente richieste in Windows. Allo stesso tempo, viene verificata la velocità di compressione dei dati, viene fissato il tempo necessario per crittografare le informazioni, vengono applicati filtri alle fotografie e viene impostata la velocità di rendering. grafica vettoriale, vengono riprodotte brevi demo 3D, ecc.

Alla fine del test, PassMark PerformanceTest fornisce un punteggio totale e propone di confrontare questo risultato con i dati ottenuti su un PC con diverse configurazioni. Per ciascuno dei parametri controllati, l'applicazione crea un diagramma che mostra molto chiaramente i componenti deboli del computer.

Controllo del sistema del disco

La larghezza di banda del disco può essere il più grande collo di bottiglia nelle prestazioni del PC. Pertanto, conoscere le reali caratteristiche di questi componenti è estremamente importante. Il test di un disco rigido non solo determinerà le sue velocità di lettura e scrittura, ma mostrerà anche l'affidabilità del dispositivo. Per controllare l'unità, ti consigliamo di provare due piccole utility.

Esami HDD

Programmi: CrystalDiskInfo e CrystalDiskMark Sito web: http://crystalmark.info/software/index-e.html Questi programmi sono creati dallo stesso sviluppatore e si completano perfettamente. Entrambi sono gratuiti e possono funzionare senza installazione su un computer, direttamente da un'unità flash USB.

La maggior parte dei dischi rigidi è dotata della tecnologia di autodiagnosi SMART, che consente di prevedere possibili problemi con l'unità. Con il programma CrystalDiskInfo puoi valutare il reale stato del tuo HDD in termini di affidabilità: legge i dati SMART, determina il numero di settori problematici, il numero di errori di posizionamento della testina di lettura, il tempo necessario per far girare il disco e il temperatura attuale del dispositivo. Se quest'ultimo indicatore è troppo alto, la vita del vettore fino al fallimento sarà molto breve. Il programma mostra anche la versione del firmware e fornisce dati sulla durata di utilizzo disco rigido.

CrystalDiskMark è una piccola applicazione che misura la velocità di scrittura e lettura. Questo strumento per il controllo dei dischi differisce da utilità simili in quanto consente di utilizzare condizioni diverse per la scrittura e la lettura dei dati, ad esempio misurare le letture per blocchi di dimensioni diverse. L'utilità consente inoltre di impostare il numero di test e la quantità di dati utilizzati per essi.

Tachimetro per la navigazione web

Velocità reale connessione di rete di solito differisce da quello specificato nelle sue impostazioni o dichiarato dal provider e, di norma, in una direzione più piccola. Molti fattori possono influenzare la velocità del trasferimento dei dati: il livello di interferenza elettromagnetica nella stanza, il numero di utenti che lavorano contemporaneamente sulla rete, la qualità del cavo, ecc.

Stima della velocità di rete

Programma: Test di velocità Sito web: www.raccoonworks.com Se vuoi conoscere l'effettiva velocità di trasferimento dei dati del tuo rete locale, il programma SpeedTest ti aiuterà. Consente di determinare se il provider aderisce ai parametri dichiarati. L'utilità misura la velocità di trasferimento dei dati tra due macchine funzionanti degli utenti, nonché tra un server remoto e un personal computer.

Il programma è composto da due parti: server e client. Per misurare la velocità di trasferimento delle informazioni da un computer all'altro, il primo utente deve eseguire la parte server e specificare un file arbitrario (preferibilmente grande taglia) da utilizzare per il test. Il secondo partecipante al test deve eseguire il componente client e specificare i parametri del server: indirizzo e porta. Entrambe le applicazioni stabiliscono una connessione e iniziano a scambiare dati. Durante il trasferimento del file, SpeedTest crea una relazione grafica e raccoglie statistiche sul tempo impiegato per copiare i dati sulla rete. Se si testano diversi PC remoti, il programma aggiungerà ripetutamente nuove curve al grafico costruito.

Inoltre, SpeedTest verificherà la velocità di Internet: nella modalità "Pagina Web", il programma verifica la connessione a qualsiasi sito. Questo parametro può anche essere valutato andando alla risorsa specializzata http://internet.yandex.ru.

I guasti nel funzionamento della RAM potrebbero non apparire immediatamente, ma sotto determinati carichi. Per essere sicuri che i moduli selezionati non ti deluderanno in nessuna situazione, è meglio testarli a fondo e scegliere quelli più veloci.

Olimpiadi dei memi

Programma: MaxxMEM2 - Anteprima Sito web: www.maxxpi.net Questo programma è progettato per testare la velocità della memoria. In un periodo molto breve esegue diversi test: misura il tempo necessario per copiare i dati nella RAM, determina la velocità di lettura e scrittura dei dati e mostra il parametro della latenza della memoria. Nelle impostazioni dell'utilità è possibile impostare la priorità del test e confrontare il risultato con i valori effettivi ottenuti da altri utenti. Dal menu del programma, puoi accedere rapidamente alle statistiche online sul sito Web ufficiale di MaxxMEM2 e scoprire quale memoria è la più produttiva.

Per il suono, la velocità non è importante

Quando si testa la maggior parte dei dispositivi, la velocità di elaborazione dei dati è solitamente importante. Ma per quanto riguarda la scheda audio, questo non è l'indicatore principale. È molto più importante per l'utente controllare le caratteristiche dei percorsi audio analogici e digitali - per scoprire quanto il suono è distorto durante la riproduzione e la registrazione, per misurare il livello di rumore, ecc.

Confronto con la norma

Programma: Analizzatore audio RightMark 6.2.3 Sito web: http://audio.rightmark.org I creatori di questa utility offrono diversi modi per controllare le prestazioni audio. La prima opzione è l'autodiagnosi della scheda audio. Il dispositivo riproduce il segnale di prova attraverso il percorso audio e lo registra immediatamente. La forma d'onda del segnale ricevuto dovrebbe idealmente corrispondere all'originale. Le deviazioni indicano la distorsione del suono dovuta alla scheda audio installata nel PC.

Il secondo e il terzo metodo di test sono più accurati, utilizzando un generatore di riferimento segnale sonoro o con una scheda audio aggiuntiva. In entrambi i casi, la qualità della sorgente del segnale viene presa come standard, sebbene con un certo errore dispositivi aggiuntivi anche contribuire. Quando si utilizza una seconda scheda audio, il fattore di distorsione del segnale in uscita dovrebbe essere minimo: il dispositivo dovrebbe avere caratteristiche migliori rispetto alla scheda audio testata. Al termine del test è inoltre possibile determinare parametri come la risposta in frequenza della scheda audio, il suo livello di rumore, la distorsione armonica generata, ecc.

Oltre alle funzionalità di base disponibili nell'edizione gratuita, la versione più potente di RightMark Audio Analyzer 6.2.3 PRO include anche il supporto per un'interfaccia ASIO professionale, una risoluzione dello spettro quattro volte più dettagliata e la possibilità di utilizzare la trasmissione diretta dei dati Kernel Streaming .

È importante che nessuno interferisca

Quando si esegue un test delle prestazioni, ricordare che molti fattori influenzano i risultati finali, in particolare i servizi e le applicazioni in background. Pertanto, per una valutazione più accurata del PC, si consiglia di disabilitare prima lo scanner antivirus e chiudere tutto applicazioni in esecuzione, fino al client di posta. E, naturalmente, per evitare errori di misurazione, dovresti interrompere tutto il lavoro fino a quando il programma non ha terminato di testare l'apparecchiatura.

La teoria dei vincoli di sistema è stata formulata negli anni '80. e relative alla gestione delle imprese manifatturiere. In breve, la sua essenza si riduce al fatto che in ciascuno sistema di produzione ci sono limitazioni che ostacolano l'efficienza. Se la limitazione della chiave viene eliminata, il sistema funzionerà in modo molto più efficiente rispetto a quando si tenta di influenzare l'intero sistema contemporaneamente. Pertanto, il processo di miglioramento della produzione deve iniziare con l'eliminazione dei colli di bottiglia.

Ora il termine collo di bottiglia può essere utilizzato per qualsiasi settore: nel settore dei servizi, nello sviluppo Software, la logistica, Vita di ogni giorno.

Cos'è un collo di bottiglia

La definizione di collo di bottiglia suona come un luogo in un sistema di produzione in cui si verifica la congestione perché il flusso di materiali arriva troppo velocemente ma non può essere riciclato altrettanto rapidamente. Spesso questa è una stazione con meno potenza rispetto al nodo precedente. Il termine deriva da un'analogia con il collo stretto di una bottiglia, che rallenta la fuoriuscita del liquido.


Collo di bottiglia - un collo di bottiglia nel processo di produzione

Nella produzione, l'effetto collo di bottiglia provoca tempi di inattività e costi di produzione, riduce l'efficienza complessiva e aumenta i tempi di spedizione ai clienti.

Ci sono due tipi di colli di bottiglia:

  1. Colli di bottiglia a breve termine- causato da problemi temporanei. Buon esempio congedo per malattia o ferie per i dipendenti chiave. Nessuno nel team può sostituirli completamente e il lavoro si interrompe. In produzione, potrebbe trattarsi di un guasto di uno dei gruppi di macchine, quando il suo carico è distribuito tra le attrezzature di lavoro.
  2. Colli di bottiglia a lungo termine- operare in continuo. Ad esempio, un costante ritardo nei rapporti mensili in un'azienda dovuto al fatto che una persona deve elaborare un'enorme quantità di informazioni che gli arriveranno come una valanga alla fine del mese.

Come identificare un collo di bottiglia in un processo di produzione

Esistono diversi modi per trovare un collo di bottiglia nella produzione di diversi livelli di complessità, con o senza strumenti speciali. Cominciamo con altro modi semplici basato sull'osservazione.

Code e congestione

Il processo sulla linea di produzione che presenta la coda più lunga di WIP di fronte è solitamente il collo di bottiglia. Questo modo di cercare un collo di bottiglia è adatto per la produzione di pezzi, ad esempio su una linea di imbottigliamento. Puoi vedere chiaramente dove si accumulano le bottiglie nella linea e quale meccanismo ha una potenza insufficiente, spesso si guasta o è riparato da un operatore inesperto. Se sulla linea sono presenti diversi punti di congestione, la situazione è più complicata e devono essere utilizzati metodi aggiuntivi per trovare il collo di bottiglia più critico.

Larghezza di banda

Il rendimento dell'intera linea di produzione dipende direttamente dall'uscita dell'attrezzatura per il collo di bottiglia. Questa caratteristica ti aiuterà a trovare il principale collo di bottiglia del processo produttivo. L'aumento dell'output di un'apparecchiatura che non costituisce un collo di bottiglia non influirà in modo significativo sull'output complessivo della linea. Controllando tutte le apparecchiature una per una, è possibile identificare il collo di bottiglia, ovvero il passaggio il cui aumento di potenza influirà maggiormente sull'output dell'intero processo.

Piena potenza

La maggior parte delle linee di produzione tiene traccia della percentuale di utilizzo di ogni apparecchiatura. Le macchine utensili e le stazioni hanno una capacità fissa e sono utilizzate nel processo produttivo in una certa percentuale di massima potenza. La stazione che utilizza la massima potenza è il collo di bottiglia. Tale apparecchiatura trattiene la percentuale di consumo energetico di altre apparecchiature. Se aumenti la capacità del collo di bottiglia, aumenterà la capacità dell'intera linea.

Aspettativa

Il processo di produzione tiene conto anche dei tempi di inattività e di attesa. Quando c'è un collo di bottiglia sulla linea, l'apparecchiatura che va immediatamente ad esso è inattiva per molto tempo. Il collo di bottiglia ritarda la produzione e la macchina successiva non riceve abbastanza materiale per funzionare ininterrottamente. Quando trovi una macchina con un lungo tempo di attesa, cerca un collo di bottiglia nel passaggio precedente.

Oltre al monitoraggio della produzione, vengono utilizzati i seguenti strumenti per identificare i colli di bottiglia:

Value Stream Mapping - mappa di creazione del flusso di valore

Una volta individuata la causa o le cause dei colli di bottiglia, è necessario determinare le azioni per espandere il collo di bottiglia e aumentare la produzione. Potrebbe essere necessario spostare i dipendenti in un'area problematica o assumere personale aggiuntivo e acquistare attrezzature.

Un collo di bottiglia può verificarsi quando gli operatori stanno riconfigurando le apparecchiature per produrre un prodotto diverso. In questo caso, devi pensare a come ridurre i tempi di inattività. Ad esempio, modificare il programma di produzione per ridurre il numero di passaggi o ridurne l'impatto.

Come ridurre l'impatto dei colli di bottiglia

La gestione dei colli di bottiglia suggerisce che le aziende manifatturiere utilizzino tre approcci per ridurre l'impatto dei colli di bottiglia.

Primo approccio

Aumentare la capacità dei colli di bottiglia esistenti.

Esistono diversi modi per aumentare la capacità del collo di bottiglia:

  1. Aggiungi risorse al processo di limitazione. Non è necessario assumere nuovi dipendenti. La formazione del personale interfunzionale può ridurre l'impatto dei colli di bottiglia a basso costo. In questo caso, i lavoratori serviranno più stazioni contemporaneamente e faciliteranno il passaggio dei colli di bottiglia.
  2. Garantire la fornitura ininterrotta di parti a un collo di bottiglia. Tieni sempre d'occhio i lavori in corso prima del collo di bottiglia, gestisci l'approvvigionamento di risorse alla stazione del collo di bottiglia, tieni conto degli straordinari, durante i quali l'attrezzatura deve sempre avere anche parti da lavorare.
  3. Assicurati che il collo di bottiglia funzioni solo con parti di qualità. Non sprecare la potenza e il tempo di un collo di bottiglia per gestire i rottami. Posizionare i punti di controllo della qualità davanti alle stazioni dei colli di bottiglia. Ciò aumenterà la velocità effettiva del processo.
  4. Controlla il programma di produzione. Se un processo produce diversi prodotti diversi che richiedono diversi tempi di collo di bottiglia, regolare il programma di produzione in modo che la domanda complessiva di collo di bottiglia diminuisca
  5. Aumentare il tempo di funzionamento dell'attrezzatura di limitazione. Lascia che il collo di bottiglia duri più a lungo rispetto ad altre apparecchiature. Assegna un operatore per mantenere il processo durante le pause pranzo, i tempi di inattività programmati e gli straordinari, se necessario. Anche se questo metodo non ridurrà il tempo di ciclo, manterrà il collo di bottiglia in funzione mentre il resto dell'apparecchiatura è inattivo.
  6. Ridurre i tempi di inattività. Evita tempi di inattività pianificati e non pianificati. Se l'attrezzatura del collo di bottiglia si guasta durante il processo di lavoro, inviare immediatamente una squadra di riparazione per ripararla e metterla in funzione. Cerca anche di ridurre i tempi di cambio delle attrezzature da un prodotto all'altro.
  7. Migliora il processo esattamente nel collo di bottiglia. Usa VSM per eliminare le attività che non aggiungono valore e ridurre il tempo per aggiungere valore eliminando gli sprechi. Di conseguenza, otterrai di più poco tempo ciclo.
  8. Ridistribuire il carico sul collo di bottiglia. Se possibile, dividere l'operazione in parti e assegnarle ad altre risorse. Di conseguenza, otterrai un ciclo più breve e una maggiore potenza.


Secondo approccio

Vendita di eccedenze di produzione che producono apparecchiature senza colli di bottiglia.

Ad esempio, hai 20 presse a iniezione sulla linea e ne usi solo 12, perché l'attrezzatura per il collo di bottiglia non è in grado di elaborare il rilascio di tutte le 20 presse. In questo caso, puoi trovare altre aziende interessate a subappaltare le operazioni di stampaggio ad iniezione. Sarai redditizio perché riceverai di più dai subappaltatori rispetto ai tuoi costi variabili.


Terzo Approccio

Riduzione della potenza inutilizzata.

La terza opzione per ottimizzare la produzione è vendere attrezzature con capacità extra e ridurre o trasferire il personale che le mantiene. In questo caso, la potenza di tutte le apparecchiature sarà equalizzata.


Esempi di colli di bottiglia non di produzione

Trasporto

Un classico esempio sono gli ingorghi stradali, che possono formarsi in modo permanente in determinati luoghi o apparire temporaneamente durante un incidente o lavori stradali. Altri esempi sono una chiusa su un fiume, un caricatore, una piattaforma ferroviaria.

Reti di computer

Un router WiFi lento connesso a una rete efficiente e ad alta larghezza di banda è il collo di bottiglia.

Comunicazione

Uno sviluppatore che trascorre sei ore al giorno in riunioni e scrive codice solo per due ore.

Software

L'applicazione presenta anche colli di bottiglia: si tratta di elementi di codice su cui il programma "rallenta", costringendo l'utente ad attendere.

Computer hardware

I colli di bottiglia del computer sono limitazioni hardware che limitano la potenza dell'intero sistema a un singolo componente. Spesso il processore è visto come il componente limitante per una scheda grafica.

Burocrazia

Nella vita di tutti i giorni, incontriamo spesso colli di bottiglia. Ad esempio, quando i moduli per i passaporti o le patenti di guida si esauriscono improvvisamente e l'intero sistema si blocca. O quando devi superare una visita medica e la sala fluorografica funziona solo tre ore al giorno.

Verdetto

I colli di bottiglia nella produzione, nella gestione e nella vita sono punti di potenziale miglioramento.

L'espansione del collo di bottiglia darà un aumento tangibile della produttività e dell'efficienza.

E non prestare attenzione agli elementi limitanti del sistema significa non ottenere abbastanza profitti e lavorare al di sotto delle proprie capacità.




Superiore