Goulot d'étranglement du processeur. Goulot d'étranglement : évolution du problème de goulot d'étranglement du PC. En plus du suivi de la production, les outils suivants sont utilisés pour identifier les goulots d'étranglement :

FX contre Core i7 | Recherche de goulots d'étranglement avec la configuration Eyefinity

Nous avons vu les performances des processeurs doubler tous les trois ou quatre ans. Pourtant, les moteurs de jeux les plus exigeants que nous avons testés sont aussi anciens que les processeurs Core 2 Duo. Naturellement, les goulots d’étranglement du processeur devraient appartenir au passé, n’est-ce pas ? Il s'avère que la vitesse du GPU augmente encore plus rapidement que les performances du CPU. Ainsi, le débat sur l'achat d'un processeur plus rapide ou l'augmentation de la puissance graphique se poursuit.

Mais il arrive toujours un moment où discuter devient inutile. Pour nous, cela s'est produit lorsque les jeux ont commencé à fonctionner correctement sur le plus grand moniteur avec une résolution native de 2 560 x 1 600. Et si un composant plus rapide peut fournir en moyenne 200 images par seconde au lieu de 120, la différence ne sera toujours pas perceptible.

En réponse au manque de plus hautes résolutions pour les adaptateurs graphiques rapides, AMD a introduit la technologie Eyefinity et Nvidia a introduit Surround. Les deux technologies vous permettent de jouer sur plusieurs moniteurs, et fonctionner à une résolution de 5 760 x 1 080 est devenu une réalité objective pour les GPU haut de gamme. Essentiellement, trois écrans 1 920 x 1 080 seront moins chers et plus impressionnants qu’un écran 2 560 x 1 600. D’où la raison de dépenser plus d’argent pour des solutions graphiques plus puissantes.

Mais est-ce vraiment nécessaire ? processeur puissant jouer sans bégayer à une résolution de 5760x1080 ? La question s'est avérée intéressante.

AMD a récemment introduit une nouvelle architecture et nous avons acheté un FX-8350. Dans l'article « Examen et test de l'AMD FX-8350 : Piledriver corrigera-t-il les lacunes du Bulldozer ? » Nous avons beaucoup aimé le nouveau processeur.

D'un point de vue économique, dans cette comparaison, Intel devra prouver qu'il est non seulement plus rapide que la puce AMD dans les jeux, mais qu'il justifie également la différence de prix élevée.


Les deux cartes mères appartiennent à la famille Asus Sabertooth, mais la société demande un prix plus élevé pour le modèle doté du socket LGA 1155, ce qui complique encore davantage la situation budgétaire d'Intel. Nous avons spécifiquement sélectionné ces plateformes pour rendre les comparaisons de performances aussi équitables que possible, sans prendre en compte les coûts.

FX contre Core i7 | Configuration et tests

Pendant qu'on attendait qu'il apparaisse dans le laboratoire de test FX-8350, a effectué des tests de boxe. Considérant que le processeur AMD atteint 4,4 GHz sans aucun problème, nous avons commencé à tester la puce Intel à la même fréquence. Il s'est avéré plus tard que nous avions sous-estimé nos échantillons, car les deux processeurs atteignaient 4,5 GHz au niveau de tension sélectionné.

Nous ne voulions pas retarder la publication en raison de tests répétés à des fréquences plus élevées, nous avons donc décidé de laisser les résultats des tests à 4,4 GHz.

Configuration des tests
Processeur Intel Intel Core i7-3770K (Ivy Bridge) : 3,5 GHz, 8 Mo de cache L3 partagé, LGA 1155 overclocké à 4,4 GHz à 1,25 V
Carte mère Intel Asus Sabertooth Z77, BIOS 1504 (03/08/2012)
Refroidisseur de processeur Intel Thermalright MUX-120 avec pâte Zalman ZM-STG1
Processeur AMD AMD FX-8350 (Vishera) : 4,0 GHz, 8 Mo de cache L3 partagé, Socket AM3+ overclocké à 4,4 GHz à 1,35 V
Carte mère AMD Asus Sabertooth 990FX, BIOS 1604 (24/10/2012)
Refroidisseur de processeur AMD Congélateur Sunbeamtech Core-Contact avec pâte Zalman ZM-STG1
Filet Contrôleur LAN Gigabit intégré
Mémoire G.Skill F3-17600CL9Q-16GBXLD (16 Go) DDR3-2200 CAS 9-11-9-36 1,65 V
Carte vidéo 2 MSI R7970-2PMD3GD5/OC : GPU, 1 010 MHz GDDR5-5500
Périphérique de stockage Mushkin Chronos Deluxe DX 240 Go, SSD SATA 6 Gb/s
Nutrition Seasonic X760 SS-760KM : ATX12V v2.3, EPS12V, 80 PLUS Gold
Logiciels et pilotes
système opérateur Microsoft Windows 8 Professionnel RTM x64
Pilote graphique Catalyseur AMD 12.10

En raison de leur haute efficacité et de leur installation rapide, nous utilisons les refroidisseurs Thermalright MUX-120 et Sunbeamtech Core Contact Freezer depuis plusieurs années. Cependant, les supports de montage fournis avec ces modèles ne sont pas interchangeables.


Les modules de mémoire G.Skill F3-17600CL9Q-16GBXLD ont la spécification DDR3-2200 CAS 9 et utilisent les profils Intel XMP pour une configuration semi-automatique. Sabertooth 990FX utilise les valeurs XMP via Asus DOCP.

L'alimentation Seasonic X760 offre le haut rendement nécessaire pour évaluer les différences entre les plates-formes.

StarCraft II ne prend pas en charge la technologie AMD Eyefinity, nous avons donc décidé d'utiliser des jeux plus anciens : Aliens vs. Prédateur et Métro 2033.

Configuration de test (jeux 3D)
Extraterrestres contre Prédateur en utilisant AvP Tool v.1.03, SSAO/tessellation/shadows activé.
Configuration de test 1 : qualité de texture élevée, pas d'AA, 4x AF
Configuration de test 2 : Très haute qualité de texture, 4x AA, 16x AF
Battlefield 3 Mode campagne, "Going Hunting" Fraps de 90 secondes
Réglage de test 1 : qualité moyenne (pas de AA, 4x AF)
Configuration de test 2 : Ultra qualité (4x AA, 16x AF)
F1 2012 Version Steam, benchmark intégré
Paramètre de test 1 : haute qualité, pas d'AA
Configuration de test 2 : Ultra qualité, 8x AA
Elder Scrolls V: Skyrim Mise à jour 1.7, Celedon Aethirborn niveau 6, Fraps de 25 secondes
Configuration de test 1 : DX11, niveau de détail élevé sans AA, AF 8x, FXAA activé.
Configuration de test 2 : DX11, niveau de détail ultra, 8x AA, 16x AF, FXAA activé.
Métro 2033 Version complète, benchmark intégré, scène "Frontline"
Configuration de test 1 : DX11, élevé, AAA, 4x AF, pas de PhysX, pas de DoF
Configuration de test 2 : DX11, très élevé, 4x AA, 16x AF, pas de PhysX, DoF activé.

FX contre Core i7 | Résultats de test

Battlefield 3, F1 2012 et Skyrim

Mais d’abord, examinons la consommation d’énergie et l’efficacité.

Consommation d'énergie non overclockée FX-8350 Comparé à la puce Intel, ce n’est pas si terrible, même si en fait il est plus élevé. Cependant, sur le graphique, nous ne voyons pas l’ensemble du tableau. Nous n'avons pas vu la puce fonctionner à 4 GHz sous une charge constante sur les paramètres de base. Au lieu de cela, lors du traitement de huit threads dans Prime95, il a réduit le multiplicateur et la tension pour rester dans l'enveloppe thermique indiquée. La limitation limite artificiellement la consommation d’énergie du processeur. La définition d'un multiplicateur et d'une tension fixes augmente considérablement cet indicateur pour Processeur Vishera lors de l'accélération.

Dans le même temps, tous les jeux ne peuvent pas utiliser les capacités du processeur FX-8350 traitent huit flux de données en même temps, par conséquent, ils ne pourront jamais amener la puce au mécanisme de limitation.

Comme déjà noté, lors de jeux sur des jeux non overclockés FX-8350 la limitation n'est pas activée car la plupart des jeux ne peuvent pas charger complètement le processeur. En effet, les jeux bénéficient de la technologie Turbo Core, qui booste la fréquence du processeur à 4,2 GHz. La puce AMD a obtenu les pires résultats dans le tableau des performances moyennes, où Intel est nettement en avance.

Pour le graphique d'efficacité, nous utilisons la consommation d'énergie moyenne et les performances moyennes des quatre configurations comme moyenne. Ce graphique montre les performances par watt d'un processeur AMD. FX-8350 représente environ les deux tiers du résultat d'Intel.

FX contre Core i7 | AMD FX pourra-t-il rattraper la Radeon HD 7970 ?

Lorsque nous parlons de matériel de qualité et abordable, nous aimons utiliser des expressions telles que « 80 % de performances pour 60 % de coût ». Ces mesures sont toujours très justes car nous avons pris l'habitude de mesurer les performances, la consommation d'énergie et l'efficacité. Cependant, ils ne prennent en compte que le coût d’un seul composant et, en règle générale, les composants ne peuvent pas fonctionner seuls.

En ajoutant les composants utilisés dans l'examen d'aujourd'hui, le prix du système est de Basé sur Intel augmenté à 1 900 $ et les plates-formes AMD à 1 724 $, cela ne prend pas en compte les boîtiers, les périphériques et les systèmes d'exploitation. Si nous considérons des solutions « prêtes à l'emploi », cela vaut la peine d'ajouter environ 80 $ supplémentaires par boîtier, nous nous retrouvons donc avec 1 984 $ pour Intel et 1 804 $ pour AMD. Les économies réalisées sur une configuration prête à l'emploi avec un processeur AMD s'élèvent à 180 $, ce qui ne représente pas beaucoup en pourcentage du coût total du système. En d’autres termes, les composants restants d’un ordinateur personnel haut de gamme sont minimisés de plus de prix avantageux processeur.

En conséquence, nous nous retrouvons avec deux manières complètement biaisées de comparer les prix et les performances. Nous l’avons ouvertement admis, nous espérons donc que nous ne serons pas jugés pour les résultats présentés.

Il est plus rentable pour AMD d'inclure uniquement le coût de la carte mère et du processeur et d'augmenter le bénéfice. Vous obtiendrez un schéma comme celui-ci :

Comme troisième alternative, vous pouvez considérer la carte mère et le processeur comme une mise à niveau, en supposant que le boîtier, l'alimentation, la mémoire et les lecteurs soient des restes du système précédent. Très probablement quelques cartes vidéo RadeonHD7970 n'était pas utilisé dans l'ancienne configuration, il est donc plus raisonnable de prendre en compte les processeurs, les cartes mères et les adaptateurs graphiques. Nous ajoutons donc deux GPU Tahiti à 800 $ à la liste.

DMLA FX-8350 a l'air meilleur qu'Intel (surtout dans les jeux, avec les paramètres que nous avons choisis) dans un seul cas : lorsque le reste du système est « libre ». Puisque les autres composants ne peuvent pas être gratuits, FX-8350 ne pourra pas non plus devenir un achat rentable pour les jeux.

Cartes vidéo Intel et AMD

Les résultats de nos tests montrent depuis longtemps que les puces graphiques ATI dépendent davantage du processeur que les puces Nvidia. Ainsi, lors des tests de GPU haut de gamme, nous équipons nos bancs d'essais Processeurs Intel, contournant les défauts de la plate-forme qui peuvent interférer avec l'isolation des performances graphiques et nuire aux résultats.

Nous espérions que la sortie Pilote de pile AMD va changer la situation, mais même quelques améliorations impressionnantes n'ont pas suffi à permettre à l'équipe CPU d'égaler l'efficacité de l'équipe graphique d'AMD elle-même. Eh bien, attendons la sortie Puces AMD basé sur l'architecture Steamroller, qui promet d'être 15% plus productif que Piledriver.

Lors de la construction d'un PC de jeu, la partie la plus chère est la carte graphique, et vous voulez qu'elle en ait pour votre argent. Alors la question se pose : quel processeur dois-je choisir pour cette carte vidéo afin qu'elle ne la limite pas dans les jeux ? Notre matériel spécialement préparé vous aidera à résoudre ce dilemme.

Introduction

Il s’avère donc que l’élément principal d’un ordinateur est le processeur et qu’il commande tout le reste. C'est lui qui donne l'ordre à votre carte vidéo de dessiner certains objets, et calcule également la physique des objets (même le processeur calcule certaines opérations). Si la carte vidéo ne fonctionne pas à pleine capacité et que le processeur ne peut plus aller plus vite, un effet de « goulot d'étranglement » se produit lorsque les performances du système sont limitées par son composant le plus faible.

En réalité, il y a toujours des opérations où la carte vidéo ne fatigue pas du tout et que le pourcentage fonctionne à pleine capacité, mais nous parlons ici de jeux, nous raisonnerons donc dans ce paradigme.

Comment la charge est-elle répartie entre les processeurs et la carte vidéo ?

Il convient de noter que la modification des paramètres dans le jeu modifie le rapport entre la charge du processeur et celle de la carte vidéo.

À mesure que la résolution et les paramètres graphiques augmentent, la charge sur la carte vidéo augmente plus rapidement que sur le processeur. Cela signifie que si le processeur ne constitue pas un goulot d’étranglement à des résolutions inférieures, il ne le sera pas non plus à des résolutions plus élevées.

Avec une diminution de la résolution et des paramètres graphiques, l'inverse est vrai : la charge sur le processeur lors du rendu d'une image reste presque inchangée, mais la carte vidéo devient beaucoup plus légère. Dans une telle situation, le processeur risque davantage de devenir un goulot d’étranglement.

Quels sont les signes d’un goulot d’étranglement ?

Pour effectuer le test, vous avez besoin d'un programme. Vous devez regarder le graphique « Charge GPU ».

Vous devez également connaître la charge du processeur. Cela peut être fait dans la surveillance du système dans le gestionnaire de tâches, il y a un graphique de charge du processeur.

Alors, quels sont les signes qui Le processeur n'ouvre pas la carte vidéo?

  • La charge du GPU n'est pas proche de 100 %, mais la charge du CPU est toujours autour de cette marque
  • Le graphique de charge GPU fluctue beaucoup (peut-être un jeu mal optimisé)
  • Lors de la modification des paramètres graphiques, le FPS ne change pas

C'est par ces signes que vous pouvez savoir si un goulot d'étranglement se produit dans votre cas ?

Comment choisir un processeur ?

Pour ce faire, je vous conseille de regarder les tests processeurs dans le jeu que vous souhaitez. Il existe des sites qui traitent spécifiquement de cela (,).

Un exemple de test dans le jeu Tom Clancy's The Division :

En règle générale, lors du test des processeurs dans différents jeux, les paramètres graphiques et la résolution sont spécifiés. Les conditions sont sélectionnées de telle sorte que le processeur constitue le goulot d'étranglement. Dans ce cas, vous pouvez savoir de combien d'images dans une résolution donnée un processeur particulier est capable. De cette façon, vous pouvez comparer les processeurs entre eux.

Les jeux sont différents (Captain Obvious) et leurs exigences en matière de processeur peuvent être différentes. Ainsi, dans un jeu, tout ira bien et le processeur gérera les scènes sans problème, mais dans un autre, la carte vidéo refroidira tandis que le processeur aura de grandes difficultés à accomplir ses tâches.

Ceci est principalement influencé par :

  • complexité de la physique dans le jeu
  • géométrie spatiale complexe (nombreux grands bâtiments avec de nombreux détails)
  • intelligence artificielle

Nos conseils

  • Lors du choix, nous vous conseillons de vous concentrer uniquement sur de tels tests avec les paramètres graphiques dont vous avez besoin et le FPS dont vous avez besoin (ce que votre carte peut gérer).
  • Il est conseillé de s'intéresser aux jeux les plus exigeants si l'on veut être sûr que les futures nouveautés fonctionneront bien.
  • Vous pouvez également prendre le processeur avec une réserve. Désormais, les jeux fonctionnent bien même avec des puces vieilles de 4 ans (), ce qui signifie que bon processeur Désormais, il vous ravira très longtemps dans les jeux.
  • Si le FPS du jeu est normal et que la charge sur la carte vidéo est faible, chargez-la. Augmentez les paramètres graphiques pour que la carte vidéo fonctionne à pleine capacité.
  • Lors de l'utilisation de DirectX 12, la charge sur le processeur devrait diminuer légèrement, ce qui réduira les exigences qui pèsent sur celui-ci.

Le progrès technologique n’évolue pas de manière uniforme dans tous les domaines, c’est évident. Dans cet article, nous examinerons quels nœuds et à quels moments ont amélioré leurs caractéristiques plus lentement que d'autres, devenant ainsi un maillon faible. Ainsi, le sujet d'aujourd'hui est l'évolution des maillons faibles - comment ils sont apparus, influencés et comment ils ont été éliminés.

CPU

Dès le plus tôt Ordinateur personnel la majeure partie des calculs reposait sur le CPU. Cela était dû au fait que les puces n'étaient pas très bon marché, de sorte que la plupart des périphériques utilisaient le temps du processeur pour leurs besoins. Et il y avait très peu de périphéries à cette époque. Bientôt, avec l'expansion de la portée des applications PC, ce paradigme a été révisé. Le moment est venu pour diverses cartes d’extension de fleurir.



À l'époque des « kopecks » et des « trois » (ce ne sont pas des Pentium II et III, comme pourraient le penser les jeunes, mais des processeurs i286 et i386), les tâches assignées aux systèmes n'étaient pas très complexes, principalement des applications bureautiques et des calculs. Les cartes d'extension soulageaient déjà en partie le processeur : par exemple, le décodeur MPEG, qui décryptait les fichiers compressés en MPEG, le faisait sans la participation du CPU. Un peu plus tard, des normes ont commencé à être développées pour réduire la charge sur le processeur lors de l'échange de données. Un exemple était Bus PCI(apparu à partir de i486), travail sur lequel le processeur était moins chargé. De tels exemples incluent également PIO et (U)DMA.


Les processeurs ont augmenté leur puissance à un bon rythme, un multiplicateur est apparu, car la vitesse du bus système était limitée, et un cache est apparu pour masquer les requêtes vers la RAM fonctionnant à une fréquence plus basse. Le processeur restait le maillon faible et la vitesse de fonctionnement en dépendait presque entièrement.



Entre-temps société Intel après en avoir sorti un bon Processeur Pentium lance une nouvelle génération - Pentium MMX. Elle voulait changer les choses et déplacer les calculs vers le processeur. Le jeu d'instructions MMX - MultiMedia eXtensions, destiné à accélérer le travail de traitement audio et vidéo, a beaucoup aidé à cet égard. Avec son aide, la musique MP3 a commencé à être lue normalement et il a été possible d'obtenir une lecture MPEG4 acceptable à l'aide du processeur.

Les premiers bouchons dans le pneu

Les systèmes basés sur le processeur Pentium MMX étaient déjà plus limités en termes de bande passante mémoire (bande passante mémoire). Le bus 66 MHz du nouveau processeur constituait un goulot d'étranglement, malgré la transition vers un nouveau type de mémoire SDRAM, qui a amélioré les performances par mégahertz. Pour cette raison, l'overclocking du bus est devenu très populaire lorsque le bus a été réglé sur 83 MHz (ou 75 MHz) et a reçu une augmentation très notable. Souvent, même une fréquence finale inférieure du processeur était compensée par une fréquence de bus plus élevée. Pour la première fois, des vitesses plus élevées ont été atteintes à des fréquences plus basses. Le volume est devenu un autre goulot d'étranglement mémoire vive. Pour la mémoire SIMM, il s'agissait d'un maximum de 64 Mo, mais le plus souvent de 32 Mo, voire de 16. Cela compliquait grandement l'utilisation des programmes, car chacun une nouvelle version Windows est connu pour aimer « manger beaucoup de cadres savoureux » (c). Récemment, des rumeurs ont circulé sur une conspiration entre les fabricants de mémoire et Microsoft Corporation.



Intel, quant à lui, a commencé à développer la plate-forme Socket8, coûteuse et donc peu populaire, tandis qu'AMD a continué à développer Socket7. Malheureusement, ce dernier utilisait lentement FPU (Unité à virgule flottante– module d’opérations avec nombres fractionnaires), créé par la société Nexgen alors nouvellement acquise, ce qui impliquait un retard par rapport au concurrent dans les tâches multimédias - principalement les jeux. Le transfert vers un bus à 100 MHz a donné aux processeurs la bande passante nécessaire, et le cache L2 à pleine vitesse de 256 Ko sur le processeur AMD K6-3 a tellement amélioré la situation que désormais la vitesse du système n'était caractérisée que par la fréquence du processeur, et non Le bus. Bien que cela soit dû en partie à la lenteur du FPU. Les applications Office qui dépendaient de la puissance ALU fonctionnaient sans problème grâce au sous-système de mémoire rapide des décisions plus rapides concurrent.

Chipsets

Intel a abandonné le coûteux Pentium Pro, qui avait une puce de cache L2 intégrée au processeur, et a lancé le Pentium II. Ce processeur avait un cœur très similaire au cœur du Pentium MMX. Les principales différences étaient le cache L2, situé sur la cartouche du processeur et fonctionnant à la moitié de la fréquence du cœur, et pneu neuf–AGTL. Grâce à de nouveaux chipsets (notamment i440BX), il a été possible d'augmenter la fréquence du bus à 100 MHz et, par conséquent, la bande passante. En termes d'efficacité (le rapport entre la vitesse de lecture aléatoire et la vitesse théorique), ces chipsets sont devenus l'un des meilleurs, et à ce jour, Intel n'a pas réussi à battre cet indicateur. Les chipsets de la série i440BX avaient un maillon faible : le pont sud, dont la fonctionnalité ne répondait plus aux exigences de l'époque. On a utilisé l'ancien pont sud de la série i430, utilisé dans les systèmes basés sur Pentium I. C'est cette circonstance, ainsi que la connexion entre les chipsets via le bus PCI, qui a incité les fabricants à sortir des hybrides contenant le pont nord i440BX et le pont sud du VIA (686A/B).



Pendant ce temps, Intel fait la démonstration de la lecture de films DVD sans cartes de support. Mais le Pentium II n'a pas reçu beaucoup de reconnaissance en raison de son coût élevé. La nécessité de produire des analogues bon marché est devenue évidente. La première tentative - un Intel Celeron sans cache L2 - a échoué : en termes de vitesse, les Covington étaient très inférieurs à leurs concurrents et ne justifiaient pas leurs prix. Intel fait ensuite une deuxième tentative, qui s'avère fructueuse - le cœur Mendocino, apprécié des overclockeurs, avec la moitié de la taille du cache (128 Ko contre 256 Ko pour le Pentium II), mais fonctionnant à deux fois la fréquence (à la fréquence du processeur , pas deux fois moins lent que le Pentium II). Pour cette raison, la vitesse de la plupart des tâches n'était pas inférieure et le prix inférieur attirait les acheteurs.

La première 3D et encore le bus

Immédiatement après la sortie du Pentium MMX, la vulgarisation des technologies 3D a commencé. Au début, il s'agissait d'applications professionnelles pour développer des modèles et des graphiques, mais la véritable ère a été ouverte par les jeux 3D, ou plus précisément, les accélérateurs Voodoo 3D créés par 3dfx. Ces accélérateurs sont devenus les premières cartes grand public permettant de créer des scènes 3D, ce qui a soulagé le processeur lors du rendu. C’est à partir de cette époque que commence l’évolution des jeux tridimensionnels. Assez rapidement, les calculs de scène utilisant le processeur central ont commencé à perdre face à ceux effectués à l'aide d'accélérateurs vidéo, tant en termes de vitesse que de qualité.



Avec l'avènement d'un nouveau sous-système puissant - graphique, qui a commencé à rivaliser avec le volume de données calculées processeur central, un nouveau goulot d'étranglement est apparu : le bus PCI. En particulier, les cartes Voodoo 3 et plus anciennes ont reçu une augmentation de vitesse simplement en overclockant le bus PCI à 37,5 ou 41,5 MHz. De toute évidence, il est nécessaire de doter les cartes vidéo d'un bus suffisamment rapide. Un tel bus (ou plutôt un port) est devenu AGP - Accelerated Graphics Port. Comme son nom l'indique, il s'agit d'un bus graphique dédié et, selon les spécifications, il ne peut avoir qu'un seul emplacement. La première version d'AGP prenait en charge les vitesses AGP 1x et 2x, qui correspondaient aux vitesses simples et doubles PCI 32/66, soit 266 et 533 Mo/s. La version lente a été ajoutée pour des raisons de compatibilité, et c'est avec elle que des problèmes sont survenus pendant assez longtemps. De plus, il y avait des problèmes avec tous les chipsets, à l'exception de ceux publiés par Intel. Selon les rumeurs, ces problèmes étaient liés à la présence d'une licence uniquement de cette société et à son obstruction au développement de la plateforme concurrente Socket7.



AGP a amélioré les choses et le port graphique n'est plus un goulot d'étranglement. Les cartes vidéo y sont passées très rapidement, mais la plate-forme Socket7 a souffert de problèmes de compatibilité presque jusqu'à la toute fin. Seuls les derniers chipsets et pilotes ont pu améliorer cette situation, mais même alors, des nuances sont apparues.

Et les vis sont là !

Le temps est venu pour Coppermine, les fréquences ont augmenté, les performances ont augmenté, les nouvelles cartes vidéo ont amélioré les performances et augmenté les pipelines et la mémoire. L'ordinateur est déjà devenu un centre multimédia - ils y jouaient de la musique et regardaient des films. Les cartes son intégrées aux caractéristiques faibles perdent du terrain face à SBLive!, qui sont devenues le choix du public. Mais quelque chose a empêché une idylle complète. Qu'est-ce que c'était?



Ce facteur était disques durs, dont la croissance a ralenti et s'est arrêtée aux alentours de 40 Go. Pour les collectionneurs de films (à l'époque MPEG4), cela a semé la confusion. Bientôt, le problème a été résolu, et assez rapidement : le volume des disques a augmenté jusqu'à 80 Go et plus et a cessé d'inquiéter la majorité des utilisateurs.


AMD produit une très bonne plate-forme - Socket A et un processeur d'architecture K7, appelé Athlon par les spécialistes du marketing (nom technique Argon), ainsi que le budget Duron. celui d'Athlone forces possédait un bus et un FPU puissant, ce qui en faisait un excellent processeur pour les calculs et les jeux sérieux, laissant à son concurrent - Pentium 4 - le rôle de machines de bureau, où, cependant, des systèmes puissants n’ont jamais été nécessaires. Les premiers Durons avaient une taille de cache et une vitesse de bus très faibles, ce qui rendait difficile la concurrence avec l'Intel Celeron (Tualatin). Mais grâce à une meilleure évolutivité (due à un bus plus rapide), ils réagissaient mieux aux fréquences croissantes, et donc les modèles plus anciens étaient déjà facilement en avance sur Solutions Intel.

Entre deux ponts


Durant cette période, deux goulots d’étranglement sont apparus simultanément. Le premier est le pneu entre les essieux. Traditionnellement, PCI a été utilisé à ces fins. Il convient de rappeler que le PCI, tel qu'utilisé dans les ordinateurs de bureau, a un débit théorique de 133 Mo/s. En fait, la vitesse dépend du chipset et de l'application et varie de 90 à 120 Mo/s. De plus, la bande passante est partagée entre tous les appareils qui y sont connectés. Si nous avons deux canaux IDE avec théorie débità 100 Mb/s (ATA-100) connecté à un bus avec un débit théorique de 133 Mb/s, alors le problème est évident. LPC, PS/2, SMBus, AC97 ont de faibles exigences en matière de bande passante. Mais Ethernet, ATA 100/133, PCI, USB 1.1/2.0 fonctionnent déjà à des vitesses comparables à l'interface inter-bridge. Pendant longtemps, il n'y a eu aucun problème. L'USB n'était pas utilisé, Ethernet était rarement nécessaire et principalement à 100 Mbps (12,5 Mbps), et les disques durs ne pouvaient même pas s'approcher de la vitesse maximale de l'interface. Mais le temps a passé et la situation a changé. Il a été décidé de fabriquer un pneu spécial inter-moyeux (entre les ponts).


VIA, SiS et Intel ont publié leurs propres options de bus. Ils différaient tout d’abord par leurs capacités de débit. Ils ont commencé avec le PCI 32/66 - 233 Mb/s, mais l'essentiel a été fait : le bus PCI n'était alloué qu'à ses propres appareils, et il n'était pas nécessaire de transférer des données via celui-ci vers d'autres bus. Cela a amélioré la vitesse de travail avec les périphériques (par rapport à l'architecture du pont).


Le débit du port graphique a également été augmenté. La possibilité de travailler avec les modes Fast Writes a été introduite, ce qui a permis d'écrire des données directement dans la mémoire vidéo, en contournant mémoire système, et Side Band Addressing, qui utilisait une partie supplémentaire de 8 bits du bus pour la transmission, généralement destinée à la transmission de données techniques. Le gain résultant de l'utilisation de FW n'a été obtenu que sous une charge élevée du processeur ; dans d'autres cas, il a donné un gain négligeable. Ainsi, la différence entre le mode 8x et le mode 4x se situait dans la marge d'erreur.

Dépendance au processeur

Un autre goulot d’étranglement apparu, toujours d’actualité aujourd’hui, était la dépendance au processeur. Ce phénomène est dû au développement rapide des cartes vidéo et signifiait puissance insuffisante Connexions « processeur – chipset – mémoire » par rapport à la carte vidéo. Après tout, le nombre d'images dans le jeu est déterminé non seulement par la carte vidéo, mais également par cette connexion, puisque c'est cette dernière qui fournit à la carte les instructions et les données qui doivent être traitées. Si la connexion ne suit pas, le sous-système vidéo atteindra un plafond déterminé principalement par celui-ci. Un tel plafond dépendra de la puissance de la carte et des paramètres utilisés, mais il existe également des cartes qui ont un tel plafond avec n'importe quel paramètre dans un jeu particulier ou avec les mêmes paramètres, mais dans la plupart des jeux modernes avec presque tous les processeurs. Par exemple, la carte GeForce 3 était fortement limitée par les performances des processeurs Puntium III et Pentium 4 basés sur le cœur Willamete. Le modèle GeForce 4 Ti, légèrement plus ancien, manquait déjà de l'Athlon 2100+-2400+, et l'augmentation des performances de la combinaison était très perceptible.



Comment les performances ont-elles été améliorées ? Au début, AMD, profitant des fruits de l'architecture efficace développée, a simplement augmenté la fréquence du processeur et amélioré processus technologique et les fabricants de chipsets - bande passante mémoire. Intel a continué à suivre la politique d'augmentation des fréquences d'horloge, heureusement l'architecture Netburst a été conçue pour cela. Processeurs Intel sur les cœurs Willamete et Northwood avec un bus 400QPB (bus à quatre pompages) étaient inférieurs aux solutions concurrentes avec un bus 266 MHz. Après l'introduction du 533QPB, les processeurs sont devenus égaux en performances. Mais Intel, au lieu du bus 667 MHz implémenté dans les solutions serveur, a décidé d'utiliser des processeurs pour ordinateurs de bureau transférer directement sur le bus 800 MHz afin de faire des réserves de puissance pour rivaliser avec le cœur Barton et le nouveau top Athlon XP 3200+. Les processeurs Intel étaient très limités par la fréquence du bus, et même 533QPB n'était pas suffisant pour fournir une quantité suffisante de flux de données. C'est pourquoi le processeur 3,0 GHz sur un bus 800 MHz a surpassé le processeur 3,06 MHz sur un bus 533 MHz, à l'exception peut-être d'un petit nombre d'applications.


La prise en charge de nouveaux modes de fréquence pour la mémoire a également été introduite et un mode double canal est apparu. Cela a été fait pour égaliser la bande passante du processeur et du bus mémoire. Le mode DDR double canal correspondait exactement au QDR à la même fréquence.


Pour AMD, le mode double canal était une formalité et donnait une augmentation à peine perceptible. Le nouveau noyau Prescott n'apportait pas une nette augmentation de la vitesse et était à certains endroits inférieur à l'ancien Northwood. Son objectif principal était de passer à un nouveau processus technique et à la possibilité d'augmenter encore les fréquences. La génération de chaleur a considérablement augmenté en raison des courants de fuite, ce qui a mis fin à la sortie d'un modèle fonctionnant à une fréquence de 4,0 GHz.

À travers le plafond vers un nouveau souvenir

Les générations Radeon 9700/9800 et GeForce 5 pour les processeurs de l'époque ne posaient pas de problèmes de dépendance au processeur. Mais la génération GeForce 6 a mis la plupart des systèmes à genoux, car l'augmentation des performances était très perceptible et, par conséquent, la dépendance au processeur était plus élevée. Les meilleurs processeurs basés sur les cœurs Barton (Athlon XP 2500+ - 3200+) et Northwood/Prescott (3,0-3,4 MHz 800FSB) ont atteint une nouvelle limite : la limite de fréquence de la mémoire et le bus. AMD en a particulièrement souffert : le bus 400 MHz n'était pas suffisant pour réaliser la puissance d'un bon FPU. Le Pentium 4 avait une meilleure situation et montrait de bons résultats avec des timings minimum. Mais le JEDEC n'était pas disposé à certifier des modules de mémoire à plus haute fréquence et à faible latence. Il y avait donc deux options : soit un mode complexe à quatre canaux, soit le passage à la DDR2. Ce dernier s'est produit et la plate-forme LGA775 (Socket T) a été introduite. Le bus est resté le même, mais les fréquences mémoire n'étaient pas limitées à 400 MHz, mais partaient seulement de là.



AMD a mieux résolu le problème en termes d'évolutivité. La génération K8, techniquement appelée Hammer, en plus d'augmenter le nombre d'instructions par cycle d'horloge (en partie grâce à un pipeline plus court), disposait de deux innovations avec une réserve pour l'avenir. Il s'agissait du contrôleur de mémoire intégré (ou plutôt du pont nord avec la plupart de ses fonctionnalités) et du bus HyperTransport universel rapide, qui servait à connecter le processeur au chipset ou aux processeurs entre eux dans un système multiprocesseur. Le contrôleur mémoire intégré a permis d'éviter le maillon faible : la connexion chipset-processeur. Le FSB en tant que tel a cessé d'exister, il n'y avait qu'un bus mémoire et un bus HT.


Cela a permis aux Athlon 64 de dépasser facilement solutions existantes Intel sur l'architecture Netburst et montre l'idéologie erronée d'un long pipeline. Tejas a eu beaucoup de problèmes et n'a pas été révélé. Ces processeurs ont facilement réalisé leur potentiel Cartes GeForce 6, cependant, comme l'ancien Pentium 4.


Mais ensuite est apparue une innovation qui a longtemps fait des processeurs un maillon faible. Son nom est multi-GPU. Il a été décidé de relancer les idées de 3dfx SLI et de les implémenter dans NVIDIA SLI. ATI a répondu symétriquement et a lancé CrossFire. Il s'agissait de technologies permettant de traiter des scènes à l'aide de deux cartes. Le doublement de la puissance théorique du sous-système vidéo et les calculs associés au fractionnement de l'image en parties aux dépens du processeur ont conduit à un système biaisé. L'ancien Athlon 64 ne chargeait une telle combinaison qu'en haute résolution. Sortie GeForce 7 et ATI Radéon Le X1000 a encore accentué ce déséquilibre.


En cours de route, un nouveau bus PCI Express a été développé. Ce bidirectionnel bus série conçu pour les périphériques et a une vitesse très élevée. Il a remplacé AGP et PCI, même s'il ne les a pas complètement supplantés. En raison de sa polyvalence, de sa rapidité et de son faible coût de mise en œuvre, il a rapidement remplacé l'AGP, même si à cette époque il n'apportait aucune augmentation de vitesse. Il n'y avait aucune différence entre eux. Mais du point de vue de l’unification, c’était un très bon pas. Des cartes sont désormais produites qui prennent en charge PCI-E 2.0, qui offre un débit deux fois supérieur (500 Mo/s dans chaque direction contre 250 Mo/s par ligne auparavant). Cela n'a également apporté aucun gain aux cartes vidéo actuelles. La différence entre les différents modes PCI-E n'est possible qu'en cas de mémoire vidéo insuffisante, ce qui signifie déjà un déséquilibre pour la carte elle-même. Une telle carte est la GeForce 8800GTS 320 Mo - elle réagit de manière très sensible aux changements du mode PCI-E. Mais prendre une carte déséquilibrée juste pour évaluer le gain du PCI-E 2.0 n'est pas la décision la plus raisonnable. Une autre chose concerne les cartes prenant en charge Turbocache et Hypermemory - des technologies permettant d'utiliser la RAM comme mémoire vidéo. Ici, l'augmentation de la bande passante mémoire sera environ deux fois plus grande, ce qui aura un effet positif sur les performances.


Vous pouvez voir si la carte vidéo dispose de suffisamment de mémoire dans n'importe quel examen des appareils avec différentes tailles de VRAM. Là où il y aura une forte baisse du nombre d'images par seconde, il y aura un manque de VideoRAM. Mais il arrive que la différence ne soit très perceptible que dans les modes non lisibles - résolution 2560x1600 et AA/AF au maximum. La différence entre 4 et 8 images par seconde sera alors double, mais il est évident que les deux modes sont impossibles en conditions réelles, et donc ils ne doivent pas être pris en compte.

Une nouvelle réponse aux puces vidéo

La sortie de la nouvelle architecture Core 2 (nom technique Conroe) a amélioré la situation de dépendance au processeur et a chargé les solutions sur la GeForce 7 SLI sans aucun problème. Mais Quad SLI et GeForce 8 sont arrivés à temps et ont pris leur revanche, rétablissant le déséquilibre. Cela continue encore aujourd’hui. La situation n'a fait qu'empirer avec la sortie du 3-way SLI et du prochain Quad SLI sur GeForce 8800 et Crossfire X 3-way et 4-way. La sortie de Wolfdale a légèrement augmenté les vitesses d'horloge, mais l'overclocking de ce processeur ne suffit pas pour charger correctement de tels systèmes vidéo. Les jeux 64 bits sont très rares et la croissance de ce mode est observée dans des cas isolés. Les jeux bénéficiant de quatre cœurs se comptent sur les doigts d’une main handicapée. Comme d'habitude, Microsoft retire tout le monde, charge son nouveau système d'exploitation et sa nouvelle mémoire, et le processeur se porte très bien. Il est implicitement annoncé que les technologies 3-way SLI et Crossfire X fonctionneront exclusivement sous Vista. Compte tenu de ses appétits, les joueurs pourraient être contraints de prendre des processeurs quad-core. Cela est dû à une charge de noyau plus uniforme que dans Windoes XP. S'il doit consommer une bonne part du temps processeur, laissez-le au moins consommer les cœurs qui ne sont de toute façon pas utilisés par le jeu. Cependant, je doute que ce soit nouveau système opérateur sera satisfait des noyaux donnés.



La plateforme Intel devient obsolète. Les quatre cœurs souffrent déjà beaucoup du manque de bande passante mémoire et des retards liés aux commutateurs de bus. Le bus est partagé et il faut du temps au noyau pour en prendre le contrôle. Avec deux cœurs, cela est tolérable, mais avec quatre cœurs, l'effet des pertes temporaires devient plus perceptible. De plus, le bus système n'a pas suivi la bande passante depuis longtemps. L'influence de ce facteur a été atténuée par l'amélioration de l'efficacité du mode asynchrone, qu'Intel a bien mis en œuvre. Les postes de travail en souffrent encore plus en raison de la faute d'un chipset défaillant, dont le contrôleur mémoire ne fournit que jusqu'à 33 % de la bande passante mémoire théorique. Un exemple de ceci est de perdre Plateformes Intel Skulltrail dans la plupart des applications de jeu (le test CPU 3Dmark06 n'est pas une application de jeu :)), même en utilisant les mêmes cartes vidéo. Intel a donc annoncé une nouvelle génération de Nehalem, qui mettra en œuvre une infrastructure très similaire aux développements d'AMD - un contrôleur de mémoire intégré et un bus périphérique QPI (nom technique CSI). Cela améliorera l'évolutivité de la plateforme et donnera résultats positifs dans les configurations biprocesseur et multicœur.


AMD connaît actuellement plusieurs goulots d'étranglement. Le premier est lié au mécanisme de mise en cache - à cause de cela, il existe une certaine limite de bande passante, en fonction de la fréquence du processeur, de sorte qu'il n'est pas possible de dépasser cette valeur, même en utilisant des modes de fréquence plus élevés. Par exemple, avec un processeur moyen, la différence de fonctionnement avec la mémoire entre DDR2 667 et 800 MHz peut être d'environ 1 à 3 %, mais pour une tâche réelle, elle est généralement négligeable. Par conséquent, il est préférable de sélectionner la fréquence optimale et de réduire les timings - le contrôleur y répond très bien. Par conséquent, cela n'a aucun sens d'implémenter la DDR3 - des timings élevés ne feront que nuire, et il se peut qu'il n'y ait aucun gain du tout. De plus, le problème d’AMD réside désormais dans le traitement lent (malgré SSE128) des instructions SIMD. C'est pour cette raison que le Core 2 est très en avance sur le K8/K10. ALU, qui a toujours été le point fort d'Intel, est devenu encore plus puissant et, dans certains cas, peut être plusieurs fois plus rapide que son homologue de Phenom. C'est le principal problème Processeurs AMD– des « mathématiques » faibles.


De manière générale, les maillons faibles sont très spécifiques à une tâche. Seuls ceux qui font époque ont été pris en compte. Ainsi, dans certaines tâches, la vitesse peut être limitée par la quantité de RAM ou la vitesse du sous-système de disque. Ensuite, davantage de mémoire est ajoutée (la quantité est déterminée à l'aide de compteurs de performances) et des matrices RAID sont installées. La vitesse des jeux peut être augmentée en désactivant la carte son intégrée et en achetant une carte discrète normale - Creative Audigy 2 ou X-Fi, qui chargent moins le processeur en traitant les effets avec leur puce. Cela s'applique davantage aux cartes son AC'97 et dans une moindre mesure à HD-Audio (Intel Azalia), puisque cette dernière a résolu le problème de la charge élevée du processeur.


N'oubliez pas que le système doit toujours être adapté à des tâches spécifiques. Souvent, si vous pouvez choisir une carte vidéo équilibrée (et le choix selon les catégories de prix dépendra de prix qui varient considérablement selon les endroits), alors, par exemple, avec un sous-système de disque, une telle opportunité n'est pas toujours disponible. Très peu de gens ont besoin de RAID 5, mais pour un serveur, c'est une chose indispensable. Il en va de même pour une configuration biprocesseur ou multicœur, inutile dans les applications bureautiques, mais indispensable pour un concepteur travaillant dans 3Ds Max.

DANS dernière version Windows dispose désormais d'une fonction de puissance nominale pour différents composants PC. Cela donne un aperçu des performances et des goulots d’étranglement du système. Mais ici vous ne trouverez aucun détail sur les paramètres de vitesse des composants. De plus, ce diagnostic ne permet pas d'effectuer un test de stress matériel, ce qui peut être utile pour comprendre les pics de charge lors du lancement de jeux modernes. Les benchmarks tiers de la famille 3DMark ne fournissent également que des estimations en points conditionnels. Ce n'est un secret pour personne que de nombreux fabricants de matériel informatique optimisent le fonctionnement des cartes vidéo et autres composants de manière à obtenir le maximum de points lors du passage de 3DMark. Ce programme vous permet même de comparer les performances de votre équipement avec des équipements similaires de sa base de données, mais vous n'obtiendrez pas de valeurs spécifiques.

Par conséquent, les tests sur PC doivent être effectués séparément, en tenant compte non seulement de l’évaluation des performances du benchmark, mais aussi des performances réelles. Caractéristiques, enregistré à la suite de l’inspection de l’équipement. Nous avons sélectionné pour vous un ensemble d'utilitaires (payants et gratuits) qui vous permettent d'obtenir des résultats précis et d'identifier les maillons faibles.

Vitesse de traitement des images et 3D

Le test des cartes vidéo est l'une des étapes les plus importantes lors de l'évaluation de la puissance d'un PC. Les fabricants d'adaptateurs vidéo modernes les équipent de logiciels et de pilotes spéciaux qui permettent d'utiliser le GPU non seulement pour le traitement de l'image, mais également pour d'autres calculs, par exemple lors de l'encodage vidéo. Donc le seul manière fiable découvrez avec quelle efficacité il est traité infographie, - recourir à une application spéciale qui mesure les performances de l'appareil.

Vérification de la stabilité de la carte vidéo

Programme: FurMark 1.9.1 Site web: www.ozone3d.net Le programme FurMark est l'un des outils les plus rapides et les plus simples pour vérifier le fonctionnement d'un adaptateur vidéo. L'utilitaire teste les performances d'une carte vidéo en utilisant comme base la technologie OpenGL. L'algorithme de visualisation proposé utilise un rendu multi-passes dont chaque couche est basée sur GLSL (OpenGL shader langage).

Pour charger le processeur de la carte graphique, ce benchmark restitue une image 3D abstraite avec un tore recouvert de fourrure. La nécessité de traiter une grande quantité de cheveux entraîne une charge maximale possible sur l'appareil. FurMark vérifie la stabilité de la carte vidéo et affiche également les changements de température de l'appareil à mesure que la charge augmente.

Dans les paramètres FurMark, vous pouvez spécifier la résolution à laquelle le matériel sera testé et, une fois terminé, le programme présentera un bref rapport sur la configuration du PC avec un score final en points conditionnels. Cette valeur est pratique à utiliser pour comparer les performances de plusieurs cartes vidéo en général. Vous pouvez également vérifier les résolutions « veille » de 1080p et 720p.

Promenade stéréo virtuelle

Programme: Référence Unigine Heaven DX11 Site web: www.unigine.com L'un des moyens les plus sûrs de tester ce que vous pouvez faire nouvel ordinateur, - lancez des jeux dessus. Les jeux modernes utilisent pleinement les ressources matérielles : carte vidéo, mémoire et processeur. Cependant, tout le monde n’a pas la possibilité et le désir de consacrer du temps à de tels divertissements. Vous pouvez utiliser le benchmark Unigine Heaven DX11 à la place. Ce test est basé sur le moteur de jeu Unigine (des jeux tels que Oil Rush, Dilogus : The Winds of War, Syndicates of Arkon et d'autres sont construits dessus), qui prend en charge les API graphiques (DirectX 9, 10, 11 et OpenGL). Après l'avoir lancé, le programme créera une visualisation de démonstration, dessinant l'environnement virtuel en temps réel. L'utilisateur verra une courte vidéo qui comprendra une promenade virtuelle à travers un monde fantastique. Ces scènes sont créées par la carte vidéo. En plus des objets tridimensionnels, le moteur simule un éclairage complexe, une modélisation système mondial avec de multiples réflexions de rayons lumineux provenant des éléments de la scène.

Vous pouvez tester votre ordinateur en mode stéréo et dans les paramètres de référence, vous pouvez sélectionner une norme d'image vidéo surround : anaglyphe 3D, sortie d'image séparée pour les yeux droit et gauche, etc.

Malgré le fait que le titre du programme mentionne la onzième version de DirectX, cela ne signifie pas qu'Unigine Heaven est destiné uniquement aux cartes vidéo modernes. Dans les paramètres de ce test, vous pouvez sélectionner l'une des versions antérieures de DirectX, définir un niveau de détail d'image acceptable et spécifier la qualité du rendu du shader.

Trouver le maillon faible

Dans une situation où un utilisateur est submergé par l’envie d’augmenter les performances de son ordinateur, la question peut se poser : quel composant est le plus faible ? Qu'est-ce qui rendra l'ordinateur plus rapide : remplacer la carte vidéo, le processeur ou installer une énorme quantité de RAM ? Pour répondre à cette question, il est nécessaire de tester les composants individuels et de déterminer le « maillon faible » de la configuration actuelle. Un utilitaire multi-test unique vous aidera à le trouver.

Simulateur de charge

Programme : Test de performance PassMark Site web: www.passmark.com PassMark PerformanceTest analyse presque tous les appareils présents dans la configuration du PC - de carte mère et de la mémoire sur des lecteurs optiques.

Une particularité de PassMark PerformanceTest est que le programme utilise un grand nombre de tâches différentes, mesurant scrupuleusement les performances de l'ordinateur dans différentes situations. À un certain moment, il peut même sembler que quelqu'un a pris le contrôle du système en main : les fenêtres s'ouvrent de manière aléatoire, leur contenu défile et des images s'affichent à l'écran. Tout cela est le résultat d'un benchmark qui simule l'exécution des tâches les plus typiques habituellement requises sous Windows. Dans le même temps, la vitesse de compression des données est vérifiée, le temps nécessaire au cryptage des informations est enregistré, des filtres sont appliqués aux photographies et la vitesse de rendu est définie graphiques vectoriels, de courtes vidéos de démonstration 3D sont lues, etc.

A la fin des tests, PassMark PerformanceTest fournit un score total et propose de comparer ce résultat avec des données obtenues sur des PC avec des configurations différentes. Pour chacun des paramètres testés, l'application crée un schéma sur lequel les composants faibles de l'ordinateur sont clairement visibles.

Vérification du système de disque

Le débit du système de disque peut constituer le plus gros goulot d’étranglement en matière de performances d’un PC. Il est donc extrêmement important de connaître les caractéristiques réelles de ces composants. Tester un disque dur déterminera non seulement ses vitesses de lecture et d'écriture, mais montrera également la fiabilité de fonctionnement de l'appareil. Pour vérifier votre lecteur, nous vous recommandons d'essayer deux petits utilitaires.

Examens pour disque dur

Programmes: CrystalDiskInfo et CrystalDiskMark Site web: http://cristalmark.info/software/index-e.html Ces programmes ont été créés par le même développeur et se complètent parfaitement. Les deux sont gratuits et peuvent fonctionner sans installation sur un ordinateur, directement à partir d'une clé USB.

La plupart des disques durs mettent en œuvre la technologie d'autodiagnostic SMART, qui vous permet de prédire d'éventuels dysfonctionnements du disque. Grâce au programme CrystalDiskInfo, vous pouvez évaluer l'état réel de votre disque dur en termes de fiabilité : il lit les données SMART, détermine le nombre de secteurs problématiques, le nombre d'erreurs de positionnement de la tête de lecture, le temps nécessaire pour faire tourner le disque, ainsi que comme la température actuelle de l'appareil. Si ce dernier indicateur est trop élevé, la durée de vie du support avant panne sera très courte. Le programme affiche également la version du firmware et fournit des données sur la durée d'utilisation disque dur.

CrystalDiskMark est une petite application qui mesure les vitesses d'écriture et de lecture. Cet outil de vérification de disque diffère des utilitaires similaires en ce sens qu'il vous permet d'utiliser différentes conditions pour écrire et lire des données - par exemple, mesurer des lectures pour des blocs de différentes tailles. L'utilitaire vous permet également de définir le nombre de tests à effectuer et la quantité de données utilisées pour ceux-ci.

Compteur de vitesse pour surfer sur le Web

Vitesse réelle connexion réseau diffère généralement de ce qui est indiqué dans ses paramètres ou déclaré par le fournisseur et, en règle générale, dans une moindre mesure. La vitesse de transfert des données peut être influencée par de nombreux facteurs : le niveau d'interférence électromagnétique dans la pièce, le nombre d'utilisateurs travaillant simultanément sur le réseau, la qualité du câble, etc.

Estimation de la vitesse du réseau

Programme: Test de rapidité Site web: www.raccoonworks.com Si vous souhaitez connaître la vitesse réelle de transfert de données dans votre réseau local, le programme SpeedTest vous aidera. Il vous permet de déterminer si le fournisseur respecte les paramètres indiqués. L'utilitaire mesure la vitesse de transfert de données entre deux machines utilisateur en activité, ainsi qu'entre serveur distant et un ordinateur personnel.

Le programme se compose de deux parties : le serveur et le client. Pour mesurer la vitesse de transfert des informations d'un ordinateur à un autre, le premier utilisateur doit lancer la partie serveur et spécifier un fichier arbitraire (de préférence grande taille) qui sera utilisé pour le test. Le deuxième participant au test doit lancer le composant client et spécifier les paramètres du serveur - adresse et port. Les deux applications établissent une connexion et commencent à échanger des données. Pendant le processus de transfert de fichiers, SpeedTest trace une relation graphique et collecte des statistiques sur le temps nécessaire pour copier les données sur le réseau. Si vous testez plusieurs PC distants, le programme ajoutera encore et encore de nouvelles courbes au graphique tracé.

De plus, SpeedTest vérifiera la vitesse d'Internet : en mode « Page Web », le programme teste la connexion à n'importe quel site. Ce paramètre peut également être évalué en accédant à la ressource spécialisée http://internet.yandex.ru.

Les dysfonctionnements de la RAM peuvent ne pas apparaître immédiatement, mais sous certaines charges. Pour être sûr que les modules sélectionnés ne vous laisseront tomber dans aucune situation, mieux vaut les tester minutieusement et choisir les plus rapides.

Jeux olympiques de mème

Programme: MaxxMEM2 - Aperçu Site web: www.maxxpi.net Ce programme est conçu pour tester la vitesse de la mémoire. En très peu de temps, il effectue plusieurs tests : il mesure le temps nécessaire pour copier les données dans la RAM, détermine la vitesse de lecture et d'écriture des données et affiche le paramètre de latence de la mémoire. Dans les paramètres de l'utilitaire, vous pouvez définir la priorité du test et comparer le résultat avec les valeurs actuelles obtenues par d'autres utilisateurs. Depuis le menu du programme, vous pouvez accéder rapidement aux statistiques en ligne sur le site officiel de MaxxMEM2 et découvrir quelle mémoire est la plus productive.

Pour le son, la vitesse n'a pas d'importance

Lors du test de la plupart des appareils, la vitesse de traitement des données est généralement importante. Mais en ce qui concerne la carte son, ce n'est pas l'indicateur principal. Il est beaucoup plus important pour l'utilisateur de vérifier les caractéristiques du chemin audio analogique et numérique - pour savoir dans quelle mesure le son est déformé pendant la lecture et l'enregistrement, mesurer le niveau de bruit, etc.

Comparaison avec la norme

Programme: Analyseur audio RightMark 6.2.3 Site web: http://audio.rightmark.org Les créateurs de cet utilitaire proposent plusieurs façons de vérifier les performances audio. La première option est l'autodiagnostic de la carte son. L'appareil reproduit un signal de test via le chemin audio et l'enregistre immédiatement. La forme d'onde du signal reçu doit idéalement correspondre à l'original. Les écarts indiquent une distorsion du son causée par la carte audio installée sur votre PC.

Les deuxième et troisième méthodes de test sont plus précises : elles utilisent un générateur de référence signal sonore ou en utilisant une carte son supplémentaire. Dans les deux cas, la qualité de la source du signal est prise comme norme, bien qu'une certaine erreur appareils supplémentaires contribuent également. Lors de l'utilisation d'une deuxième carte audio, le facteur de distorsion du signal de sortie doit être minime - l'appareil doit avoir de meilleures caractéristiques que la carte son testée. A la fin du test, vous pouvez également déterminer des paramètres tels que les caractéristiques de fréquence de la carte audio, son niveau de bruit, la distorsion harmonique en sortie, etc.

En plus des fonctions de base disponibles dans l'édition gratuite, la version plus puissante de RightMark Audio Analyzer 6.2.3 PRO inclut également la prise en charge d'une interface ASIO professionnelle, une résolution spectrale quatre fois plus détaillée et la possibilité d'utiliser le transfert direct de données Kernel Streaming.

Il est important que personne n'interfère

Lorsque vous effectuez un test de performances, gardez à l'esprit que les résultats finaux sont affectés par de nombreux facteurs, notamment les performances des services et des applications en arrière-plan. Par conséquent, pour une évaluation plus précise de votre PC, il est recommandé de désactiver d'abord l'analyseur antivirus et de fermer tous les applications en cours d'exécution, jusqu'au client de messagerie. Et, bien sûr, pour éviter les erreurs de mesure, vous devez arrêter tout travail jusqu'à ce que le programme ait terminé de tester l'équipement.

La théorie des limitations du système a été formulée dans les années 80 du XXe siècle. et concernait la gestion des entreprises manufacturières. En bref, son essence se résume au fait que dans chaque Système de production il existe des restrictions qui limitent l’efficacité. Si vous éliminez une limitation clé, le système fonctionnera beaucoup plus efficacement que si vous essayez d'influencer l'ensemble du système à la fois. Par conséquent, le processus d’amélioration de la production doit commencer par l’élimination des goulots d’étranglement.

Désormais, le terme goulot d'étranglement peut être utilisé dans n'importe quelle industrie - dans le secteur des services, du développement logiciel, logistique, Vie courante.

Qu'est-ce qu'un goulot d'étranglement

La définition d'un goulot d'étranglement est un endroit dans un système de production où une congestion se produit parce que les matériaux arrivent trop rapidement mais ne peuvent pas être traités aussi rapidement. Il s’agit souvent d’une station avec moins de puissance que le nœud précédent. Le terme vient d’une analogie avec le col étroit d’une bouteille, qui ralentit l’écoulement du liquide.


Goulot d'étranglement - goulot d'étranglement dans le processus de production

Dans le secteur manufacturier, l’effet de goulot d’étranglement entraîne des temps d’arrêt et des coûts de production, réduit l’efficacité globale et augmente les délais de livraison aux clients.

Il existe deux types de goulots d'étranglement :

  1. Goulots d'étranglement à court terme- causés par des problèmes temporaires. Bon exemple— les congés de maladie ou les vacances des employés clés. Personne dans l’équipe ne peut les remplacer complètement et le travail s’arrête. En production, il peut s'agir d'une panne d'une machine d'un groupe lorsque sa charge est répartie entre les équipements de travail.
  2. Goulots d'étranglement à long terme- agir constamment. Par exemple, un retard constant dans les rapports mensuels d'une entreprise dû au fait qu'une personne doit traiter une énorme quantité d'informations qui lui parviendront en avalanche à la toute fin du mois.

Comment identifier les goulots d'étranglement dans le processus de production

Il existe plusieurs manières de rechercher les goulots d'étranglement dans une production de différents niveaux de complexité, avec ou sans l'utilisation d'outils spéciaux. Commençons par plus des moyens simples basé sur l'observation.

Files d'attente et congestion

Le processus sur une ligne de production qui a la plus grande file d’attente d’unités d’en-cours devant lui constitue généralement un goulot d’étranglement. Cette méthode de recherche de goulots d'étranglement convient à la production par convoyeur pièce par pièce, par exemple sur une ligne d'embouteillage. Il est clairement visible où les bouteilles s'accumulent dans la ligne et quel mécanisme manque de puissance, tombe souvent en panne ou est entretenu par un opérateur inexpérimenté. S'il y a plusieurs points de congestion sur la ligne, la situation est alors plus compliquée et des méthodes supplémentaires doivent être utilisées pour trouver le goulot d'étranglement le plus critique.

Bande passante

Le débit de l’ensemble de la chaîne de production dépend directement du rendement de l’équipement goulot d’étranglement. Cette caractéristique vous aidera à identifier le principal goulot d’étranglement du processus de production. L’augmentation du rendement d’un équipement qui ne constitue pas un goulot d’étranglement n’affectera pas de manière significative le rendement global de la ligne. En vérifiant tous les équipements un par un, vous pouvez identifier le goulot d'étranglement, c'est-à-dire l'étape dont l'augmentation de puissance affectera le plus le rendement de l'ensemble du processus.

Pleine puissance

La plupart des lignes de production suivent le pourcentage d'utilisation de chaque pièce d'équipement. Les machines et les stations ont une capacité fixe et sont utilisées dans le processus de production à un certain pourcentage de Puissance maximum. La station qui utilise la puissance maximale est un goulot d'étranglement. Un tel équipement limite le pourcentage d’utilisation de l’énergie des autres équipements. Si vous augmentez la puissance du goulot d'étranglement, la puissance de toute la ligne augmentera.

Attente

Le processus de production prend également en compte les temps d'arrêt et d'attente. Lorsqu'il y a un goulot d'étranglement sur la ligne, l'équipement qui y va directement reste longtemps inutilisé. Les goulots d'étranglement retardent la production et la machine suivante ne reçoit pas suffisamment de matière pour fonctionner en continu. Lorsque vous trouvez une machine avec un temps d'attente long, recherchez le goulot d'étranglement à l'étape précédente.

En plus du suivi de la production, les outils suivants sont utilisés pour identifier les goulots d'étranglement :

Cartographie des flux de valeur - carte de la création de flux de valeur

Une fois que vous avez compris la ou les causes des goulots d'étranglement, vous devez déterminer les actions à entreprendre. pour élargir le goulot d’étranglement et augmenter la production. Vous devrez peut-être déplacer des employés vers la zone à problème ou embaucher du personnel et du matériel supplémentaires.

Des goulots d'étranglement peuvent survenir lorsque les opérateurs reconfigurent l'équipement pour fabriquer un produit différent. Dans ce cas, vous devez réfléchir à la manière de réduire les temps d'arrêt. Par exemple, modifier le calendrier de production pour réduire le nombre de changements ou réduire leur impact.

Comment réduire l'impact des goulots d'étranglement

La gestion des goulots d'étranglement suggère aux entreprises manufacturières d'adopter trois approches pour réduire l'impact des goulots d'étranglement.

Première approche

Augmenter la capacité des goulots d’étranglement existants.

Il existe plusieurs manières d’augmenter la capacité des goulots d’étranglement :

  1. Ajoutez des ressources au processus de limitation. Il n'est pas nécessaire d'embaucher de nouveaux employés. La formation interfonctionnelle du personnel peut réduire l’impact des goulots d’étranglement à peu de frais. Dans ce cas, les ouvriers desserviront plusieurs gares à la fois et faciliteront le passage des goulots d'étranglement.
  2. Assurer un approvisionnement ininterrompu en pièces jusqu’au goulot d’étranglement. Gardez toujours un œil sur les travaux en cours avant le goulot d'étranglement, gérez le flux des ressources vers la station goulet, tenez compte des heures supplémentaires, pendant lesquelles l'équipement doit également toujours avoir des pièces à traiter.
  3. Assurez-vous que le goulot d'étranglement ne fonctionne qu'avec des pièces de qualité. Ne gaspillez pas d'énergie et ne perdez pas de temps dans le traitement des déchets. Placez des points de contrôle qualité devant les stations goulet d’étranglement. Cela augmentera le débit du processus.
  4. Vérifiez le calendrier de production. Si un processus produit plusieurs produits différents qui nécessitent des temps de goulot d'étranglement différents, ajustez le calendrier de production afin que la demande globale de goulot d'étranglement diminue.
  5. Augmenter la durée de fonctionnement des équipements limiteurs. Laissez le goulot d’étranglement durer plus longtemps que les autres équipements. Désignez un opérateur pour entretenir le processus pendant les pauses déjeuner, les temps d'arrêt programmés et, si nécessaire, les heures supplémentaires. Bien que cette méthode ne réduise pas le temps de cycle, elle maintiendra le goulot d’étranglement pendant que le reste de l’équipement est inactif.
  6. Réduisez les temps d’arrêt. Évitez les temps d’arrêt planifiés et imprévus. Si l'équipement goulot d'étranglement tombe en panne pendant le processus d'exploitation, envoyez immédiatement une équipe de réparation pour le réparer et le faire fonctionner. Essayez également de réduire le temps nécessaire pour changer d’équipement d’un produit à un autre.
  7. Améliorez le processus au niveau du goulot d’étranglement. Utilisez VSM pour éliminer les activités sans valeur ajoutée et réduire le temps nécessaire pour ajouter de la valeur tout en éliminant le gaspillage. Au final, tu auras plus un bref délais faire du vélo.
  8. Redistribuez la charge sur le goulot d'étranglement. Si possible, divisez l'opération en parties et affectez-les à d'autres ressources. Le résultat est des temps de cycle plus courts et une puissance accrue.


Deuxième approche

Vente des surplus de production produits par des équipements sans goulot d'étranglement.

Par exemple, vous disposez de 20 presses à injection sur votre ligne, mais vous n’en utilisez que 12 car l’équipement goulet d’étranglement ne peut pas traiter la production de l’ensemble des 20 presses. Dans ce cas, vous pouvez trouver d’autres entreprises intéressées par la sous-traitance des opérations de moulage par injection. Vous serez rentable car vous recevrez plus des sous-traitants que vos coûts variables.


Troisième approche

Réduisez la puissance inutilisée.

La troisième option pour optimiser la production consiste à vendre les équipements dotés de capacités supplémentaires et à réduire ou à déplacer le personnel qui les entretient. Dans ce cas, la puissance de tous les équipements sera égalisée.


Exemples de goulots d'étranglement en dehors de la production

Transport

Un exemple classique est celui des embouteillages, qui peuvent se former constamment à certains endroits, ou apparaître temporairement lors d'un accident ou de travaux routiers. D'autres exemples sont une écluse fluviale, un chariot élévateur, une plate-forme ferroviaire.

Réseaux informatiques

Un routeur WiFi lent connecté à un réseau efficace à large bande passante constitue un goulot d'étranglement.

Communication

Un développeur qui passe six heures par jour en réunion et seulement deux heures à écrire du code.

Logiciel

Les applications ont également des goulots d'étranglement - ce sont des éléments de code où le programme « ralentit », obligeant l'utilisateur à attendre.

Matériel informatique

Les goulots d'étranglement informatiques sont des limitations matérielles dans lesquelles la puissance de l'ensemble du système est limitée à un seul composant. Le processeur est souvent considéré comme le composant limitant de la carte graphique.

Bureaucratie

Dans la vie de tous les jours, nous rencontrons souvent des goulots d'étranglement. Par exemple, lorsque les formulaires de passeport ou de permis de conduire sont soudainement épuisés et que tout le système s'arrête. Ou lorsque vous devez subir un examen médical, mais que la salle de fluorographie n'est ouverte que trois heures par jour.

Verdict

Les goulots d’étranglement dans la production, la gestion et la vie sont des points d’amélioration potentiels.

L’extension du goulot d’étranglement entraînera une augmentation significative de la productivité et de l’efficacité.

Et ne pas prêter attention aux éléments limitants du système signifie ne pas réaliser suffisamment de bénéfices et travailler en deçà de ses capacités.




Haut