Composition de la technologie informatique. Les principales caractéristiques de la technologie informatique. Histoire du développement de la technologie informatique

Le concept de technologie informatique - un ensemble d'outils, de méthodes et de techniques techniques et mathématiques utilisés pour mécaniser et automatiser les processus de calcul et de traitement de l'information. La base des moyens techniques de la technologie informatique moderne est constituée d'ordinateurs électroniques (ordinateurs), d'appareils d'entrée, de sortie, de présentation et de transmission de données (scanners, imprimantes, modems, moniteurs, traceurs, claviers, bandes magnétiques et lecteurs de disque, etc.), ordinateurs portables, calculatrices, cahiers électroniques, etc.

Un ordinateur personnel est un micro-ordinateur de bureau ou portable mono-utilisateur qui répond aux exigences de disponibilité générale et d'universalité.

La base d'un PC est un microprocesseur. Le développement de la technologie et de la technologie des microprocesseurs a déterminé le changement de générations de PC :

1ère génération (1975 - 1980) - basée sur 8 - et bit MP ;

2ème génération (1981 - 1985) - basée sur 16 - et bit MP ;

3e génération (1986 - 1992) - basée sur MP 32 bits;

4e génération (depuis 1993) - basée sur MP 64 bits.

Aujourd'hui, le monde de l'informatique est sur le point de connaître une révolution : des processeurs dotés de transistors de nouvelle génération et de puissants puces mobiles augmentera les performances des ordinateurs portables, tablettes et smartphones d'un ordre de grandeur.

Des éléments de processeur de 10 et 12 nm dans l'année à venir vont complètement changer le monde informatique : ils sont 10 000 fois plus petits qu'un cheveu humain (100 000 nm) en épaisseur, et se rapprochent des atomes de silicium (0,3 nm) en diamètre.

Les principaux fabricants de microprocesseurs pour PC sont actuellement :

Intel est un pionnier dans la création et la production de processeurs modernes. À ce jour, sur le marché des ordinateurs coûteux, les PC les plus populaires avec des processeurs basés sur une architecture multicœur Intel Core.

En avril 2012, Intel a présenté la 3e génération de la famille de processeurs Intel® Core™ Quad-Core, disponible dans des versions puissantes systèmes de bureau des PC tout-en-un de niveau professionnel, mobiles et fins, qui sont les premières puces au monde construites à l'aide de la technologie de fabrication 22 nm et utilisant des transistors 3D Tri-Gate.

AMD (Advanced Micro Deviced) est le concurrent le plus réel d'Intel. Jusqu'à récemment, il occupait le créneau des processeurs peu coûteux mais rapides sur le marché de l'informatique, destinés principalement aux ordinateurs et aux mises à niveau peu coûteux.

Avec la création du processeur Athlon en 1999, des processeurs Thunderbird, Polamino, Thoroughbred, Barton et après 2003 des processeurs de la série K8, il a commencé à concurrencer sérieusement Intel. Aujourd'hui, les deux sociétés produisent un produit de bonne qualité qui peut satisfaire les besoins de presque tous les utilisateurs exigeants.

Actuellement, environ 85% des PC sont produits sur la base de ces processeurs. Selon le but, ils peuvent être divisés en trois groupes :

Ménage, destiné à la consommation de masse et ayant la configuration de base la plus simple ;

Usage général, conçu pour résoudre des tâches et des formations scientifiques, techniques, économiques et autres. Cette classe a reçu la plus grande diffusion et est desservie, en règle générale, par des utilisateurs non professionnels;

Professionnel, utilisé dans le domaine scientifique, pour résoudre des informations complexes et tâches de production. Ils sont très performants et entretenus par des utilisateurs professionnels.

De plus, selon la conception du PC, ils sont divisés en :

Ordinateurs PORTABLES (ordinateur "genou"). Dans l'ordinateur portable, le clavier et l'unité centrale sont fabriqués dans un seul boîtier, qui est fermé sur le dessus par un couvercle avec un écran LCD. La plupart des modèles ne diffèrent pas pour le mieux dans leurs paramètres techniques et ont des écrans monochromes;

CARNET ("carnets"). Les derniers modèles ont des paramètres techniques assez élevés comparables à un PC à usage général ( Processeurs principaux i7-3612QM, vidéo jusqu'à 6144 Mo, disques durs - HDD de plus de 600 Go ou SSD jusqu'à 256 Go ;

ULTRABOOK (eng. Ultrabook) - un ordinateur portable ultra-mince et léger, qui a des dimensions et un poids encore plus petits par rapport aux subnotebooks conventionnels, mais en même temps - la plupart des caractéristiques d'un ordinateur portable à part entière. Le terme s'est répandu en 2011, après qu'Intel a introduit une nouvelle classe de PC mobiles - les ultrabooks, le concept d'Intel et d'Apple, développé sur la base du 2008 Ordinateur portable Apple Macbook Air. Les ultrabooks sont plus petits que les ordinateurs portables ordinaires, mais légèrement plus grands que les netbooks. Ils sont équipés d'un petit écran à cristaux liquides de 11 à 13,3 pouces, sont compacts - jusqu'à 20 mm d'épaisseur et pèsent jusqu'à 2 kg. En raison de leur petite taille, les ultrabooks ont peu de ports externes et la plupart d'entre eux n'ont pas de lecteur de DVD.

Netbook (eng. Netbook) - un ordinateur portable aux performances relativement faibles, conçu principalement pour accéder à Internet et travailler avec des applications bureautiques. Il a une petite taille d'écran de 7 à 12 pouces, une faible consommation d'énergie, un poids léger et un coût relativement faible.

Le principe de fonctionnement des PC modernes peut être décrit par l'algorithme suivant :

JE. Initialisation

Après avoir allumé l'ordinateur, chargé le système d'exploitation et le programme nécessaire, le compteur de programme se voit attribuer une valeur initiale égale à l'adresse de la première commande de ce programme.

II. Récupération d'équipe

Le CPU effectue l'opération de lecture de l'instruction dans la mémoire. Le contenu du compteur de programme est utilisé comme adresse de la cellule mémoire.

III. Interprétation de la commande et incrémentation du compteur de programme

Le contenu de l'emplacement de mémoire de lecture est interprété par la CPU comme une commande et placé dans le registre de commande. La CU procède à l'interprétation de la commande. A partir du champ du code opération du premier mot de la commande, le CU détermine sa longueur et, si nécessaire, organise des opérations de lecture supplémentaires jusqu'à ce que la totalité de la commande soit lue par le CPU. La longueur de l'instruction est ajoutée au contenu du compteur de programme, et lorsque l'instruction est complètement lue, l'adresse de l'instruction suivante est formée dans le compteur de programme.

IV. Décryptage des commandes et exécution des commandes

A partir des champs d'adresse de l'instruction, la CU détermine si l'instruction a des opérandes en mémoire. Si c'est le cas, alors sur la base des modes d'adressage spécifiés dans les champs d'adresse, les adresses des opérandes sont calculées et des opérations de lecture en mémoire sont effectuées pour lire les opérandes.

La CU et l'ALU exécutent l'opération spécifiée dans le champ opcode de l'instruction. Dans le registre des drapeaux du processeur, les signes de l'opération sont stockés.

V. Si nécessaire, l'AG effectue l'opération d'écriture du résultat en mémoire.

Si la dernière commande n'était pas "arrêter le processeur", la séquence d'opérations décrite est à nouveau exécutée. Cette séquence d'opérations est appelée cycle du processeur .

Dans des ordinateurs spécifiques, la mise en œuvre de cet algorithme peut varier légèrement. Mais en principe, le fonctionnement de tout ordinateur von Neumann est décrit par un algorithme similaire et est une séquence d'opérations assez simples.

Un PC comprend trois appareils principaux : unité centrale, clavier et écran . Pour étendre les fonctionnalités du PC, des périphériques sont en outre connectés : imprimante, scanner, manipulateurs etc. Ces périphériques sont soit connectés à l'unité centrale à l'aide de câbles via les connecteurs situés sur la paroi arrière de l'unité centrale, soit insérés directement dans l'unité centrale. Le PC a une structure modulaire. Tous les modules sont connectés au bus système.

Utilisé pour contrôler les appareils externes contrôleurs (adaptateurs VU) . Après avoir reçu une commande du MP, le contrôleur, fonctionnant de manière autonome, libère le MP d'effectuer des fonctions spécifiques pour l'entretien d'un dispositif externe.

Il convient de noter que l'augmentation de la vitesse des MP modernes et des appareils individuels qui leur sont externes (mémoire principale et externe, systèmes vidéo, etc.) a conduit au problème de l'augmentation bande passante bus système lors de la connexion de ces appareils. Pour résoudre ce problème, des bus locaux ont été développés qui sont connectés directement au bus MP.

L'appareil principal d'un PC est unité système . Il se compose d'un CPU, d'un coprocesseur, d'une constante et d'un mémoire vive, contrôleurs, lecteurs de disques magnétiques, alimentation et autres modules fonctionnels. La configuration du PC peut être modifiée en connectant des modules supplémentaires. Pour assurer un fonctionnement cohérent des périphériques PC carte mère contient un chipset, c'est-à-dire un ensemble de microcircuits (puces).

Le chipset définit les principales caractéristiques de la carte :

types de processeurs pris en charge ;

La fréquence maximale du bus système ;

logique de commutation de l'appareil ;

types pris en charge et taille maximum mémoire principale;

vitesse de travail avec chaque type de mémoire;

prise en charge du port graphique accéléré ;

type d'interface de disque et ses modes ;

le nombre maximal d'emplacements d'extension ;

Surveillance de l'ordinateur.

Le chipset d'un PC moderne se compose généralement de deux puces: le pont nord (North Bridge) ou le concentrateur de contrôleur de mémoire (eng. Memory Controller Hub, MCH), desservant les périphériques centraux et contenant les contrôleurs de la mémoire principale, bus graphique, bus système et bus mémoire, et le pont sud (South Bridge) ou I / O Controller Hub (ICH), contenant des contrôleurs pour les périphériques d'E / S et standard périphériques.

Schéma fonctionnel d'un ordinateur-Selon son objectif ordinateur - c'est un dispositif universel pour travailler avec l'information. Selon les principes de son dispositif, un ordinateur est un modèle de personne travaillant avec des informations.

Ordinateur personnel(PC) est un ordinateur conçu pour servir un lieu de travail. Selon ses caractéristiques, il peut différer des gros ordinateurs, mais il est fonctionnellement capable d'effectuer des opérations similaires. Selon le mode de fonctionnement, on distingue les modèles de PC de bureau (de bureau), portables (ordinateur portable et portable) et de poche (palmtop).

Matériel.Étant donné que l'ordinateur fournit les trois classes de méthodes d'information pour travailler avec des données (matérielles, logicielles et naturelles), il est courant de parler d'un système informatique comme composé de matériel et de logiciels travaillant ensemble. Les pièces qui composent le matériel d'un ordinateur sont appelées matériel. Ils effectuent tous les travaux physiques avec les données : enregistrement, stockage, transport et transformation tant dans la forme que dans le contenu, et les présentent également sous une forme propice à l'interaction avec les ressources naturelles. méthodes d'information personne.

La totalité du matériel d'un ordinateur est appelée sa configuration matérielle.

Logiciel. Les programmes peuvent être dans deux états : actif et passif. Dans l'état passif, le programme ne fonctionne pas et ressemble à des données dont le contenu est une information. Dans cet état, le contenu du programme peut être "lu" avec d'autres programmes, au fur et à mesure que des livres sont lus et modifiés. À partir de là, vous pouvez découvrir le but du programme et son fonctionnement. Dans l'état passif, les programmes sont créés, édités, stockés et transportés. Le processus de création et d'édition de programmes s'appelle la programmation.

Lorsque le programme est dans l'état actif, le contenu de ses données est traité comme des commandes selon lesquelles le matériel informatique fonctionne. Pour changer l'ordre de leur travail, il suffit d'interrompre l'exécution d'un programme et de lancer l'exécution d'un autre contenant un ensemble de commandes différent.

L'ensemble des programmes stockés sur un ordinateur le rend logiciel. L'ensemble des programmes préparés pour le travail est appelé logiciel installé. L'ensemble des programmes exécutés à un moment ou à un autre est appelé une configuration de programme.

Périphérique informatique. Tout ordinateur (même le plus grand) se compose de quatre parties :

  • des dispositifs d'entrée
  • dispositifs de traitement de l'information
  • périphériques de stockage
  • des dispositifs de sortie.

Structurellement, ces pièces peuvent être combinées dans un boîtier de la taille d'un livre, ou chaque pièce peut être constituée de plusieurs dispositifs plutôt encombrants.

Configuration matérielle de base du PC. La configuration matérielle de base d'un ordinateur personnel est appelée l'ensemble minimum de matériel suffisant pour commencer à travailler avec un ordinateur. Au fil du temps, le concept de la configuration de base évolue progressivement.

Le plus souvent, un ordinateur personnel se compose des appareils suivants :

  • Unité système
  • Moniteur
  • Clavier

De plus, d'autres périphériques d'entrée et de sortie peuvent être connectés, par exemple haut-parleurs, imprimante, scanner...

Unité système- unité principale Système d'ordinateur. Il contient des périphériques considérés comme internes. Les périphériques connectés à l'unité centrale depuis l'extérieur sont considérés comme externes. Pour les appareils externes, le terme équipement périphérique est également utilisé.
Moniteur- un dispositif de reproduction visuelle du personnage et informations graphiques. Sert de périphérique de sortie. Pour les PC de bureau, les moniteurs basés sur des tubes à rayons cathodiques sont actuellement les plus courants. Ils ressemblent vaguement aux téléviseurs domestiques.
Clavier- un dispositif à clavier conçu pour contrôler le fonctionnement d'un ordinateur et y saisir des informations. Les informations sont saisies sous forme de données de caractères alphanumériques.
Souris- dispositif de contrôle "graphique".

Périphériques internes d'un ordinateur personnel.
Les périphériques situés dans l'unité centrale sont considérés comme internes. Certains d'entre eux sont accessibles depuis le panneau avant, ce qui est pratique pour des changements rapides. supports d'informations comme les disquettes. Les connecteurs de certains appareils sont affichés sur le mur arrière - ils sont utilisés pour connecter des équipements périphériques. L'accès à certains périphériques de l'unité centrale n'est pas fourni - il n'est pas nécessaire pour un fonctionnement normal.

CPU. Le microprocesseur est le microcircuit principal d'un ordinateur personnel. Tous les calculs y sont effectués. La principale caractéristique du processeur est la fréquence d'horloge (mesurée en mégahertz, MHz). Plus la vitesse d'horloge est élevée, plus les performances du processeur sont élevées. Ainsi, par exemple, à une fréquence d'horloge de 500 MHz, le processeur peut changer son
état 500 millions de fois. Pour la plupart des opérations, un cycle ne suffit pas, donc le nombre d'opérations que le processeur peut effectuer par seconde dépend non seulement de la fréquence d'horloge, mais aussi de la complexité des opérations.

Le seul appareil que le processeur "connaît depuis sa naissance" est la RAM - elle fonctionne avec elle. C'est de là que viennent les données et les commandes. Les données sont copiées dans les cellules du processeur (elles sont appelées registres), puis converties conformément au contenu des instructions. Pour une image plus complète de la façon dont le processeur interagit avec la RAM, vous obtiendrez dans les chapitres sur les bases de la programmation.

RAM. La RAM peut être considérée comme une vaste gamme de cellules qui stockent des données numériques et des commandes lorsque l'ordinateur est allumé. La quantité de RAM est mesurée en millions d'octets - mégaoctets (Mo).

Le processeur peut accéder à n'importe quelle cellule de RAM (octet) car il possède une adresse numérique unique. Le processeur ne peut pas accéder à un bit individuel de RAM, puisque le bit n'a pas d'adresse. En même temps, le processeur peut changer l'état de n'importe quel bit, mais cela nécessite plusieurs actions.

Carte mère. La carte mère est la plus grande carte d'un ordinateur personnel. Là-dessus se trouvent les autoroutes qui relient le processeur à la RAM - les soi-disant pneus. Une distinction est faite entre le bus de données, par lequel le processeur copie les données des cellules mémoire, le bus d'adresses, par lequel il se connecte à des cellules mémoire spécifiques, et le bus de commande, par lequel le processeur reçoit les commandes des programmes. Tous les autres périphériques internes de l'ordinateur sont également connectés aux bus de la carte mère. Contrôle le fonctionnement du chipset du microprocesseur de la carte mère - le soi-disant chipset.

Adaptateur vidéo. Une carte vidéo est un périphérique interne installé dans l'un des connecteurs de la carte mère. Les premiers ordinateurs personnels n'avaient pas d'adaptateurs vidéo. Au lieu de cela, une petite zone a été allouée dans la RAM pour stocker les données vidéo. Un microcircuit spécial (contrôleur vidéo) lit les données des cellules de mémoire vidéo et contrôle le moniteur en conséquence.

Au fur et à mesure que les capacités graphiques des ordinateurs s'amélioraient, la zone de mémoire vidéo a été séparée de la RAM principale et, avec le contrôleur vidéo, a été allouée à un périphérique séparé, appelé adaptateur vidéo. Les adaptateurs vidéo modernes ont leur propre processeur de calcul (processeur vidéo), ce qui a réduit la charge sur le processeur principal lors de la création d'images complexes. Le processeur vidéo joue un rôle particulièrement important lors de la construction sur un écran plat. Images 3D. Lors de telles opérations, il doit notamment effectuer de nombreux calculs mathématiques.

Dans certains modèles de cartes mères, les fonctions de l'adaptateur vidéo sont exécutées par des puces de chipset - dans ce cas, ils disent que l'adaptateur vidéo est intégré à carte mère. Si l'adaptateur vidéo est conçu comme un périphérique séparé, il s'appelle une carte vidéo. Le connecteur de la carte vidéo est situé sur la paroi arrière. Un moniteur y est connecté.

Adaptateur son. Pour les ordinateurs IBM PC, le travail avec le son n'était pas fourni à l'origine. Pendant les dix premières années de son existence, les ordinateurs de cette plate-forme étaient considérés comme du matériel de bureau et se passaient de dispositifs sonores. Actuellement, les outils pour travailler avec le son sont considérés comme standard. Pour cela sur carte mère adaptateur audio est installé. Il peut être intégré au chipset de la carte mère ou implémenté comme une carte plug-in séparée appelée carte son.
Les connecteurs de la carte son sont situés à l'arrière de l'ordinateur. Pour diffuser du son, connectez-y des haut-parleurs ou un casque. Un connecteur séparé sert à connecter un microphone. En présence de programme spécial cela vous permet d'enregistrer du son. Il existe également un connecteur (sortie ligne) pour la connexion à un équipement externe d'enregistrement ou de reproduction sonore (magnétophones, amplificateurs, etc.).

Disque dur.Étant donné que la RAM de l'ordinateur est effacée lorsque l'alimentation est coupée, un périphérique est nécessaire pour le stockage à long terme des données et des programmes. Actuellement, les soi-disant disques durs sont largement utilisés à ces fins.
Principe de fonctionnement disque dur est basé sur l'enregistrement des changements dans le champ magnétique près de la tête d'enregistrement.

Principal dur disque est la capacité, mesurée en gigaoctets (milliards d'octets), Go. La taille moyenne d'un disque dur moderne est de 80 à 160 Go, et ce paramètre ne cesse de croître.

Lecteur de disquette. Pour transporter des données entre des ordinateurs distants, on utilise des disquettes dites. Une disquette standard (floppy disk) a une capacité relativement petite de 1,44 Mo. Selon les normes modernes, cela est totalement insuffisant pour la plupart des tâches de stockage et de transport de données, mais le faible coût des supports et le degré élevé de disponibilité pour le travail ont fait des disquettes le support de stockage le plus courant.

Pour écrire et lire des données placées sur des disquettes, un périphérique spécial est utilisé - un lecteur de disque. Le trou de réception du lecteur est affiché sur le panneau avant de l'unité centrale.

Lecteur CD ROM. Pour transporter de grandes quantités de données, il est pratique d'utiliser des CD-ROM. Ces disques vous permettent uniquement de lire des données précédemment écrites - vous ne pouvez pas y écrire. La capacité d'un disque est d'environ 650 à 700 Mo.

Les lecteurs de CD-ROM sont utilisés pour lire les CD. Le paramètre principal d'un lecteur de CD-ROM est la vitesse de lecture. Il est mesuré en plusieurs unités. L'unité est la vitesse de lecture, approuvée au milieu des années 80. pour les CD musicaux (CD audio). Les lecteurs de CD-ROM modernes offrent une vitesse de lecture de 40x à 52x.
Inconvénient principal Lecteurs de CD-ROM- l'impossibilité d'enregistrer des disques - surmontée dans les appareils modernes à enregistrement unique - CD-R. Il existe également des périphériques CD-RW qui permettent plusieurs enregistrements.

Le principe de stockage des données sur CD n'est pas magnétique, comme les disquettes, mais optique.

Ports de communication. Pour communiquer avec d'autres appareils, tels qu'une imprimante, un scanner, un clavier, une souris, etc., l'ordinateur est équipé de ce qu'on appelle des ports. Un port n'est pas simplement un connecteur pour connecter un équipement externe, bien qu'un port se termine par un connecteur. Un port est un appareil plus complexe qu'un simple connecteur, qui possède ses propres microcircuits et est contrôlé par un logiciel.

Adaptateur de réseau. Les ordinateurs ont besoin d'adaptateurs réseau pour pouvoir communiquer entre eux. Ce dispositif garantit que le processeur ne soumet pas une nouvelle portion de données à un port externe tant que l'adaptateur réseau d'un ordinateur voisin n'a pas copié la portion précédente sur lui-même. Après cela, le processeur reçoit un signal indiquant que les données ont été prises et que de nouvelles peuvent être soumises. C'est ainsi que s'effectue la transmission.

Lorsqu'un adaptateur réseau "apprend" d'un adaptateur voisin qu'il possède une donnée, il la copie sur lui-même, puis vérifie si elle lui est adressée. Si oui, il les transmet au processeur. Sinon, il les expose au port de sortie, d'où la carte réseau du prochain ordinateur voisin les récupérera. C'est ainsi que les données se déplacent entre les ordinateurs jusqu'à ce qu'elles atteignent la destination.
Les cartes réseau peuvent être intégrées à la carte mère, mais sont généralement installées séparément en tant que cartes d'extension appelées cartes réseau.

Les calculateurs électroniques sont généralement classés selon un certain nombre de critères, notamment : Fonctionnalité et la nature des tâches à résoudre, selon le mode d'organisation processus informatique, par ses caractéristiques architecturales et sa puissance de calcul.

Selon la fonctionnalité et la nature des tâches à résoudre, il y a :

Ordinateurs universels (à usage général);

Ordinateurs orientés problèmes ;

ordinateurs spécialisés.

Ordinateurs centraux sont conçus pour résoudre une variété de problèmes d'ingénierie et techniques, caractérisés par la complexité des algorithmes et une grande quantité de données traitées.

Ordinateurs orientés problèmes conçu pour résoudre un éventail plus restreint de tâches liées à l'enregistrement, à l'accumulation et au traitement de petites quantités de données.

Ordinateurs spécialisés sont utilisés pour résoudre une gamme étroite de tâches (microprocesseurs et contrôleurs qui remplissent les fonctions de contrôle des dispositifs techniques).

Selon le mode d'organisation du processus informatique Les ordinateurs sont divisés en monoprocesseur et multiprocesseur, ainsi qu'en série et en parallèle.

Monoprocesseur. L'ordinateur a un processeur central et toutes les opérations de calcul et les opérations de contrôle des dispositifs d'entrée-sortie sont effectuées sur ce processeur.

Multiprocesseur. L'ordinateur comporte plusieurs processeurs entre lesquels sont redistribuées les fonctions d'organisation du processus de calcul et de contrôle des dispositifs d'entrée-sortie d'informations.

Séquentiel. Ils fonctionnent en mode programme unique, lorsque l'ordinateur est conçu de manière à ne pouvoir exécuter qu'un seul programme et que toutes ses ressources ne sont utilisées que dans l'intérêt du programme exécutable.

Parallèle. Ils fonctionnent en mode multiprogramme, lorsque plusieurs programmes utilisateurs sont en cours d'exécution dans l'ordinateur, et les ressources sont partagées entre ces programmes, assurant leur exécution parallèle.

Selon les caractéristiques architecturales et la puissance de calcul, on distingue :



Considérons le schéma de classification des ordinateurs en fonction de cette caractéristique (Fig. 1).

Fig. 1. Classification des ordinateurs par caractéristiques architecturales

et la puissance de calcul.

Supercalculateurs- Ce sont les ordinateurs les plus puissants en termes de vitesse et de performances. Les supercalculateurs incluent "Cray" et "IBM SP2" (USA). Ils sont utilisés pour résoudre des problèmes de calcul et des simulations à grande échelle, pour des calculs complexes en aérodynamique, météorologie, physique des hautes énergies, et trouvent également une application dans le secteur financier.

Grandes machines ou mainframes (Mainframe). Les mainframes sont utilisés dans le secteur financier, l'industrie de la défense, et servent à équiper les centres informatiques départementaux, territoriaux et régionaux.

Ordinateurs moyens usage général sont utilisés pour contrôler des processus de production technologiques complexes.

mini-ordinateur sont destinés à être utilisés comme complexes informatiques de contrôle, comme serveurs de réseau.

Micro-ordinateur sont des ordinateurs qui utilisent un microprocesseur comme unité centrale de traitement. Il s'agit notamment des micro-ordinateurs embarqués (intégrés dans divers équipements, appareils ou dispositifs) et des ordinateurs personnels PC.

Ordinateur personnel. Développement rapide acquis au cours des 20 dernières années. Un ordinateur personnel (PC) est conçu pour servir un lieu de travail unique et est capable de répondre aux besoins des petites entreprises et des particuliers. Avec l'avènement d'Internet, la popularité du PC a considérablement augmenté, car avec l'aide d'un ordinateur personnel, vous pouvez utiliser des informations scientifiques, de référence, éducatives et de divertissement.

Les ordinateurs personnels comprennent les ordinateurs de bureau et les ordinateurs portables. Les ordinateurs portables comprennent les ordinateurs portables (notebook ou bloc-notes) et les assistants numériques personnels (ordinateurs personnels de poche - PC de poche, assistants numériques personnels - PDA et Palmtop).

Calculateurs embarqués. Les ordinateurs utilisés dans divers appareils ah, des systèmes, des complexes pour la mise en œuvre de fonctions spécifiques. Par exemple, le diagnostic automobile.

Depuis 1999, une norme de certification internationale, la spécification RS99, est utilisée pour classer les PC. Selon cette spécification, les PC sont répartis dans les groupes suivants :

PC de masse (PC grand public);

PC professionnels (PC de bureau) ;

ordinateurs portables (PC portables);

postes de travail (WorkStation);

PC de divertissement (PC de divertissement).

La plupart des PC sont massif et inclure un ensemble de matériel standard (minimum requis). Cet ensemble comprend : unité centrale, écran, clavier, souris. Si nécessaire, cet ensemble peut être facilement complété par d'autres appareils à la demande de l'utilisateur, par exemple une imprimante.

PC professionnels inclure un minimum de moyens de reproduction graphique et sonore.

PC portables diffèrent par la présence de moyens de communication d'accès à distance.

Postes de travail répondre aux besoins accrus en mémoire des périphériques de stockage.

PC de divertissement axé sur la reproduction de haute qualité des graphiques et du son.

Par caractéristiques de conception Les PC sont divisés en :

stationnaire (ordinateur de bureau, bureau);

portable:

Portable (ordinateur portable);

blocs-notes (cahiers);

poche (Paume).

Pour une étude efficace des technologies informatiques appliquées, il est extrêmement important d'avoir une compréhension claire du matériel et des logiciels de la technologie informatique. La composition de la technologie informatique s'appelle configuration . Matériel et logiciel la technologie informatique est considérée séparément. En conséquence, nous considérons séparément configuration matérielle et eux programme configuration. Ce principe de séparation est d'une importance particulière pour l'informatique, car très souvent la solution des mêmes problèmes peut être fournie à la fois par le matériel et le logiciel. Les critères de choix d'une solution matérielle ou logicielle sont la performance et l'efficacité. Par exemple, ou tapez du texte dans éditeur de texte, ou utilisez un scanner.

Configuration matérielle de base d'un ordinateur personnel

L'ordinateur personnel est un système technique universel. Son configuration (composition de l'équipement) peut être modifié de manière flexible selon les besoins. Cependant, il existe une notion configuration de base , ce qui est considéré comme typique, c'est-à-dire équipement minimum. Dans un tel kit, l'ordinateur est généralement fourni. Le concept de configuration de base peut changer. Actuellement, la configuration de base est considérée appareils suivants(Fig. 2.1.) :


Jetons un coup d'œil à ses parties.

Vers le principal moyens techniques ordinateur personnel comprend :

- unité système;

- moniteur (affichage);

- clavier.

De plus, vous pouvez vous connecter à un ordinateur, par exemple :

- Imprimante;

- souris;

- numériseur;

- modem (modulateur-démodulateur);

- traceur;

- manette, etc...

Unité système

L'unité centrale est le nœud principal à l'intérieur duquel les composants les plus importants sont installés. Unité système (voir fig. 2.2., 2.3.) - il s'agit d'un cas dans lequel se trouve presque tout le matériel de l'ordinateur.

Les périphériques situés à l'intérieur de l'unité centrale sont appelés interne, et les appareils qui y sont connectés de l'extérieur sont appelés externe. Externe appareils supplémentaires, aussi appelé périphérique.

Organisation interne bloc système :

· carte mère ;

· Disque dur :

lecteur de disquette;

Lecteur CD ROM;

carte vidéo (adaptateur vidéo);

· carte son;

· Unité de puissance.

Les systèmes situés sur carte mère:

· RAM;

processeur;

Puce ROM et système BIOS ;

interfaces de bus, etc.

Les disques magnétiques, contrairement à la RAM, sont conçus pour le stockage permanent d'informations.

Il existe deux types de disques magnétiques utilisés dans un PC :


disque dur (disque dur);

Disquettes amovibles (disquettes).

Le disque dur est conçu pour stocker en permanence les informations plus ou moins souvent utilisées dans le travail : programmes du système d'exploitation, compilateurs de langages de programmation, programmes de service (entretien), programmes d'application utilisateur, document texte, fichiers de base de données, etc. Winchester est de loin supérieur aux disquettes en termes de vitesse d'accès, de capacité et de fiabilité.

3. Informatique 1

3.1 Histoire du développement de la technologie informatique 1

3.2 Méthodes de classification informatique 3

3.3 Autres classifications d'ordinateurs 5

3.4 Composition du système informatique 7

3.4.1 Matériel 7

3.4.2 Logiciel 7

3.5 Classification des logiciels d'application 9

3.6 Classification des logiciels utilitaires 12

3.7 Le concept d'information et de support mathématique des systèmes informatiques 13

3.8 Débriefing 13

  1. Ingénierie informatique

    1. Histoire du développement de l'informatique

Système informatique, ordinateur

Trouver des moyens et des méthodes de mécanisation et d'automatisation du travail est l'une des tâches principales des disciplines techniques. L'automatisation du travail avec des données a ses propres caractéristiques et différences par rapport à l'automatisation d'autres types de travail. Pour cette classe de tâches, des types spéciaux d'appareils sont utilisés, dont la plupart sont des appareils électroniques. Un ensemble de dispositifs destinés au traitement automatique ou automatisé des données est appelé la technologie informatique, Un ensemble spécifique d'appareils et de programmes interactifs conçus pour servir une zone de travail est appelé système informatique. Le cœur de la plupart des systèmes informatiques est ordinateur.

Un ordinateur est un appareil électronique conçu pour automatiser la création, le stockage, le traitement et le transport de données.

Le principe de fonctionnement de l'ordinateur

Dans la définition d'un ordinateur en tant qu'appareil, nous avons indiqué une caractéristique déterminante - électronique. Cependant, les calculs automatiques n'étaient pas toujours effectués par des appareils électroniques. Des dispositifs connus et mécaniques capables d'effectuer automatiquement des calculs.

en cours d'analyse histoire ancienne technologie informatique, certains chercheurs étrangers se réfèrent souvent à un dispositif de comptage mécanique comme un ancien prédécesseur d'un ordinateur. abaque. L'approche «depuis le boulier» indique une erreur méthodologique profonde, car le boulier n'a pas la propriété d'effectuer automatiquement des calculs, et pour un ordinateur, il est décisif.

L'abaque est le premier dispositif mécanique de calcul, à l'origine une plaque d'argile avec des rainures dans lesquelles des pierres représentant des nombres étaient disposées. L'apparition de l'abaque est attribuée au quatrième millénaire av. e. Le lieu d'origine est l'Asie. Au Moyen Âge en Europe, l'abaque a été remplacé par des tables graphiques. Les calculs avec leur aide ont été appelés compte sur les lignes, et en Russie aux XVIe et XVIIe siècles, une invention beaucoup plus avancée est apparue, qui est encore utilisée aujourd'hui - Abaque russe.

Dans le même temps, nous connaissons bien un autre appareil capable d'effectuer automatiquement des calculs - il s'agit d'une montre. Quel que soit le principe de fonctionnement, tous les types de montres (à sable, à eau, mécaniques, électriques, électroniques, etc.) ont la capacité de générer des mouvements ou des signaux à intervalles réguliers et d'enregistrer les changements qui se produisent dans ce cas, c'est-à-dire d'effectuer sommation automatique de signaux ou de mouvements. Ce principe peut être retrouvé même dans les cadrans solaires ne contenant qu'un dispositif d'enregistrement (le rôle du générateur est assuré par le système Terre-Soleil).

Une horloge mécanique est un appareil composé d'un appareil qui effectue automatiquement des mouvements à intervalles réguliers et d'un appareil pour enregistrer ces mouvements. L'origine de la première montre mécanique est inconnue. Les premiers exemples remontent au 14ème siècle et appartiennent à des monastères (horloge de la tour).

Au cœur de tout ordinateur moderne, comme dans horloge électronique, mensonges générateur d'horloge, générer, à intervalles réguliers, des signaux électriques qui sont utilisés pour alimenter tous les appareils d'un système informatique. La gestion informatique revient en fait à gérer la répartition des signaux entre les appareils. Un tel contrôle peut être effectué automatiquement (dans ce cas, on parle de contrôle du programme) ou manuellement à l'aide de commandes externes - boutons, interrupteurs, cavaliers, etc. (dans les premiers modèles). Dans les ordinateurs modernes, le contrôle externe est largement automatisé à l'aide d'interfaces logiques matérielles spéciales auxquelles sont connectés des périphériques de contrôle et d'entrée de données (clavier, souris, joystick et autres). Contrairement au contrôle de programme, un tel contrôle est appelé interactif.

Sources primaires mécaniques

Le premier dispositif automatique au monde permettant d'effectuer l'opération d'addition a été créé sur la base d'une montre mécanique. En 1623, il a été développé par Wilhelm Schickard, professeur de langues orientales à l'Université de Tübingen (Allemagne). Aujourd'hui, le modèle de travail de l'appareil a été reproduit conformément aux dessins et a confirmé ses performances. L'inventeur lui-même dans ses lettres a appelé la machine "horloge sommatrice".

En 1642, le mécanicien français Blaise Pascal (1623-1662) met au point un dispositif d'addition plus compact, qui devient la première calculatrice mécanique produite en série au monde (principalement pour les besoins des prêteurs et des changeurs parisiens). En 1673, le mathématicien et philosophe allemand G. W. Leibniz (1646-1717) a créé une calculatrice mécanique capable d'effectuer des opérations de multiplication et de division en répétant à plusieurs reprises des opérations d'addition et de soustraction.

Au XVIIIe siècle, connu sous le nom de siècle des Lumières, de nouveaux modèles plus avancés sont apparus, mais le principe de contrôle mécanique des opérations de calcul est resté le même. L'idée de programmer des opérations de calcul est venue de la même industrie horlogère. Les anciennes horloges des tours monastiques étaient disposées de manière à enclencher le mécanisme associé au système de cloche à une heure donnée. Une telle programmation était difficile - la même opération a été effectuée en même temps.

L'idée d'une programmation flexible des dispositifs mécaniques à l'aide de ruban de papier perforé a été réalisée pour la première fois en 1804 dans le métier Jacquard, après quoi il ne restait plus qu'une étape pour contrôle du programme opérations informatiques.

Cette étape a été franchie par l'éminent mathématicien et inventeur anglais Charles Babbage (1792-1871) dans sa machine analytique, qui, malheureusement, n'a jamais été entièrement construite par l'inventeur de son vivant, mais a été reproduite aujourd'hui d'après ses dessins, de sorte qu'aujourd'hui nous avons le droit de parler de la machine analytique comme d'un appareil réel. Une caractéristique du moteur analytique était qu'il a été implémenté pour la première fois ici le principe de séparation des informations en commandes et en données. Le moteur analytique contenait deux grands nœuds - un "entrepôt" et un "moulin". Les données étaient saisies dans la mémoire mécanique de «l'entrepôt» en installant des blocs d'engrenages, puis traitées dans le «moulin» à l'aide de commandes saisies à partir de cartes perforées (comme dans un métier Jacquard).

Les chercheurs du travail de Charles Babbage notent certainement le rôle particulier dans le développement du projet Analytical Engine de la comtesse Augusta Ada Lovelace (1815-1852), fille du célèbre poète Lord Byron. C'est elle qui a eu l'idée d'utiliser des cartes perforées pour programmer des opérations de calcul (1843). En particulier, dans une de ses lettres, elle écrit : « La machine analytique tisse des motifs algébriques de la même manière qu'un métier à tisser reproduit des fleurs et des feuilles. Lady Adu peut à juste titre être qualifiée de toute première programmeuse au monde. Aujourd'hui, l'un des langages de programmation célèbres porte son nom.

L'idée de Charles Babbage de considération séparée commandes Et données s'est révélée extraordinairement fructueuse. Au XXe siècle. il a été développé dans les principes de John von Neumann (1941), et aujourd'hui dans le calcul du principe de considération séparée programmes Et données c'est tres important. Il est pris en compte aussi bien dans le développement des architectures informatiques modernes que dans le développement des programmes informatiques.

Sources mathématiques

Si nous pensons aux objets avec lesquels travaillaient les premiers précurseurs mécaniques de l'ordinateur électronique moderne, nous devons reconnaître que les nombres étaient représentés soit comme des mouvements linéaires de mécanismes à chaîne et à crémaillère, soit comme des mouvements angulaires de mécanismes à engrenages et à levier. Dans les deux cas, il s'agissait de mouvements qui ne pouvaient qu'affecter les dimensions des appareils et la vitesse de leur travail. Seule la transition de l'enregistrement des mouvements à l'enregistrement des signaux a permis de réduire considérablement les dimensions et d'augmenter la vitesse. Cependant, sur le chemin de cette réalisation, il a été nécessaire d'introduire plusieurs principes et concepts plus importants.

Système binaire de Leibniz. Dans les appareils mécaniques, les engrenages peuvent avoir beaucoup de fixes et, important, différent entre des provisions. Le nombre de telles positions est au moins égal au nombre de dents d'engrenage. En électricité et appareils électroniques nous parlons pas sur l'inscription des provisionséléments structurels, mais sur l'enregistrement Étatséléments de l'appareil. si stable et distinguable il n'y a que deux états : marche - arrêt ; ouvert fermé; chargé - déchargé, etc. Par conséquent, le système décimal traditionnel utilisé dans les calculatrices mécaniques n'est pas pratique pour les appareils informatiques électroniques.

La possibilité de représenter n'importe quel nombre (et pas seulement des nombres) avec des chiffres binaires a été proposée pour la première fois par Gottfried Wilhelm Leibniz en 1666. Il est venu au système de nombre binaire tout en recherchant le concept philosophique d'unité et de lutte des contraires. Une tentative de présenter l'univers comme une interaction continue de deux principes ("noir" et "blanc", mâle et femelle, bien et mal) et d'appliquer les méthodes des mathématiques "pures" à son étude a incité Leibniz à étudier les propriétés du binaire. représentation des données. Il faut dire que Leibniz avait déjà alors l'idée de la possibilité d'utiliser le système binaire dans un dispositif informatique, mais comme cela n'était pas nécessaire pour les dispositifs mécaniques, il n'a pas utilisé les principes de la système binaire dans sa calculatrice (1673).

La logique mathématique de George Boole Parlant des travaux de George Boole, les chercheurs en histoire de l'informatique soulignent certainement que cet éminent scientifique anglais de la première moitié du XIXe siècle était un autodidacte. C'est peut-être précisément en raison de l'absence d'une éducation « classique » (au sens de l'époque) que George Boole a introduit des changements révolutionnaires dans la logique en tant que science.

Étant engagé dans l'étude des lois de la pensée, il a appliqué en logique un système de notation formelle et de règles, proche des mathématiques. Par la suite, ce système appelé algèbre logique ou Algèbre de Boole. Les règles de ce système sont applicables à une grande variété d'objets et à leurs groupes. (ensembles, selon la terminologie de l'auteur). Le but principal du système, tel que conçu par J. Boole, était d'encoder des énoncés logiques et de réduire les structures des inférences logiques à des expressions simples proches dans la forme des formules mathématiques. Le résultat de l'évaluation formelle d'une expression logique est l'une des deux valeurs logiques : vrai ou mensonge.

L'importance de l'algèbre logique a longtemps été ignorée, car ses techniques et méthodes ne contenaient pas d'avantages pratiques pour la science et la technologie de l'époque. Cependant, lorsqu'il est devenu en principe possible de créer des installations informatiques sur une base électronique, les opérations introduites par Boole se sont avérées très utiles. Ils se concentrent initialement sur le travail avec seulement deux entités : vrai Et mensonge. Il est facile de voir comment ils se sont avérés utiles pour travailler avec du code binaire, qui dans les ordinateurs modernes est également représenté par seulement deux signaux : zéro Et unité.

Ce n'est pas tout le système de George Boole (ainsi que toutes les opérations logiques qu'il a proposées) qui a été utilisé dans la création des ordinateurs électroniques, mais quatre opérations de base : Et (traversée), OU (Syndicat), PAS (appel) et OU EXCLUSIF - sous-tendent le travail de tous les types de processeurs d'ordinateurs modernes.

Riz. 3.1. Opérations de base de l'algèbre booléenne


Classement du matériel informatique

1. Matériel

La composition d'un système informatique s'appelle une configuration. Le matériel informatique et les logiciels sont considérés séparément. En conséquence, la configuration matérielle des systèmes informatiques et leur configuration logicielle sont considérées séparément. Ce principe de séparation est d'une importance particulière pour l'informatique, car très souvent la solution des mêmes problèmes peut être fournie à la fois par le matériel et le logiciel. Les critères de choix d'une solution matérielle ou logicielle sont la performance et l'efficacité. Il est généralement admis que les solutions matérielles sont en moyenne plus chères, mais la mise en œuvre Solutions logicielles nécessite un personnel plus qualifié.

POUR matériel les systèmes informatiques comprennent des appareils et des appareils qui forment une configuration matérielle. Ordinateurs modernes et les systèmes informatiques ont une conception modulaire en blocs - la configuration matérielle nécessaire à l'exécution types spécifiques travaux, qui peuvent être assemblés à partir d'unités et de blocs prêts à l'emploi.

Les principaux composants matériels du système informatique sont: la mémoire, le processeur central et les périphériques, qui sont interconnectés par une autoroute système (Fig. 1.) La mémoire principale est conçue pour stocker des programmes et des données sous forme binaire et est organisée comme un ordre réseau de cellules, dont chacune a une adresse numérique unique. En règle générale, la taille de la cellule est de 1 octet. Opérations typiques sur la mémoire principale : lecture et écriture du contenu d'une cellule avec une adresse spécifique.

2. CPU

L'unité centrale de traitement est le dispositif central d'un ordinateur qui effectue des opérations de traitement de données et contrôle les périphériques de l'ordinateur. La composition de l'unité centrale de traitement comprend:

Dispositif de contrôle - organise le processus d'exécution des programmes et coordonne l'interaction de tous les dispositifs du système informatique pendant son fonctionnement ;

Unité logique arithmétique - effectue des opérations arithmétiques et logiques sur les données : addition, soustraction, multiplication, division, comparaison, etc. ;

Le périphérique de stockage est mémoire interne processeur, qui se compose de registres, lors de l'utilisation desquels, le processeur effectue des calculs et stocke les résultats intermédiaires ; pour accélérer le travail avec la RAM, une mémoire cache est utilisée, dans laquelle les commandes et les données de la RAM sont pompées à l'avance, qui sont nécessaires au processeur pour les opérations ultérieures;

Générateur d'horloge - génère des impulsions électriques qui synchronisent le fonctionnement de tous les nœuds informatiques.

Le processeur central effectue diverses opérations de données à l'aide de cellules spécialisées pour stocker les variables clés et les résultats temporaires - registres internes. Les registres sont divisés en deux types (Fig. 2.):

Registres à usage général - utilisés pour le stockage temporaire des variables locales clés et des résultats intermédiaires des calculs, comprennent les registres de données et les registres de pointeurs ; fonction principale est de fournir accès rapide aux données fréquemment utilisées (généralement sans accès à la mémoire).

Registres spécialisés - utilisés pour contrôler le fonctionnement du processeur, les plus importants d'entre eux sont : le registre d'instructions, le pointeur de pile, le registre d'indicateurs et le registre contenant des informations sur l'état du programme.

Le programmeur peut utiliser des registres de données à sa discrétion pour stocker temporairement des objets (données ou adresses) et effectuer les opérations requises sur eux. Les registres d'index, comme les registres de données, peuvent être utilisés arbitrairement ; leur objectif principal est de stocker des index ou des décalages de données et d'instructions à partir du début de l'adresse de base (lors de la récupération des opérandes de la mémoire). L'adresse de base peut se trouver dans les registres de base.

Les registres de segment sont un élément essentiel de l'architecture du processeur, fournissant un espace d'adressage de 20 bits avec des opérandes de 16 bits. Registres de segments principaux : CS - registre de segments de code ; DS - registre de segments de données ; SS - registre de segment de pile, ES - registre de segment supplémentaire. La mémoire est accessible via des segments - des formations logiques superposées sur n'importe quelle partie de l'espace d'adressage physique. L'adresse de début de segment divisée par 16 (sans le chiffre hexadécimal le moins significatif) est entrée dans l'un des registres de segment ; après quoi l'accès est accordé à une section de mémoire à partir d'une adresse de segment donnée.

L'adresse de toute cellule de mémoire se compose de deux mots, dont l'un détermine l'emplacement dans la mémoire du segment correspondant, et l'autre - le décalage dans ce segment. La taille du segment est déterminée par la quantité de données qu'il contient, mais ne peut jamais dépasser 64 Ko, ce qui est déterminé par la valeur de décalage maximale possible. L'adresse de segment du segment d'instruction est stockée dans le registre CS, et le décalage par rapport à l'octet adressé est stocké dans le registre de pointeur d'instruction IP.

Fig.2. Registres de processeur 32 bits

Après le chargement du programme, le décalage de la première commande du programme est entré dans l'IP. Le processeur, en le lisant depuis la mémoire, incrémente le contenu de IP exactement de la longueur de cette instruction (les instructions du processeur Intel peuvent avoir une longueur de 1 à 6 octets), à la suite de quoi IP pointe vers la deuxième instruction du programme. Après avoir exécuté la première commande, le processeur lit la seconde dans la mémoire, augmentant à nouveau la valeur de IP. Par conséquent, IP contient toujours le décalage de la commande suivante - la commande suivant celle en cours d'exécution. L'algorithme décrit n'est violé que lors de l'exécution de commandes de saut, d'appels de sous-programmes et de services d'interruption.

L'adresse de segment du segment de données est stockée dans le registre DS, le décalage peut être dans l'un des registres à usage général. Un registre de segment ES supplémentaire est utilisé pour accéder aux champs de données qui ne font pas partie du programme, tels que la mémoire tampon vidéo ou les cellules système. Cependant, si nécessaire, il peut être configuré pour l'un des segments du programme. Par exemple, si le programme fonctionne avec une grande quantité de données, vous pouvez leur fournir deux segments et accéder à l'un via le registre DS et à l'autre via le registre ES.

Le registre de pointeur de pile SP est utilisé comme pointeur de sommet de pile. Une pile est une zone de programme pour le stockage temporaire de données arbitraires. La commodité de la pile réside dans le fait que sa zone est réutilisée et que le stockage des données sur la pile et leur extraction à partir de là se font à l'aide de commandes push et pop sans spécifier de noms. La pile est traditionnellement utilisée pour stocker le contenu des registres utilisés par le programme avant d'appeler le sous-programme, qui à son tour utilisera les registres du processeur à ses propres fins. Le contenu original des registres est extrait de la pile au retour du sous-programme. Une autre technique courante consiste à transmettre les paramètres requis à un sous-programme via la pile. Le sous-programme, sachant dans quel ordre les paramètres sont placés sur la pile, peut les prendre à partir de là et les utiliser dans son exécution.

Une caractéristique distinctive de la pile est l'ordre particulier de récupération des données qu'elle contient : à tout moment, seul l'élément supérieur est disponible sur la pile, c'est-à-dire l'élément chargé en dernier sur la pile. Faire sauter l'élément supérieur de la pile rend l'élément suivant disponible. Les éléments de la pile sont situés dans la zone mémoire allouée à la pile, en partant du bas de la pile (depuis son adresse maximale) jusqu'aux adresses successivement décroissantes. L'adresse de l'élément accessible par le haut est stockée dans le registre de pointeur de pile SP.

Les registres spéciaux ne sont disponibles qu'en mode privilégié et sont utilisés par le système d'exploitation. Ils contrôlent divers blocs de cache, la mémoire principale, les périphériques d'E/S et d'autres périphériques du système informatique.

Un registre est disponible en mode privilégié et en mode utilisateur. Il s'agit du registre PSW (Program State Word), appelé registre d'indicateurs. Le registre des indicateurs contient divers bits nécessaires au processeur, les plus importants étant les codes de condition utilisés dans les comparaisons et les sauts conditionnels. Ils sont définis à chaque cycle de l'ALU du processeur et reflètent l'état du résultat de l'opération précédente. Le contenu du registre des drapeaux dépend du type de système informatique et peut inclure des champs supplémentaires qui indiquent : le mode machine (par exemple, utilisateur ou privilégié) ; bit de trace (utilisé pour le débogage) ; niveau de priorité du processeur ; statut d'activation d'interruption. Le registre des drapeaux est généralement lu en mode utilisateur, mais certains champs ne peuvent être écrits qu'en mode privilégié (par exemple, le bit qui spécifie le mode).

Le registre de pointeur d'instruction contient l'adresse de l'instruction suivante dans la file d'attente pour exécution. Une fois qu'une instruction est sélectionnée dans la mémoire, le registre d'instructions est mis à jour et le pointeur passe à l'instruction suivante. Le pointeur d'instruction suit l'exécution du programme en indiquant à chaque instant l'adresse relative de l'instruction suivant celle en cours d'exécution. Le registre est inaccessible par programmation ; l'adresse est incrémentée par le microprocesseur en tenant compte de la longueur de l'instruction en cours. Les instructions pour les sauts, les interruptions, l'appel de sous-programmes et leur retour modifient le contenu du pointeur, effectuant ainsi des sauts vers les points requis dans le programme.

Le registre accumulateur est utilisé dans la grande majorité des commandes. Les commandes fréquemment utilisées qui utilisent ce registre ont un format raccourci.

Pour traiter les informations, les données sont généralement transférées des cellules de mémoire vers des registres à usage général, l'opération est effectuée unité centrale de traitement et transférer les résultats dans la mémoire principale. Les programmes sont stockés sous la forme d'une séquence d'instructions machine à exécuter par la CPU. Chaque commande se compose d'un champ d'opération et de champs d'opérande - les données sur lesquelles cette opération est effectuée. L'ensemble des instructions machine est appelé langage machine. L'exécution du programme s'effectue comme suit. L'instruction machine pointée par le compteur de programme est lue à partir de la mémoire et copiée dans le registre d'instructions, où elle est décodée puis exécutée. Après son exécution, le compteur de programme pointe sur l'instruction suivante, et ainsi de suite. Ces actions sont appelées un cycle machine.

La plupart des processeurs ont deux modes de fonctionnement : le mode noyau et le mode utilisateur, qui est spécifié par un bit dans le mot d'état du processeur (registre d'indicateur). Lorsque le processeur fonctionne en mode noyau, il peut exécuter toutes les instructions du jeu d'instructions et utiliser toutes les capacités du matériel. Le système d'exploitation fonctionne en mode noyau et donne accès à tout le matériel. Les programmes utilisateur s'exécutent en mode utilisateur, ce qui permet d'exécuter de nombreuses instructions, mais ne rend disponible qu'une partie du matériel.

Pour communiquer avec le système d'exploitation, le programme utilisateur doit émettre un appel système qui permet une transition vers le mode noyau et active les fonctions du système d'exploitation. L'instruction trap (interruption émulée) fait passer le mode processeur du mode utilisateur au mode noyau et transfère le contrôle au système d'exploitation. Une fois le travail terminé, le contrôle revient au programme utilisateur, à l'instruction suivant l'appel système.

Dans les ordinateurs, en plus des instructions pour effectuer des appels système, il existe des interruptions qui sont appelées dans le matériel pour avertir de situations exceptionnelles, par exemple, une tentative de division par zéro ou un débordement lors d'opérations en virgule flottante. Dans tous ces cas, le contrôle passe au système d'exploitation, qui doit décider quoi faire ensuite. Parfois, vous devez terminer le programme avec un message d'erreur, parfois vous pouvez l'ignorer (par exemple, si le nombre perd sa signification, vous pouvez le prendre égal à zéro) ou transférer le contrôle au programme lui-même pour gérer certains types de conditions.

Selon l'implantation des dispositifs par rapport au processeur central, on distingue les dispositifs internes et externes. Les périphériques externes incluent généralement la plupart des périphériques d'E/S (également appelés périphériques) et certains périphériques conçus pour le stockage de données à long terme.

La coordination entre les nœuds et les blocs individuels est effectuée à l'aide de dispositifs logiques matériels de transition appelés interfaces matérielles. Les normes pour les interfaces matérielles en informatique sont appelées protocoles - un ensemble de conditions techniques qui doivent être fournies par les développeurs d'appareils afin de coordonner avec succès leur travail avec d'autres appareils.

De nombreuses interfaces présentes dans l'architecture de tout système informatique peuvent être conditionnellement divisées en deux grands groupes : série et parallèle. Via une interface série, les données sont transmises séquentiellement, bit par bit, et via une interface parallèle, simultanément par groupes de bits. Le nombre de bits impliqués dans un paquet est déterminé par la largeur en bits de l'interface, par exemple, les interfaces parallèles à huit bits transmettent un octet (8 bits) par cycle.

Les interfaces parallèles sont généralement plus complexes que les interfaces série, mais offrent de meilleures performances. Ils sont utilisés là où la vitesse de transfert des données est importante : pour connecter des périphériques d'impression, des périphériques d'entrée d'informations graphiques, des périphériques d'enregistrement de données à des supports externes, etc. Les performances des interfaces parallèles sont mesurées en octets par seconde (octets/s ; Koctets/s ; Moctets/s).

Appareil interfaces série Plus facile; en règle générale, ils n'ont pas besoin de synchroniser le fonctionnement de l'appareil émetteur et récepteur (c'est pourquoi ils sont souvent appelés interfaces asynchrones), mais leur bande passante est moindre et le coefficient action utile dessous. Étant donné que les périphériques série communiquent en bits plutôt qu'en octets, leurs performances sont mesurées en bits par seconde (bps, kbps, Mbps). Malgré l'apparente simplicité de conversion des unités de mesure du débit de transfert série en unités de mesure du débit de transfert de données parallèle par division mécanique par 8, une telle conversion n'est pas effectuée, car elle n'est pas correcte en raison de la présence de données de service. Dans le cas extrême, ajusté pour les données de service, parfois la vitesse des appareils série est exprimée en caractères par seconde ou en symboles par seconde (s/s), mais cette valeur n'est pas technique, mais une référence, caractère consommateur.

Les interfaces série sont utilisées pour connecter des périphériques lents (les périphériques d'impression de faible qualité les plus simples : périphériques d'entrée et de sortie pour les informations de signe et de signal, capteurs de contrôle, périphériques de communication à faible performance, etc.), ainsi que dans les cas où il n'y a pas d'importants restrictions sur la durée des échanges de données (appareils photo numériques).

Le deuxième composant principal d'un ordinateur est la mémoire. Le système de mémoire est conçu comme une hiérarchie de couches (Fig. 3.). La couche supérieure est constituée des registres internes du CPU. Les registres internes permettent de stocker 32 x 32 bits sur un processeur 32 bits et 64 x 64 bits sur un processeur 64 bits, soit moins d'un kilo-octet dans les deux cas. Les programmes eux-mêmes peuvent gérer les registres (c'est-à-dire décider quoi y stocker) sans intervention matérielle.

Fig.3. Typique structure hiérarchique mémoire

La couche suivante est la mémoire cache, principalement contrôlée par le matériel. La RAM est divisée en lignes de cache, généralement de 64 octets chacune, adressant 0 à 63 sur la ligne 0, 64 à 127 sur la ligne 1, etc. Les lignes de cache les plus fréquemment utilisées sont stockées dans un cache à grande vitesse situé à l'intérieur ou très près du CPU. Lorsqu'un programme a besoin de lire un mot de la mémoire, la puce de cache vérifie si la ligne souhaitée se trouve dans le cache. Si c'est le cas, alors le cache est effectivement accédé, la demande est entièrement satisfaite à partir du cache et la demande de mémoire n'est pas placée sur le bus. Un accès au cache réussi, en règle générale, prend environ deux cycles d'horloge, et un échec conduit à un accès à la mémoire avec une perte de temps importante. La mémoire cache est limitée en taille en raison de son coût élevé. Certaines machines ont deux ou même trois niveaux de cache, chacun plus lent et plus grand que le précédent.

Vient ensuite la RAM (RAM - Random Access Memory, en anglais RAM, Random Access Memory - mémoire à accès aléatoire). Il s'agit de la zone de travail principale du périphérique de stockage du système informatique. Toutes les requêtes CPU qui ne peuvent pas être satisfaites par le cache vont dans la mémoire principale pour être traitées. Lors de l'exécution de plusieurs programmes sur un ordinateur, il est souhaitable de placer des programmes complexes dans la RAM. La protection des programmes entre eux et leur déplacement en mémoire est mise en œuvre au moyen d'un équipement informatique à deux registres spécialisés : un registre de base et un registre limite.

Dans le cas le plus simple (Fig.4.a), lorsque le programme commence à s'exécuter, l'adresse du début du module exécutable du programme est chargée dans le registre de base, et le registre de limite indique combien le module exécutable du programme prend avec le données. Lorsqu'une instruction est extraite de la mémoire, le matériel vérifie le compteur d'instructions, et s'il est inférieur au registre limite, il y ajoute la valeur du registre de base et transfère la somme à la mémoire. Lorsque le programme veut lire un mot de données (par exemple, à partir de l'adresse 10000), le matériel ajoute automatiquement le contenu du registre de base (par exemple, 50000) à cette adresse et transfère la somme (60000) de mémoire. Le registre de base permet au programme de se référer à n'importe quelle partie de la mémoire suivant l'adresse qui y est stockée. De plus, le registre de limite empêche le programme d'accéder à n'importe quelle partie de la mémoire après le programme. Ainsi, avec l'aide de ce schéma, les deux problèmes sont résolus: protection et déplacement des programmes.

Suite à la vérification et à la conversion des données, l'adresse générée par le programme et appelée adresse virtuelle est traduite en l'adresse utilisée par la mémoire et appelée adresse physique. L'appareil qui effectue la vérification et la conversion est appelé une unité de gestion de la mémoire (MMU). Le gestionnaire de mémoire réside soit dans les circuits du processeur, soit à proximité, mais se situe logiquement entre le processeur et la mémoire.

Un gestionnaire de mémoire plus complexe se compose de deux paires de registres de base et de limite. Une paire est pour le texte du programme, l'autre paire est pour les données. Le registre de commande et toutes les références au texte du programme fonctionnent avec la première paire de registres, les références de données utilisent la deuxième paire de registres. Grâce à ce mécanisme, il devient possible de partager un programme entre plusieurs utilisateurs tout en stockant une seule copie du programme en RAM, ce qui est exclu dans un schéma simple. Lorsque le programme n ° 1 est en cours d'exécution, quatre registres sont situés comme indiqué sur la figure 4 (b) à gauche, lorsque le programme n ° 2 est en cours d'exécution - à droite. La gestion du gestionnaire de mémoire est une fonction du système d'exploitation.

Le suivant dans la structure de la mémoire est le disque magnétique (disque dur). La mémoire disque est deux ordres de grandeur moins chère que la RAM en termes de bits et de taille supérieure, mais l'accès aux données situées sur le disque prend environ trois ordres de grandeur plus long. La raison de la faible vitesse d'un disque dur est le fait que le lecteur est une structure mécanique. Un disque dur est constitué d'une ou plusieurs plaques métalliques tournant à 5400, 7200 ou 10800 tr/min (Fig. 5.). Les informations sont inscrites sur les plaques sous forme de cercles concentriques. Les têtes de lecture/écriture à chaque position donnée peuvent lire un anneau sur le plateau appelé piste. Ensemble, les pistes pour une position de fourche donnée forment un cylindre.

Chaque piste est divisée en un certain nombre de secteurs, généralement 512 octets par secteur. Sur disques modernes les cylindres extérieurs contiennent plus de secteurs que les intérieurs. Déplacer la tête d'un cylindre à l'autre prend environ 1 ms, et passer à un cylindre arbitraire prend 5 à 10 ms, selon le disque. Lorsque la tête est située au-dessus de la piste souhaitée, vous devez attendre que le moteur tourne le disque pour que le secteur requis se trouve sous la tête. Cela prend 5 à 10 ms supplémentaires, selon la vitesse de rotation du disque. Lorsque le secteur est sous la tête, le processus de lecture ou d'écriture se produit à une vitesse de 5 Mo/s (pour les disques à faible vitesse) à 160 Mo/s (pour les disques à grande vitesse).

La dernière couche est occupée par une bande magnétique. Ce médium a souvent été utilisé pour créer sauvegardes espace disque dur ou pour stocker de grands ensembles de données. Pour accéder aux informations, la bande était placée dans un lecteur de bande magnétique, puis elle était rembobinée jusqu'au bloc demandé avec les informations. L'ensemble du processus a pris quelques minutes. La hiérarchie de mémoire décrite est typique, mais dans certains modes de réalisation, tous les niveaux ou leurs autres types (par exemple, un disque optique) peuvent ne pas être présents. Dans tous les cas, en descendant dans la hiérarchie, le temps d'accès aléatoire augmente considérablement d'un appareil à l'autre, et la capacité augmente de manière équivalente au temps d'accès.

En plus des types décrits ci-dessus, de nombreux ordinateurs ont une mémoire morte à accès aléatoire (ROM - mémoire en lecture seule, ROM, Read Only Memory - mémoire en lecture seule), qui ne perd pas son contenu lorsque le système informatique est allumé désactivé. La ROM est programmée pendant le processus de fabrication et son contenu ne peut pas être modifié par la suite. Sur certains ordinateurs, la ROM contient les programmes d'amorçage utilisés pour démarrer l'ordinateur et certaines cartes d'E/S pour contrôler les périphériques de bas niveau.

La ROM effaçable électriquement (EEPROM, ROM effaçable électriquement) et la RAM flash (RAM flash) sont également non volatiles, mais contrairement à la ROM, leur contenu peut être effacé et réécrit. Cependant, leur écrire des données prend beaucoup plus de temps que d'écrire dans la RAM. Par conséquent, ils sont utilisés de la même manière que la ROM.

Il existe un autre type de mémoire - la mémoire CMOS, qui est volatile et est utilisée pour stocker la date et l'heure actuelles. La mémoire est alimentée par une batterie intégrée à l'ordinateur et peut contenir des paramètres de configuration (par exemple, une indication du disque dur à partir duquel démarrer).

3. Périphériques d'E/S

Les autres périphériques qui interagissent étroitement avec le système d'exploitation sont les périphériques d'E/S, qui se composent de deux parties : le contrôleur et le périphérique lui-même. Le contrôleur est une micropuce (jeu de puces) sur une carte enfichable qui reçoit et exécute les commandes du système d'exploitation.

Par exemple, le contrôleur reçoit une commande pour lire un secteur spécifique du disque. Pour exécuter la commande, le contrôleur convertit le numéro de secteur linéaire du disque en nombre de cylindre, de secteur et de tête. L'opération de conversion est compliquée par le fait que les cylindres externes peuvent avoir plus de secteurs que les internes. Le contrôleur détermine alors dans quel cylindre il se trouve ce moment tête, et donne une séquence d'impulsions pour déplacer la tête vers le nombre de cylindres requis. Après cela, le contrôleur attend que le disque tourne, plaçant le secteur requis sous la tête. Ensuite, les processus de lecture et de stockage des bits à mesure qu'ils arrivent du disque, les processus de suppression de l'en-tête et de calcul somme de contrôle. Ensuite, le contrôleur collecte les bits reçus en mots et les stocke en mémoire. Pour effectuer ce travail, les contrôleurs contiennent un micrologiciel intégré.

Le périphérique d'E / S lui-même possède une interface simple qui doit être conforme à une seule norme IDE (IDE, Integrated Drive Electronics - interface de lecteur intégrée). Étant donné que l'interface de l'appareil est masquée par le contrôleur, le système d'exploitation ne voit que l'interface du contrôleur, qui peut être différente de l'interface de l'appareil.

Puisque les contrôleurs différents appareils Les E/S diffèrent les unes des autres, alors un logiciel approprié - des pilotes - est nécessaire pour les contrôler. Par conséquent, chaque fabricant de contrôleur doit fournir des pilotes pour les contrôleurs qu'il prend en charge. systèmes d'exploitation. Il existe trois façons d'installer le pilote dans le système d'exploitation :

Reconnectez le noyau avec le nouveau pilote, puis redémarrez le système, c'est ainsi que fonctionnent de nombreux systèmes UNIX ;

Créez une entrée dans le fichier inclus dans le système d'exploitation que le pilote est requis et redémarrez le système, lors du démarrage initial, le système d'exploitation trouvera bon pilote et téléchargez-le; c'est ainsi que fonctionne le système d'exploitation Windows ;

Acceptez les nouveaux pilotes et installez-les rapidement à l'aide du système d'exploitation pendant son exécution ; la méthode est utilisée par les bus amovibles USB et IEEE 1394, qui ont toujours besoin de pilotes chargés dynamiquement.

Il existe des registres spécifiques pour communiquer avec chaque contrôleur. Par exemple, un contrôleur de disque minimal peut avoir des registres pour spécifier l'adresse du disque, l'adresse de la mémoire, le numéro de secteur et le sens de l'opération (lecture ou écriture). Pour activer le contrôleur, le pilote reçoit une commande du système d'exploitation, puis la traduit en valeurs adaptées à l'écriture dans les registres de l'appareil.

Sur certains ordinateurs, les registres des périphériques d'E/S sont mappés sur l'espace d'adressage du système d'exploitation, de sorte qu'ils peuvent être lus ou écrits comme des mots ordinaires en mémoire. Les adresses de registre sont placées dans la RAM hors de portée des programmes utilisateur afin de protéger les programmes utilisateur du matériel (par exemple, en utilisant des registres de base et de limite).

Sur d'autres ordinateurs, les registres de périphériques sont situés dans des ports d'E/S spéciaux et chaque registre a sa propre adresse de port. Sur ces machines, les instructions IN et OUT sont disponibles en mode privilégié, ce qui permet aux pilotes de lire et d'écrire des registres. Le premier schéma élimine le besoin de commandes d'E/S spéciales, mais utilise un espace d'adressage. Le deuxième schéma n'affecte pas l'espace d'adressage, mais nécessite la présence d'instructions spéciales. Les deux schémas sont largement utilisés. L'entrée et la sortie des données s'effectuent de trois manières.

1. Le programme utilisateur émet une requête système, que le noyau traduit en un appel de procédure au pilote approprié. Le pilote démarre alors le processus d'E/S. Pendant ce temps, le pilote exécute un cycle de programme très court, interrogeant constamment l'état de préparation de l'appareil avec lequel il travaille (il y a généralement un bit qui indique que l'appareil est toujours occupé). Lorsque l'opération d'E/S est terminée, le pilote place les données là où elles sont nécessaires et revient à son état d'origine. Le système d'exploitation rend alors le contrôle au programme qui a effectué l'appel. Cette méthode est appelée attente prête ou attente active et présente un inconvénient : le processeur doit interroger l'appareil jusqu'à ce qu'il ait terminé son travail.

2. Le pilote démarre le périphérique et lui demande d'émettre une interruption à la fin des E/S. Après cela, le pilote renvoie les données, le système d'exploitation bloque l'appelant, si nécessaire, et commence à effectuer d'autres tâches. Lorsque le contrôleur détecte la fin d'un transfert de données, il génère une interruption pour signaler la fin de l'opération. Le mécanisme de mise en œuvre des entrées/sorties est le suivant (Fig. 6.a) :

Étape 1 : le pilote envoie une commande au contrôleur, écrivant des informations dans les registres de l'appareil ; le contrôleur démarre le périphérique d'E/S.

Étape 2 : Après avoir terminé la lecture ou l'écriture, le contrôleur envoie un signal à la puce du contrôleur d'interruption.

Étape 3 : Si le contrôleur d'interruption est prêt à recevoir une interruption, il envoie un signal à une broche spécifique du CPU.

Étape 4 : Le contrôleur d'interruption place le numéro du périphérique d'E/S sur le bus afin que le processeur puisse le lire et savoir quel périphérique s'est terminé. Lorsqu'une interruption est reçue par le CPU, le contenu du compteur de programme (PC) et le mot d'état du processeur (PSW) sont poussés sur la pile actuelle, et le processeur passe en mode de fonctionnement privilégié (mode noyau du système d'exploitation). Le numéro de périphérique d'E/S peut être utilisé comme index d'un morceau de mémoire utilisé pour rechercher l'adresse d'un gestionnaire d'interruptions. cet appareil. Ce morceau de mémoire est appelé le vecteur d'interruption. Lorsque le gestionnaire d'interruption (partie du pilote de périphérique qui a envoyé l'interruption) démarre, il supprime le compteur de programme et le mot d'état du processeur de la pile, les enregistre et interroge le périphérique pour obtenir des informations sur son état. Une fois le traitement de l'interruption terminé, le contrôle revient au programme utilisateur en cours d'exécution précédent, à la commande dont l'exécution n'est pas encore terminée (figure 6b).

3. Pour les informations d'entrée-sortie, un contrôleur d'accès direct à la mémoire (DMA, Direct Memory Access) est utilisé, qui contrôle le flux de bits entre la RAM et certains contrôleurs sans l'intervention constante du processeur central. Le processeur appelle la puce DMA, lui indique le nombre d'octets à transférer, lui indique les adresses de l'appareil et de la mémoire et la direction du transfert de données, et laisse la puce s'occuper d'elle-même. À la fin, le DMA initie une interruption, qui est gérée de manière appropriée.

Des interruptions peuvent se produire à des moments inopportuns, par exemple lors du traitement d'une autre interruption. Pour cette raison, le CPU a la capacité de désactiver les interruptions et de les activer plus tard. Pendant que les interruptions sont désactivées, tous les périphériques qui ont terminé leur travail continuent d'envoyer leurs signaux, mais le processeur n'est pas interrompu tant que les interruptions ne sont pas activées. Si plusieurs périphériques se terminent en même temps alors que les interruptions sont désactivées, le contrôleur d'interruption décide lequel doit être traité en premier, généralement en fonction des priorités statiques attribuées à chaque périphérique.

Le système informatique Pentium dispose de huit bus (bus cache, bus local, bus mémoire, PCI, SCSI, USB, IDE et ISA). Chaque bus a son propre débit de données et ses propres fonctions. Le système d'exploitation doit disposer d'informations sur tous les bus afin de gérer l'ordinateur et sa configuration.

Bus ISA (Industry Standard Architecture, architecture standard de l'industrie) - apparu pour la première fois sur les ordinateurs IBM PC / AT, fonctionne à une fréquence de 8,33 MHz et peut transférer deux octets par horloge avec une vitesse maximale de 16,67 Mo / s.; il est inclus pour la rétrocompatibilité avec les anciennes cartes d'E/S lentes.

Le bus PCI (Peripheral Component Interconnect, Peripheral Device Interface) - créé par Intel pour succéder au bus ISA, peut fonctionner à une fréquence de 66 MHz et transférer 8 octets par horloge à une vitesse de 528 Mo/s. Actuellement Bus PCI utilisez la plupart des périphériques d'E/S à haut débit, ainsi que des ordinateurs équipés de processeurs non Intel, car de nombreuses cartes d'E/S sont compatibles avec celui-ci.

Le bus local du système Pentium est utilisé par le processeur pour envoyer des données à la puce de pont PCI, qui accède à la mémoire via un bus mémoire dédié, fonctionnant souvent à 100 MHz.

Le bus de cache est utilisé pour connecter un cache externe, puisque les systèmes Pentium ont un cache de premier niveau (cache L1) intégré au processeur et un grand cache externe de deuxième niveau (cache L2).

Le bus IDE est utilisé pour connecter des périphériques : disques et lecteurs de CD-ROM. Le bus est un descendant de l'interface de contrôleur de disque PC/AT et est désormais standard sur tous les systèmes basés sur Pentium.

Bus USB (Universal Serial Bus, universel bus série) est conçu pour connecter des périphériques d'E/S lents (claviers, souris) à l'ordinateur. Il utilise un petit connecteur à quatre fils, dont deux fils alimentent les périphériques USB.

Le bus USB est un bus centralisé où l'hôte interroge les périphériques d'E/S toutes les millisecondes pour voir s'ils ont des données. Il peut gérer des téléchargements de données à 1,5 Mo/s. Tous les périphériques USB utilisent le même pilote, ils peuvent donc être connectés au système sans redémarrer le système.

Le bus SCSI (Small Computer System Interface, interface système des petits ordinateurs) est un bus hautes performances utilisé pour les disques rapides, les scanners et autres périphériques nécessitant une bande passante importante. Ses performances atteignent 160 Mo/s. Le bus SCSI est utilisé sur les systèmes Macintosh et est populaire sur les systèmes UNIX et autres systèmes basés sur Intel.

Le bus IEEE 1394 (FireWire) est un bus bit-série et prend en charge des taux de transfert de données en rafale jusqu'à 50 Mo/s. Cette fonction vous permet de connecter des caméscopes numériques portables et d'autres appareils multimédias à votre ordinateur. Contrairement aux pneus Bus USB IEEE 1394 n'a pas de contrôleur central.

Le système d'exploitation doit pouvoir reconnaître les composants matériels et pouvoir les configurer. Cette exigence a conduit par Intel et Microsoft pour développer un système informatique personnel appelé plug and play. Avant ce système, chaque carte d'E/S avait des adresses de registre d'E/S fixes et un niveau de demande d'interruption. Par exemple, le clavier utilisait l'interruption 1 et des adresses comprises entre 0x60 et 0x64 ; le contrôleur de disquette utilisait l'interruption 6 et les adresses 0x3F0 à 0x3F7 ; l'imprimante utilisait l'interruption 7 et les adresses de 0x378 à 0x37A.

Si l'utilisateur achetait une carte son et un modem, il arrivait que ces appareils utilisent accidentellement la même interruption. Il y avait un conflit, donc les appareils ne pouvaient pas fonctionner ensemble. Solution possible il s'agissait de construire un ensemble de commutateurs DIP (cavaliers, cavalier - cavalier) dans chaque carte et de configurer chaque carte de manière à ce que les adresses de port et les numéros d'interruption des différents appareils n'entrent pas en conflit les uns avec les autres.

Plug and play permet au système d'exploitation de collecter automatiquement des informations sur les périphériques d'E/S, d'attribuer de manière centralisée des niveaux d'interruption et des adresses d'E/S, puis de transmettre ces informations à chaque carte. Un tel système fonctionne sur des ordinateurs Pentium. Chaque ordinateur avec Processeur Pentium contient la carte mère sur laquelle se trouve le programme - le système BIOS (Basic Input Output System - système d'entrée-sortie de base). Le BIOS contient des programmes d'E/S de bas niveau, y compris des procédures de lecture à partir du clavier, d'affichage d'informations à l'écran, d'entrée/sortie de données à partir du disque, etc.

Lorsque l'ordinateur démarre, le système BIOS démarre, qui vérifie la quantité de RAM installée dans le système, la connexion et le bon fonctionnement du clavier et des autres périphériques principaux. Ensuite, le BIOS vérifie les bus ISA et PCI et tous les périphériques qui leur sont connectés. Certains de ces appareils sont traditionnels (pré-plug and play). Ils ont des niveaux d'interruption fixes et une adresse de port d'E/S (par exemple, définis à l'aide de commutateurs ou de cavaliers sur la carte d'E/S qui ne peuvent pas être modifiés par le système d'exploitation). Ces appareils sont inscrits, puis les enregistrements d'appareils plug and play sont effectués. Si les périphériques présents sont différents de ceux lors du dernier démarrage, les nouveaux périphériques sont configurés.

Le BIOS détermine ensuite à partir de quel périphérique démarrer en essayant chacun à son tour à partir de la liste stockée dans la mémoire CMOS. L'utilisateur peut modifier cette liste en accédant au programme de configuration du BIOS immédiatement après le démarrage. Habituellement, une tentative est d'abord effectuée à partir d'une disquette. Si cela échoue, le CD est essayé. Si l'ordinateur ne dispose pas à la fois d'une disquette et d'un CD, le système démarre à partir du disque dur. A partir du périphérique d'amorçage, le premier secteur est lu en mémoire et exécuté. Ce secteur contient un programme qui vérifie la table des partitions à la fin du secteur de démarrage pour déterminer quelle partition est active. Le chargeur de démarrage secondaire est ensuite lu à partir de la même partition. Il lit le système d'exploitation à partir de la partition active et le démarre.

Le système d'exploitation interroge ensuite le BIOS pour obtenir des informations sur la configuration de l'ordinateur et recherche un pilote pour chaque périphérique. Si le pilote n'est pas présent, le système d'exploitation invite l'utilisateur à insérer une disquette ou un CD contenant le pilote (ces disques sont fournis par le fabricant de l'appareil). Si tous les pilotes sont en place, le système d'exploitation les charge dans le noyau. Il initialise ensuite les tables de pilote, crée les processus d'arrière-plan nécessaires et démarre le programme de saisie de mot de passe ou interface graphiqueà chaque borne.

5. Histoire du développement de l'informatique

Tous les ordinateurs personnels compatibles IBM sont équipés de processeurs compatibles Intel. L'histoire du développement des microprocesseurs de la famille Intel est brièvement la suivante. Le premier microprocesseur à usage général d'Intel est apparu en 1970. Il s'appelait Intel 4004, était à quatre bits et avait la capacité d'entrer/sortir et de traiter des mots de quatre bits. Sa vitesse était de 8000 opérations par seconde. Le microprocesseur Intel 4004 a été conçu pour être utilisé dans des calculatrices programmables avec 4K octets de mémoire.

Trois ans plus tard, Intel a lancé le processeur 8080, qui pouvait déjà effectuer des opérations arithmétiques 16 bits, disposait d'un bus d'adresses 16 bits et pouvait donc adresser jusqu'à 64 Ko de mémoire (2516 0 = 65536). 1978 est marquée par la sortie du processeur 8086 avec une taille de mot de 16 bits (deux octets), un bus de 20 bits, et pouvant déjà fonctionner avec 1 Mo de mémoire (2520 0 = 1048576, soit 1024 Ko), répartis en blocs (segments) de 64 Ko chacun. Le processeur 8086 était équipé d'ordinateurs compatibles avec les IBM PC et IBM PC/XT. La prochaine étape majeure dans le développement de nouveaux microprocesseurs fut le processeur 8028b, apparu en 1982. Il avait un bus d'adresse 24 bits, pouvait gérer 16 mégaoctets d'espace d'adressage et était installé sur des ordinateurs compatibles avec IBM PC / AT. En octobre 1985, le 80386DX est sorti avec un bus d'adresse 32 bits (l'espace d'adressage maximum est de 4 Go), et en juin 1988, le 80386SX est sorti, qui était moins cher que le 80386DX et avait un bus d'adresse 24 bits. Puis, en avril 1989, le microprocesseur 80486DX apparaît, et en mai 1993, la première version du processeur Pentium (tous deux avec un bus d'adresse 32 bits).

En mai 1995 à Moscou lors de l'exposition internationale Komtek-95, Intel a présenté nouveau processeur-P6.

L'un des objectifs de conception les plus importants pour le P6 était de doubler les performances du processeur Pentium. Dans le même temps, la production des premières versions de P6 sera réalisée selon le "Intel" déjà débogué et utilisé en production. dernières versions Technologie semi-conducteur Pentium (0,6 µm, Z, Z V).

L'utilisation du même processus de fabrication garantit que la production en série du P6 peut être réalisée sans problèmes majeurs. Cependant, cela signifie que le doublement des performances n'est obtenu que grâce à des améliorations complètes de la microarchitecture du processeur. La microarchitecture P6 a été développée en utilisant une combinaison soigneusement pensée et ajustée de diverses méthodes architecturales. Certains d'entre eux ont déjà été testés dans les processeurs de "gros" ordinateurs, certains ont été proposés par des institutions académiques, les autres ont été développés par des ingénieurs de la société Intel. Cette combinaison unique de caractéristiques architecturales, qu'Intel appelle "l'exécution dynamique", a permis aux premières puces P6 de dépasser leurs niveaux de performances initialement prévus.

Par rapport aux processeurs "Intel" alternatifs de la famille x86, il s'avère que la microarchitecture P6 a beaucoup en commun avec la microarchitecture des processeurs Nx586 de NexGen et K5 d'AMD, et, bien que dans une moindre mesure, avec le M1 de Cyrix. Ce point commun s'explique par le fait que les ingénieurs des quatre sociétés résolvaient le même problème : introduire des éléments de la technologie RISC tout en conservant la compatibilité avec l'architecture Intel x86 CISC.

Deux cristaux dans un boîtier

Le principal avantage et la caractéristique unique du P6 est le placement dans le même boîtier avec le processeur, une mémoire cache statique secondaire d'une taille de 256 Ko, reliée au processeur par un bus dédié. Cette conception devrait simplifier considérablement la conception des systèmes basés sur P6. P6 est le premier microprocesseur produit en série contenant deux puces dans un seul boîtier.

La matrice CPU du P6 contient 5,5 millions de transistors ; cristal de cache de deuxième niveau - 15,5 millions. En comparaison, le dernier modèle Pentium comprenait environ 3,3 millions de transistors et le cache L2 a été implémenté à l'aide d'un ensemble externe de puces mémoire.

Un si grand nombre de transistors dans le cache est dû à sa nature statique. La mémoire statique du P6 utilise six transistors pour stocker un bit, tandis que la mémoire dynamique utiliserait un transistor par bit. La mémoire statique est plus rapide mais plus chère. Bien que le nombre de transistors sur une puce avec un cache secondaire soit trois fois plus important que sur une puce de processeur, les dimensions physiques du cache sont plus petites : 202 millimètres carrés contre 306 pour le processeur. Les deux matrices sont logées ensemble dans un boîtier en céramique à 387 broches ("réseau de broches à double cavité"). Les deux matrices sont fabriquées en utilisant la même technologie (0,6 µm, 4 couches Metal-BiCMOS, 2,9 V). Consommation électrique maximale estimée : 20 W à 133 MHz.

La première raison de combiner le processeur et le cache secondaire dans un seul package est de faciliter la conception et la fabrication de systèmes hautes performances basés sur le P6. Les performances d'un système informatique basé sur processeur rapide, dépend beaucoup du réglage fin des microcircuits de l'environnement du processeur, en particulier du cache secondaire. Tous les fabricants d'ordinateurs ne peuvent pas se permettre la recherche pertinente. Dans le P6, le cache secondaire est déjà parfaitement adapté au processeur, ce qui facilite la conception de la carte mère.

La deuxième raison de combiner est d'améliorer les performances. Le kzsh de deuxième niveau est connecté au processeur par un bus large de 64 bits spécialement dédié et fonctionne à la même fréquence d'horloge que le processeur.

Les premiers processeurs Pentium 60 et 66 MHz accédaient au cache secondaire via un bus 64 bits à la même vitesse d'horloge. Cependant, à mesure que les vitesses d'horloge du Pentium augmentaient, il devenait trop difficile et coûteux pour les concepteurs de maintenir cette fréquence sur une carte mère. Par conséquent, les diviseurs de fréquence ont commencé à être utilisés. Par exemple, pour un Pentium 100 MHz, le bus externe fonctionne à une fréquence de 66 MHz (pour un Pentium 90 MHz - 60 MHz, respectivement). Le Pentium utilise ce bus à la fois pour les accès au cache secondaire et pour accéder à la mémoire principale et à d'autres périphériques tels que le jeu de puces PCI.

L'utilisation d'un bus dédié pour accéder au cache secondaire améliore les performances du système informatique. Tout d'abord, cela permet une synchronisation complète des vitesses du processeur et du bus ; d'autre part, la concurrence avec d'autres opérations d'E/S et les délais associés sont exclus. Le bus de cache L2 est complètement séparé du bus externe par lequel la mémoire est accessible et périphériques externes. Le bus externe 64 bits peut fonctionner à la moitié, au tiers ou au quart de la vitesse du processeur, le bus de cache secondaire fonctionnant indépendamment à pleine vitesse.

La combinaison du processeur et du cache secondaire dans le même boîtier et la communication via un bus dédié est une étape vers les techniques d'amélioration des performances utilisées dans les processeurs RISC les plus puissants. Ainsi, dans le processeur Alpha 21164 de "Digital", le cache de second niveau de 96 Ko est situé dans le cœur du processeur, comme le cache principal. Cela fournit des performances de cache très élevées en augmentant le nombre de transistors par puce à 9,3 millions. La performance de l'Alpha 21164 est de 330 SPECint92 à 300 MHz. Les performances du P6 sont moindres (Intel estime 200 SPECint92 à 133MHz), mais le P6 offre le meilleur rapport coût/performance pour son marché potentiel.

Lors de l'évaluation du rapport coût/performance, il faut tenir compte du fait que, bien que le P6 puisse être plus cher que ses concurrents, la plupart des autres processeurs devraient être entourés d'un ensemble supplémentaire de puces mémoire et d'un contrôleur de cache. De plus, pour obtenir des performances de cache comparables, les autres processeurs devront utiliser un cache supérieur à 256 Ko.

"Intel" propose généralement de nombreuses variantes de leurs processeurs. Ceci est fait pour répondre aux diverses exigences des concepteurs de systèmes et laisser moins de place aux modèles concurrents. Par conséquent, nous pouvons supposer que peu de temps après le lancement de P6, des modifications avec une quantité accrue de mémoire cache secondaire et des modifications moins chères avec un emplacement de cache secondaire externe, mais avec un bus dédié entre le cache secondaire et le processeur, apparaîtront.

Pentium comme point de départ

Le processeur Pentium avec son pipeline et son superscalaire l'architecture a atteint un niveau de performance impressionnant. Le Pentium contient deux pipelines à 5 étages qui peuvent fonctionner en parallèle et exécuter deux instructions entières par horloge machine. Dans ce cas, seule une paire de commandes peut être exécutée en parallèle, se succédant dans le programme et respectant certaines règles, par exemple l'absence de dépendances de registre de type « écriture après lecture ».

Dans P6, pour augmenter le débit, une transition a été effectuée vers un seul pipeline à 12 étages. L'augmentation du nombre d'étapes entraîne une diminution du travail effectué à chaque étape et, par conséquent, une diminution du temps passé par l'équipe à chaque étape de 33 % par rapport au Pentium. Cela signifie que l'utilisation de la même technologie dans la fabrication du P6 que dans la fabrication du Pentium 100 MHz se traduira par un P6 cadencé à 133 MHz.

Les capacités de l'architecture superscalaire de Pentium, avec sa capacité à exécuter deux instructions par horloge, seraient difficiles à battre sans une approche complètement nouvelle. La nouvelle approche appliquée dans P6 élimine la dépendance rigide entre les phases traditionnelles "fetch" et "execute", lorsque la séquence de commandes passant par ces deux phases correspond à la séquence de commandes dans le programme.

La nouvelle approche est associée à l'utilisation du soi-disant pool de commandes et à de nouvelles méthodes efficaces prédire le comportement futur du programme. Dans ce cas, la phase traditionnelle "d'exécution" est remplacée par deux : "dispatching/exécution" et "rollback". Par conséquent, les commandes peuvent commencer à s'exécuter dans n'importe quel ordre, mais toujours terminer leur exécution conformément à leur ordre d'origine dans le programme. Le cœur P6 est implémenté sous la forme de trois périphériques indépendants interagissant via un pool d'instructions (Fig. 1).

Le principal problème sur la façon d'améliorer les performances

La décision d'organiser le P6 en trois dispositifs indépendants interagissant via un pool d'instructions a été prise après une analyse approfondie des facteurs qui limitent les performances des microprocesseurs modernes. Le fait fondamental, qui est vrai pour le Pentium et de nombreux autres processeurs, est que les vrais programmes n'utilisent pas toute la puissance du processeur.

Alors que les vitesses des processeurs ont été multipliées par au moins 10 au cours des 10 dernières années, les temps d'accès à la mémoire principale n'ont diminué que de 60 %. Ce décalage croissant des performances de la mémoire par rapport à la vitesse du processeur était le problème fondamental qui devait être résolu lors de la conception du P6.

Une approche possible pour résoudre ce problème consiste à se concentrer sur le développement de composants hautes performances entourant le processeur. Cependant, la production en série de systèmes comprenant à la fois un processeur hautes performances et des puces d'environnement dédiées à haute vitesse serait trop coûteuse.

On pourrait essayer de résoudre le problème en utilisant la force brute, à savoir augmenter la taille du cache de second niveau afin de réduire le pourcentage de cas où les données nécessaires ne sont pas dans le cache.

Cette solution est efficace, mais aussi extrêmement coûteuse, surtout compte tenu des exigences de vitesse actuelles pour les composants de cache L2. Le P6 a été conçu du point de vue d'une mise en œuvre efficace d'un système informatique complet, et il était nécessaire que les hautes performances du système dans son ensemble soient atteintes à l'aide d'un sous-système de mémoire bon marché.

Ainsi, La combinaison de techniques architecturales de P6, telles que la prédiction de branchement améliorée (détermine presque toujours correctement la prochaine séquence d'instructions), l'analyse du flux de données (détermine l'ordre optimal d'exécution des instructions) et l'exécution préemptive (la séquence d'instructions attendue est exécutée sans temps mort dans l'ordre optimal), nous a permis de doubler les performances par rapport au Pentium utilisant la même technologie de fabrication. Cette combinaison de méthodes est appelée exécution dynamique.

Intel développe actuellement une nouvelle technologie de fabrication de 0,35 micron qui permettra la production de processeurs P6 avec une vitesse d'horloge centrale de plus de 200 MHz.

P6 comme plate-forme pour créer des serveurs puissants

Parmi les plus significatifs les tendances du développement informatique de ces dernières années peuvent être identifiées comme l'utilisation croissante de systèmes basés sur la famille de processeurs x86 en tant que serveurs d'applications, et le rôle croissant d'"Intel" en tant que fournisseur de technologies sans processeur telles que les bus, technologies de réseau, compression vidéo, mémoire flash et outils d'administration système.

La sortie du processeur P6 poursuit la politique d'Intel consistant à apporter des capacités auparavant réservées aux ordinateurs plus chers sur le marché de masse. La parité est assurée pour les registres internes P6, et le bus 64 bits reliant le cœur du processeur et le cache de second niveau est équipé d'outils de détection et de correction d'erreurs. Les nouvelles capacités de diagnostic intégrées au P6 permettent aux fabricants de concevoir des systèmes plus fiables. P6 offre la possibilité de recevoir des informations sur plus de 100 variables de processeur ou événements se produisant dans le processeur, tels que l'absence de données dans le cache, le contenu des registres, l'apparition de code auto-modifiable, etc., via les contacts du processeur. ou à l'aide d'un logiciel. Le système d'exploitation et d'autres programmes peuvent lire ces informations pour déterminer l'état du processeur. P6 a également amélioré la prise en charge des points de contrôle, c'est-à-dire qu'il offre la possibilité de restaurer l'ordinateur à un état précédemment fixé en cas d'erreur.

Documents similaires

    La technologie informatique est apparue il y a longtemps, car le besoin de divers types de calculs existait à l'aube du développement de la civilisation. Le développement rapide de la technologie informatique. Création des premiers PC, mini-ordinateurs depuis les années 80 du XXe siècle.

    résumé, ajouté le 25/09/2008

    Caractéristiques des systèmes de maintenance technique et préventive des équipements informatiques. Programmes de diagnostic pour les systèmes d'exploitation. La relation des systèmes de contrôle automatisés. Protégez votre ordinateur contre les influences négatives externes.

    résumé, ajouté le 25/03/2015

    Développement d'un système d'analyse de l'information pour analyser et optimiser la configuration de la technologie informatique. La structure du contrôle automatisé de la technologie informatique. Logiciel, justification de l'efficacité économique du projet.

    thèse, ajoutée le 20/05/2013

    Stade manuel de développement de la technologie informatique. Système de numérotation positionnelle. Le développement de la mécanique au XVIIe siècle. Étape électromécanique dans le développement de la technologie informatique. Ordinateurs de cinquième génération. Options et caractéristiques distinctives supercalculateur.

    dissertation, ajouté le 18/04/2012

    Le dispositif et le principe de fonctionnement d'un ordinateur personnel (PC). Diagnostic et dépannage de l'état du PC. Tâches Entretienéquipements informatiques. Développement de méthodes de maintien en condition de fonctionnement des équipements.

    dissertation, ajouté le 13/07/2011

    L'étude des pratiques étrangères et nationales dans le développement de la technologie informatique, ainsi que les perspectives de développement des ordinateurs dans un proche avenir. Technologies informatiques. Stades de développement de l'industrie informatique dans notre pays. La fusion du PC et des communications.

    dissertation, ajouté le 27/04/2013

    Classification des procédures de conception. Histoire de la synthèse de la technologie informatique et de la conception technique. Fonctions des systèmes de conception assistée par ordinateur, leurs logiciels. Caractéristiques de l'utilisation de scanners, manipulateurs et imprimantes tridimensionnels.

    résumé, ajouté le 25/12/2012

    Automatisation du traitement des données. L'informatique et ses résultats pratiques. L'histoire de la création de la technologie informatique numérique. Ordinateurs électromécaniques. Usage tubes électroniques et les ordinateurs des première, troisième et quatrième générations.

    thèse, ajoutée le 23/06/2009

    Le concept et les caractéristiques d'un ordinateur personnel, ses principales parties et leur objectif. Moyens d'enseignement de l'informatique et caractéristiques de l'organisation du travail dans le bureau de l'informatique. Équipement de travail et application logicielle.

    résumé, ajouté le 09/07/2012

    La composition du système informatique - la configuration de l'ordinateur, son matériel et ses logiciels. Périphériques et périphériques qui forment la configuration matérielle d'un ordinateur personnel. Mémoire principale, ports d'E/S, adaptateur de périphérique.




Haut