Composition de la technologie informatique. Caractéristiques de base de la technologie informatique. Histoire du développement de la technologie informatique

Le concept de technologie informatique est un ensemble de moyens, méthodes et techniques techniques et mathématiques utilisés pour mécaniser et automatiser les processus de calcul et de traitement de l'information. La base des moyens techniques de l'informatique moderne est constituée d'ordinateurs électroniques (ordinateurs), de dispositifs d'entrée, de sortie, de présentation et de transmission (scanners, imprimantes, modems, moniteurs, traceurs, claviers, lecteurs de bandes magnétiques et de disques, etc.), d'ordinateurs portables, microcalculatrices, cahiers électroniques, etc.

Un ordinateur personnel est un micro-ordinateur de bureau ou portable mono-utilisateur qui répond aux exigences d'accessibilité universelle et d'universalité.

La base d'un ordinateur personnel est un microprocesseur. Le développement de la technologie et de la technologie des microprocesseurs a déterminé le changement dans les générations de PC :

1ère génération (1975 – 1980) – basée sur MP 8 bits ;

2e génération (1981 – 1985) – basée sur MP 16 bits ;

3ème génération (1986 – 1992) – basée sur MP 32 bits ;

4e génération (depuis 1993) – basée sur MP 64 bits.

Aujourd'hui, le monde informatique est à l'aube d'une révolution : des processeurs dotés de transistors de nouvelle génération et de processeurs puissants puces mobiles augmentera les performances des ordinateurs portables, des tablettes et des smartphones d'un ordre de grandeur.

Les éléments de traitement mesurant 10 et 12 nm changeront complètement le monde informatique dans l'année à venir : leur épaisseur est 10 000 fois inférieure à celle d'un cheveu humain (100 000 nm) et leur diamètre est proche de celui des atomes de silicium (0,3 nm).

Les principaux fabricants de microprocesseurs pour PC restent actuellement :

Intel est un pionnier dans la création et la production de processeurs modernes. Aujourd'hui, les PC les plus populaires sur le marché informatique coûteux sont les PC dotés de processeurs basés sur une architecture multicœur. Intel Core.

En avril 2012, Intel a présenté la 3e génération de la famille de processeurs quadricœurs Intel® Core™, disponible en versions puissantes. systèmes de bureau Des PC tout-en-un de qualité professionnelle, mobiles et fins, dotés des premières puces de 22 nm au monde utilisant des transistors Tri-Gate 3D.

AMD (Advanced Micro Deviced) est le plus réel concurrent d'Intel. Jusqu'à récemment, il occupait une niche sur le marché informatique avec des processeurs bon marché mais rapides, destinés principalement aux ordinateurs et mises à niveau bon marché.

Avec la création en 1999 des processeurs Athlon, Thunderbird, Polamino, Thoroughbred, Barton, et après 2003 des processeurs de la série K8, il a commencé à concurrencer sérieusement Intel. Aujourd'hui, les deux sociétés fabriquent un produit de bonne qualité capable de satisfaire les besoins de presque tous les utilisateurs exigeants.

Actuellement, environ 85 % des ordinateurs personnels sont produits sur la base de ces processeurs. Selon leur destination, ils peuvent être divisés en trois groupes :

Ménage, destiné à la consommation de masse et ayant la configuration de base la plus simple ;

Objectif général, destiné à résoudre des problèmes et une formation scientifiques, techniques, économiques et autres. Cette classe est la plus répandue et est généralement desservie par des utilisateurs non professionnels ;

Professionnel utilisé dans le domaine scientifique pour résoudre des problèmes complexes d’information et de production. Ils présentent des caractéristiques techniques élevées et sont entretenus par des utilisateurs professionnels.

De plus, selon leur conception, les PC sont divisés en :

Ordinateurs portables (ordinateur « portable »). Dans un ordinateur portable, le clavier et l'unité système sont constitués dans un seul boîtier, fermé sur le dessus par un couvercle avec un écran LCD. La plupart des modèles ne diffèrent pas en mieux dans leurs paramètres techniques et ont des écrans monochromes ;

CARNET (« carnets »). Les derniers modèles ont des paramètres techniques assez élevés, comparables aux PC à usage général ( Processeurs principaux i7-3612QM, vidéo jusqu'à 6 144 Mo, disques durs – HDD de plus de 600 Go ou SSD jusqu'à 256 Go ;

ULTRABUK (anglais Ultrabook) est un ordinateur portable ultra-mince et léger, avec des dimensions et un poids encore plus petits par rapport aux subnotebooks conventionnels, mais en même temps - la plupart des caractéristiques d'un ordinateur portable à part entière. Le terme a commencé à se répandre largement en 2011, après qu'Intel Corporation a présenté une nouvelle classe de PC mobiles - les ultrabooks, un concept d'Intel et Apple, développé sur la base de celui sorti en 2008. ordinateur portable Apple Macbook Air. Les ultrabooks sont plus petits que les ordinateurs portables classiques, mais légèrement plus grands que les netbooks. Ils sont équipés d'un petit écran à cristaux liquides de 11 à 13,3 pouces, sont compacts - épaisseur jusqu'à 20 mm et pèsent jusqu'à 2 kg. En raison de leur petite taille, les ultrabooks disposent de peu de ports externes et la plupart ne disposent pas de lecteur DVD.

Un netbook est un ordinateur portable aux performances relativement faibles, conçu principalement pour accéder à Internet et travailler avec des applications bureautiques. Il a une petite diagonale d'écran de 7 à 12 pouces, une faible consommation d'énergie, un poids léger et un coût relativement faible.

Le principe de fonctionnement des PC modernes peut être décrit par l'algorithme suivant :

JE. Initialisation

Après avoir allumé l'ordinateur, chargé le système d'exploitation et le programme nécessaire, le compteur du programme se voit attribuer une valeur initiale égale à l'adresse de la première commande de ce programme.

II. Sélection de l'équipe

Le CPU effectue l'opération de lecture d'une commande de la mémoire. Le contenu du compteur de programme est utilisé comme adresse de la cellule mémoire.

III. Interpréter la commande et incrémenter le compteur du programme

Le contenu de la cellule mémoire lue est interprété par la CPU comme une commande et placé dans le registre de commandes. La centrale commence à interpréter la commande. A partir du champ code opération du premier mot de la commande, la CU détermine sa longueur et, si nécessaire, organise des opérations de lecture supplémentaires jusqu'à ce que la totalité de la commande soit lue par la CPU. La longueur de la commande est ajoutée au contenu du compteur de programme, et lorsque la commande est complètement lue, l'adresse de la commande suivante est générée dans le compteur de programme.

IV. Décryptage des commandes et exécution des commandes

À l'aide des champs d'adresse de l'instruction, l'unité de contrôle détermine si l'instruction a des opérandes en mémoire. Si c'est le cas, alors sur la base des modes d'adressage spécifiés dans les champs d'adresse, les adresses des opérandes sont calculées et des opérations de lecture en mémoire sont effectuées pour lire les opérandes.

L'unité de contrôle et l'ALU effectuent l'opération spécifiée dans le champ code d'opération de la commande. Le registre des indicateurs du processeur stocke les caractéristiques de l'opération.

V. Si nécessaire, le Responsable du traitement effectue opération d'écriture du résultat en mémoire.

Si la dernière commande n'était pas « arrêter le processeur », alors la séquence d'opérations décrite est à nouveau exécutée. Cette séquence d'opérations est appelée cycle du processeur .

Dans des ordinateurs spécifiques, la mise en œuvre de cet algorithme peut différer légèrement. Mais en principe, le fonctionnement de tout ordinateur de von Neumann est décrit par un algorithme similaire et constitue une séquence d'opérations assez simples.

Un PC comprend trois appareils principaux : unité centrale, clavier et écran . Pour étendre les fonctionnalités du PC, des périphériques sont en outre connectés : imprimante, scanner, manipulateurs etc. Ces appareils sont soit connectés à l'unité centrale à l'aide de câbles via des connecteurs situés sur la paroi arrière unité système, ou sont insérés directement dans l'unité centrale. Le PC a une structure modulaire. Tous les modules sont connectés au bus système.

Utilisé pour contrôler des appareils externes contrôleurs (adaptateurs VU) . Après avoir reçu une commande du MP, le contrôleur, fonctionnant de manière autonome, libère le MP de l'exécution de fonctions spécifiques de maintenance du périphérique externe.

Il convient de noter que l'augmentation des performances des MP modernes et des appareils individuels qui leur sont externes (mémoire principale et externe, systèmes vidéo, etc.) a conduit au problème de l'augmentation bande passante bus système lors de la connexion de ces appareils. Pour résoudre ce problème, des bus locaux ont été développés, connectés directement au bus MP.

L'appareil principal d'un PC est unité système . Il se compose d'un CPU, d'un coprocesseur, permanent et mémoire vive, contrôleurs, lecteurs de disques magnétiques, alimentation et autres modules fonctionnels. La configuration du PC peut être modifiée en connectant des modules supplémentaires. Pour garantir un fonctionnement cohérent des appareils PC carte mère contient un chipset, c'est-à-dire ensemble de microcircuits (puces).

Le chipset détermine les principales capacités de la carte :

· types de processeurs pris en charge ;

· fréquence maximale du bus système ;

· logique de commutation des appareils ;

types pris en charge et taille maximum mémoire principale;

· rapidité de travail avec chaque type de mémoire ;

· prise en charge du port graphique accéléré ;

· type d'interface disque et ses modes ;

· nombre maximum de connecteurs d'extension ;

· Surveillance des ordinateurs.

Le chipset d'un PC moderne se compose généralement de deux puces : un pont nord ou un hub de contrôleur de mémoire (Memory Controller Hub, MCH), qui dessert les périphériques centraux et contient des contrôleurs pour la mémoire principale, le bus graphique, le bus système et le bus mémoire, et un pont sud (South Bridge) ou I/O Controller Hub (ICH), contenant des contrôleurs pour les périphériques d'E/S et les standards périphériques.

Schéma fonctionnel d'un ordinateur - Selon sa destination ordinateur - Il s'agit d'un appareil universel pour travailler avec des informations. Selon les principes de sa conception, un ordinateur est un modèle de personne travaillant avec l'information.

Ordinateur personnel(PC) est un ordinateur conçu pour servir un seul poste de travail. Ses caractéristiques peuvent différer de celles des ordinateurs centraux, mais il est fonctionnellement capable d'effectuer des opérations similaires. Selon le mode de fonctionnement, on distingue les modèles d'ordinateurs de bureau (ordinateur de bureau), portables (ordinateurs portables et ordinateurs portables) et de poche (palmtop).

Matériel.Étant donné que l'ordinateur fournit les trois classes de méthodes d'information pour travailler avec des données (matérielles, logicielles et naturelles), il est d'usage de parler d'un système informatique comme étant constitué de matériel et de logiciels travaillant ensemble. Les composants qui composent le matériel d'un ordinateur sont appelés matériel. Ils effectuent tous les travaux physiques avec les données : enregistrement, stockage, transport et transformation, tant dans la forme que dans le contenu, et les présentent également sous une forme pratique pour l'interaction avec les méthodes d'information personne.

L'ensemble du matériel d'un ordinateur est appelé sa configuration matérielle.

Logiciel. Les programmes peuvent être dans deux états : actif et passif. Dans un état passif, le programme ne fonctionne pas et ressemble à des données dont le contenu est une information. Dans cet état, le contenu du programme peut être « lu » par d’autres programmes, comme si des livres étaient lus et modifiés. À partir de là, vous pouvez découvrir le but du programme et comment il fonctionne. À l'état passif, les programmes sont créés, édités, stockés et transportés. Le processus de création et d'édition de programmes est appelé programmation.

Lorsqu'un programme est dans un état actif, le contenu de ses données est considéré comme des commandes selon lesquelles fonctionne le matériel informatique. Pour modifier l'ordre de leur fonctionnement, il suffit d'interrompre l'exécution d'un programme et de lancer l'exécution d'un autre, contenant un ensemble de commandes différent.

L'ensemble des programmes stockés sur un ordinateur le constitue logiciel. L'ensemble des programmes préparés pour le fonctionnement est appelé logiciel installé. L'ensemble des programmes exécutés à un moment ou à un autre est appelé configuration logicielle.

Appareil informatique. Tout ordinateur (même le plus grand) se compose de quatre parties :

  • des dispositifs d'entrée
  • dispositifs de traitement de l'information
  • périphériques de stockage
  • dispositifs de sortie d’informations.

Structurellement, ces pièces peuvent être combinées dans un seul boîtier de la taille d'un livre, ou chaque pièce peut être constituée de plusieurs appareils assez volumineux

Configuration matérielle PC de base. La configuration matérielle de base d'un ordinateur personnel est l'ensemble minimum de matériel suffisant pour commencer à travailler avec un ordinateur. Au fil du temps, le concept de configuration de base évolue progressivement.

Le plus souvent, un ordinateur personnel se compose des appareils suivants :

  • Unité système
  • Moniteur
  • Clavier

De plus, d'autres périphériques d'entrée et de sortie peuvent être connectés, par exemple haut-parleurs, imprimante, scanner...

Unité système- bloc principal Système d'ordinateur. Il contient des appareils considérés comme internes. Les appareils connectés à l'unité centrale en externe sont considérés comme externes. Le terme équipement périphérique est également utilisé pour les appareils externes.
Moniteur- un dispositif de reproduction visuelle de symboles et informations graphiques. Sert de périphérique de sortie. Pour les ordinateurs de bureau, les moniteurs les plus courants aujourd’hui sont ceux basés sur des tubes cathodiques. Ils ressemblent vaguement aux téléviseurs domestiques.
Clavier- un clavier conçu pour contrôler le fonctionnement d'un ordinateur et y saisir des informations. Les informations sont saisies sous forme de données de caractères alphanumériques.
Souris- dispositif de contrôle graphique.

Périphériques internes d'un ordinateur personnel.
Les périphériques situés dans l'unité centrale sont considérés comme internes. Certains d'entre eux sont accessibles en façade, ce qui est pratique pour des changements rapides médias d'information, comme les disquettes magnétiques. Les connecteurs de certains appareils sont situés sur la paroi arrière - ils sont utilisés pour connecter des équipements périphériques. L'accès à certains périphériques de l'unité centrale n'est pas fourni - il n'est pas requis pour un fonctionnement normal.

CPU. Le microprocesseur est la puce principale d'un ordinateur personnel. Tous les calculs y sont effectués. La principale caractéristique du processeur est la fréquence d'horloge (mesurée en mégahertz, MHz). Plus la vitesse d'horloge est élevée, plus les performances du processeur sont élevées. Ainsi, par exemple, à une fréquence d'horloge de 500 MHz, le processeur peut modifier son
état 500 millions de fois. Pour la plupart des opérations, un cycle d'horloge ne suffit pas, donc le nombre d'opérations qu'un processeur peut effectuer par seconde dépend non seulement de la vitesse d'horloge, mais également de la complexité des opérations.

Le seul appareil dont le processeur « connaît l'existence dès la naissance » est la RAM - il fonctionne avec elle. C'est de là que proviennent les données et les commandes. Les données sont copiées dans des cellules du processeur (appelées registres) puis converties en fonction du contenu des instructions. Vous obtiendrez une image plus complète de la façon dont le processeur interagit avec la RAM dans les chapitres sur les principes fondamentaux de la programmation.

RAM. La RAM peut être considérée comme un vaste ensemble de cellules qui stockent des données numériques et des commandes lorsque l'ordinateur est allumé. La quantité de RAM est mesurée en millions d'octets - mégaoctets (Mo).

Le processeur peut accéder à n’importe quelle cellule RAM (octet) car il possède une adresse numérique unique. Le processeur ne peut pas accéder à un bit individuel de RAM, car le bit n'a pas d'adresse. Dans le même temps, le processeur peut changer l'état de n'importe quel bit, mais cela nécessite plusieurs actions.

Carte mère. La carte mère est le plus grand circuit imprimé d'un ordinateur personnel. Il contient des autoroutes qui relient le processeur à la RAM - ce qu'on appelle les bus. Il existe un bus de données par lequel le processeur copie les données des cellules de mémoire, un bus d'adresses par lequel il se connecte à des cellules de mémoire spécifiques et un bus de commandes par lequel le processeur reçoit des commandes de programmes. Tous les autres périphériques internes de l'ordinateur sont également connectés aux bus de la carte mère. Le fonctionnement de la carte mère est contrôlé par un chipset de microprocesseur - ce qu'on appelle le chipset.

Adaptateur vidéo. Un adaptateur vidéo est un périphérique interne installé dans l'un des connecteurs de la carte mère. Les premiers ordinateurs personnels n'avaient pas d'adaptateur vidéo. Au lieu de cela, une petite zone a été allouée dans la RAM pour stocker les données vidéo. Une puce spéciale (contrôleur vidéo) lit les données des cellules de mémoire vidéo et contrôle le moniteur en conséquence.

À mesure que les capacités graphiques des ordinateurs se sont améliorées, la zone de mémoire vidéo a été séparée de la RAM principale et, avec le contrôleur vidéo, a été séparée en un périphérique distinct, appelé adaptateur vidéo. Les adaptateurs vidéo modernes disposent de leur propre processeur informatique (processeur vidéo), ce qui a réduit la charge sur le processeur principal lors de la construction d'images complexes. Le processeur vidéo joue un rôle particulièrement important lors de la construction sur un écran plat. Images 3D. Lors de telles opérations, il doit effectuer un nombre particulièrement important de calculs mathématiques.

Dans certains modèles de cartes mères, les fonctions de l'adaptateur vidéo sont assurées par des puces de chipset - dans ce cas, ils disent que l'adaptateur vidéo est intégré à carte mère. Si l'adaptateur vidéo est conçu comme un périphérique distinct, on l'appelle une carte vidéo. Le connecteur de la carte vidéo est situé sur la paroi arrière. Un moniteur y est connecté.

Adaptateur son. Pour les ordinateurs IBM PC, le travail avec le son n'était pas initialement prévu. Pendant les dix premières années de son existence, les ordinateurs de cette plateforme étaient considérés comme du matériel de bureau et se passaient de dispositifs sonores. Actuellement, les outils audio sont considérés comme standard. Pour faire cela sur carte mère L'adaptateur audio est installé. Il peut être intégré au chipset de la carte mère ou implémenté sous la forme d'une carte enfichable distincte appelée carte son.
Les connecteurs de la carte son sont situés sur la paroi arrière de l'ordinateur. Pour diffuser du son, des haut-parleurs ou des écouteurs y sont connectés. Un connecteur séparé est destiné à connecter un microphone. En présence de programme spécial cela vous permet d'enregistrer du son. Il existe également un connecteur (sortie ligne) pour connecter un équipement externe d'enregistrement ou de reproduction du son (magnétophones, amplificateurs, etc.).

Disque dur.Étant donné que la RAM de l'ordinateur est effacée lorsque l'alimentation est coupée, un périphérique est nécessaire pour stocker les données et les programmes pendant une longue période. Actuellement, les disques durs sont largement utilisés à ces fins.
Principe de fonctionnement disque dur est basé sur l'enregistrement des changements dans le champ magnétique à proximité de la tête d'enregistrement.

Principal paramètre dur la capacité du disque est mesurée en gigaoctets (milliards d'octets), Go. La taille moyenne d'un disque dur moderne est de 80 à 160 Go, et ce paramètre ne cesse de croître.

Lecteur de disquette. Pour transporter des données entre des ordinateurs distants, des disquettes sont utilisées. Une disquette standard (floppy disk) a une capacité relativement petite de 1,44 Mo. Selon les normes modernes, cela est totalement insuffisant pour la plupart des tâches de stockage et de transport de données, mais le faible coût des supports et leur haute disponibilité ont fait des disquettes le support de stockage le plus courant.

Pour écrire et lire les données stockées sur des disquettes, un périphérique spécial est utilisé - un lecteur de disque. Le trou de réception du lecteur est situé sur le panneau avant de l'unité centrale.

Lecteur CD ROM. Pour transporter de grandes quantités de données, il est pratique d'utiliser des CD-ROM. Ces disques ne peuvent lire que des données précédemment écrites ; ils ne peuvent pas être écrits. La capacité d'un disque est d'environ 650 à 700 Mo.

Les lecteurs de CD-ROM sont utilisés pour lire des CD. Le paramètre principal d'un lecteur de CD-ROM est la vitesse de lecture. Il est mesuré en plusieurs unités. La vitesse de lecture approuvée au milieu des années 80 est considérée comme une seule. pour les CD de musique (CD audio). Les lecteurs de CD-ROM modernes offrent des vitesses de lecture de 40x à 52x.
Principal inconvénient Lecteurs de CD-ROM- l'impossibilité d'enregistrer des disques - a été surmontée dans les appareils modernes à écriture unique - CD-R. Il existe également des appareils CD-RW qui permettent plusieurs enregistrements.

Le principe du stockage des données sur CD n'est pas magnétique, comme les disquettes, mais optique.

Ports de communication. Pour communiquer avec d'autres appareils, tels qu'une imprimante, un scanner, un clavier, une souris, etc., l'ordinateur est équipé de ce que l'on appelle des ports. Un port n'est pas simplement un connecteur permettant de connecter un équipement externe, bien qu'un port se termine par un connecteur. Un port est un dispositif plus complexe qu'un simple connecteur, possédant ses propres microcircuits et contrôlé par logiciel.

Adaptateur de réseau. Des adaptateurs réseau sont nécessaires pour que les ordinateurs puissent communiquer entre eux. Ce dispositif garantit que le processeur n'envoie pas une nouvelle partie de données au port externe jusqu'à ce que la carte réseau d'un ordinateur voisin ait copié la partie précédente sur lui-même. Après cela, le processeur reçoit un signal indiquant que les données ont été collectées et que de nouvelles peuvent être soumises. C'est ainsi que s'effectue le transfert.

Lorsqu'un adaptateur réseau « apprend » d'un adaptateur voisin qu'il possède une donnée, il la copie sur lui-même, puis vérifie si elle lui est adressée. Si oui, il les transmet au processeur. Sinon, il les place sur le port de sortie, d'où la carte réseau de l'ordinateur voisin suivant les récupérera. C'est ainsi que les données circulent entre les ordinateurs jusqu'à ce qu'elles atteignent le destinataire.
Les adaptateurs réseau peuvent être intégrés à la carte mère, mais sont le plus souvent installés séparément, sous la forme de cartes supplémentaires appelées cartes réseau.

Les ordinateurs électroniques sont généralement classés selon un certain nombre de caractéristiques, notamment : Fonctionnalité et la nature des tâches à résoudre, selon le mode d'organisation processus informatique, par les caractéristiques architecturales et la puissance de calcul.

Sur la base de la fonctionnalité et de la nature des tâches à résoudre, on distingue :

Ordinateurs universels (à usage général);

Ordinateurs orientés problèmes ;

Ordinateurs spécialisés.

Ordinateurs centraux sont conçus pour résoudre une grande variété de problèmes d’ingénierie et techniques, caractérisés par la complexité des algorithmes et le grand volume de données traitées.

Ordinateurs orientés problèmes sont conçus pour résoudre un éventail plus restreint de tâches liées à l'enregistrement, à l'accumulation et au traitement de petites quantités de données.

Ordinateurs spécialisés sont utilisés pour résoudre un éventail restreint de problèmes (microprocesseurs et contrôleurs qui remplissent des fonctions de contrôle pour les appareils techniques).

En organisant le processus informatique Les ordinateurs sont divisés en monoprocesseur et multiprocesseur, ainsi qu'en séquentiel et parallèle.

Processeur unique. L'ordinateur possède un processeur central et toutes les opérations informatiques et de contrôle des dispositifs d'entrée/sortie sont effectuées sur ce processeur.

Multiprocesseur. L'ordinateur contient plusieurs processeurs entre lesquels sont redistribuées les fonctions d'organisation du processus informatique et de gestion des dispositifs d'entrée/sortie d'informations.

Cohérent. Ils fonctionnent en mode programme unique, lorsque l'ordinateur est conçu de telle manière qu'il ne peut exécuter qu'un seul programme et que toutes ses ressources ne sont utilisées que dans l'intérêt du programme en cours d'exécution.

Parallèle. Ils fonctionnent en mode multiprogramme, lorsque plusieurs programmes utilisateur s'exécutent sur l'ordinateur et que les ressources sont partagées entre ces programmes, assurant leur exécution parallèle.

En fonction de leurs caractéristiques architecturales et de leur puissance de calcul, on les distingue :



Considérons le schéma de classification des ordinateurs selon ce critère (Fig. 1).

Fig. 1. Classification des ordinateurs selon les caractéristiques architecturales

et la puissance de calcul.

Supercalculateurs- Ce sont les machines informatiques les plus puissantes en termes de vitesse et de performances. Les supercalculateurs incluent « Cray » et « IBM SP2 » (États-Unis). Ils sont utilisés pour résoudre des problèmes informatiques et de modélisation à grande échelle, pour des calculs complexes en aérodynamique, météorologie, physique des hautes énergies, et sont également utilisés dans le secteur financier.

Grandes machines ou ordinateurs centraux. Les mainframes sont utilisés dans le secteur financier, le complexe de la défense, et servent à doter en personnel les centres informatiques départementaux, territoriaux et régionaux.

Ordinateurs moyens largement utilisé pour contrôler des processus de production technologiques complexes.

Mini-ordinateur conçus pour être utilisés comme systèmes informatiques de contrôle et serveurs de réseau.

Micro-ordinateur- Ce sont des ordinateurs qui utilisent un microprocesseur comme unité centrale de traitement. Il s'agit notamment des micro-ordinateurs intégrés (intégrés à divers équipements, équipements ou appareils) et des ordinateurs personnels (PC).

Ordinateur personnel. Il s'est développé rapidement au cours des 20 dernières années. Un ordinateur personnel (PC) est conçu pour servir un seul poste de travail et peut répondre aux besoins des petites entreprises et des particuliers. Avec l'avènement d'Internet, la popularité des PC a considérablement augmenté, car en utilisant un ordinateur personnel, vous pouvez utiliser des informations scientifiques, de référence, éducatives et de divertissement.

Les ordinateurs personnels comprennent les ordinateurs de bureau et les ordinateurs portables. Les ordinateurs portables incluent les ordinateurs portables (bloc-notes ou Carnet de notes) et les ordinateurs personnels de poche (ordinateurs personnels de poche - PC de poche, assistants numériques personnels - PDA et Palmtop).

Calculateurs embarqués. Ordinateurs utilisés dans divers appareils, systèmes et complexes pour mettre en œuvre des fonctions spécifiques. Par exemple, le diagnostic automobile.

Depuis 1999, une norme de certification internationale, la spécification PC99, est utilisée pour classer les PC. Selon cette spécification, les PC sont divisés dans les groupes suivants :

· PC de masse (Consumer PC) ;

· PC professionnels (Office PC) ;

· PC portables (Mobile PC) ;

· postes de travail (WorkStation) ;

· PC de divertissement (Entertaiment PC).

La plupart des PC sont massif et inclure un ensemble de matériel standard (minimum requis). Cet ensemble comprend : une unité centrale, un écran, un clavier, une souris. Si nécessaire, cet ensemble peut être facilement complété par d'autres appareils à la demande de l'utilisateur, par exemple une imprimante.

PC professionnels inclure un minimum d'outils graphiques et de reproduction sonore.

Ordinateurs portables diffèrent par la présence de moyens de communication d'accès à distance.

Postes de travail répondre aux exigences accrues en matière de capacité de mémoire des périphériques de stockage de données.

PC de divertissement axé sur des graphismes et une reproduction sonore de haute qualité.

Par caractéristiques de conception Les PC sont divisés en :

· stationnaire (ordinateur de bureau, ordinateur de bureau);

portable:

· portable (ordinateur portable);

· des cahiers;

· poche (Palmtop).

Pour étudier efficacement la technologie informatique appliquée, il est extrêmement important d’avoir une compréhension claire du matériel et des logiciels informatiques. La composition de la technologie informatique s'appelle configuration . Matériel et logiciel La technologie informatique est généralement considérée séparément. En conséquence, ils considèrent séparément configuration matérielle et eux logiciel configuration Ce principe de séparation revêt une importance particulière en informatique, car très souvent la solution aux mêmes problèmes peut être apportée à la fois par le matériel et par le logiciel. Les critères de choix d’une solution matérielle ou logicielle sont la performance et l’efficacité. Par exemple, saisissez le texte dans un éditeur de texte ou utilisez un scanner.

Configuration matérielle de base d'un ordinateur personnel

Ordinateur personnel – universel système technique. Son configuration (la composition de l'équipement) peut être modifiée de manière flexible selon les besoins. Cependant, il existe une notion configuration de base , ce qui est considéré comme typique, c'est-à-dire ensemble minimum d'équipement. L'ordinateur est généralement livré avec ce kit. Le concept d'une configuration de base peut varier. Actuellement pris en compte dans la configuration de base appareils suivants(Fig. 2.1.) :


Jetons un coup d'œil à ses pièces.

Vers le principal moyens techniques ordinateur personnel comprennent :

- unité système;

- moniteur (affichage);

- clavier.

De plus, vous pouvez vous connecter à votre ordinateur, par exemple :

- Imprimante;

- souris;

- un scanner;

- modem (modulateur-démodulateur) ;

- un traceur ;

- manette de jeu, etc.

Unité système

L'unité centrale est l'unité principale dans laquelle sont installés les composants les plus importants. Unité système (voir Fig. 2.2., 2.3.) est un cas dans lequel se trouve la quasi-totalité du matériel informatique.

Les périphériques situés à l'intérieur de l'unité centrale sont appelés interne, et les appareils qui y sont connectés en externe sont appelés externe. Externe appareils supplémentaires, aussi appelé périphérique.

Organisation interne unité système:

· carte mère ;

· Disque dur :

· lecteur de disquette;

· Lecteur CD ROM;

· carte vidéo (adaptateur vidéo) ;

· carte son;

· Unité de puissance.

Systèmes situés sur carte mère:

· RAM;

· processeur ;

· Puce ROM et système BIOS ;

· interfaces de bus, etc.

Les disques magnétiques, contrairement à la RAM, sont conçus pour le stockage permanent d'informations.

Il existe deux types de disques magnétiques utilisés dans les PC :


· disque dur non amovible (disque dur) ;

· disques amovibles et flexibles (disquettes).

Le disque dur est conçu pour le stockage permanent d'informations plus ou moins souvent utilisées dans le travail : programmes du système d'exploitation, compilateurs de langages de programmation, programmes de service (maintenance), programmes d'application utilisateur, documents texte, fichiers de base de données, etc. Le disque dur est nettement supérieur aux disquettes en termes de vitesse d'accès, de capacité et de fiabilité.

3. Technologie informatique 1

3.1 Historique du développement de la technologie informatique 1

3.2 Méthodes de classification des ordinateurs 3

3.3 Autres types de classification informatique 5

3.4 Composition du système informatique 7

3.4.1 Matériel 7

3.4.2 Logiciel 7

3.5 Classification des logiciels d'application 9

3.6 Classification des logiciels utilitaires 12

3.7 La notion d'information et de support mathématique pour les systèmes informatiques 13

3.8 Résumé 13

  1. Ingénierie informatique

    1. Histoire du développement de la technologie informatique

Système informatique, ordinateur

Trouver des moyens et des méthodes de mécanisation et d'automatisation du travail est l'une des tâches principales des disciplines techniques. L'automatisation du travail avec des données a ses propres caractéristiques et différences par rapport à l'automatisation d'autres types de travail. Pour cette classe de tâches, des types spéciaux d'appareils sont utilisés, dont la plupart sont des appareils électroniques. Un ensemble de dispositifs destinés au traitement automatique ou automatisé des données est appelé la technologie informatique, Un ensemble spécifique d'appareils et de programmes interactifs conçus pour servir une zone de travail est appelé système informatique. Le dispositif central de la plupart des systèmes informatiques est ordinateur.

Un ordinateur est un appareil électronique conçu pour automatiser la création, le stockage, le traitement et le transport de données.

Comment fonctionne l'ordinateur

En définissant un ordinateur en tant qu'appareil, nous avons indiqué la caractéristique déterminante - électronique. Cependant, les calculs automatiques n’étaient pas toujours effectués par des appareils électroniques. On connaît également des dispositifs mécaniques capables d'effectuer des calculs automatiquement.

en cours d'analyse histoire ancienne technologie informatique, certains chercheurs étrangers appellent souvent un appareil de calcul mécanique un ancien prédécesseur de l'ordinateur abaque. L'approche « du boulier » indique une profonde idée fausse méthodologique, puisque le boulier n'a pas la propriété d'effectuer automatiquement des calculs, mais pour un ordinateur, il est décisif.

Le boulier est le premier appareil de comptage mécanique, à l'origine une plaque d'argile avec des rainures dans lesquelles étaient placées des pierres représentant des nombres. L'apparition du boulier remonte au quatrième millénaire avant JC. e. Le lieu d'origine est considéré comme l'Asie. Au Moyen Âge en Europe, le boulier a été remplacé par des tableaux graphiques. Les calculs les utilisant étaient appelés compter sur les lignes, et en Russie, aux XVIe et XVIIe siècles, une invention beaucoup plus avancée est apparue, qui est encore utilisée aujourd'hui - Boulier russe.

Dans le même temps, nous connaissons très bien un autre appareil capable d'effectuer automatiquement des calculs : une montre. Quel que soit le principe de fonctionnement, tous les types d'horloges (sable, eau, mécaniques, électriques, électroniques, etc.) ont la capacité de générer des mouvements ou des signaux à intervalles réguliers et d'enregistrer les changements qui en résultent, c'est-à-dire d'effectuer une sommation automatique des signaux. ou des mouvements. Ce principe est visible même dans les cadrans solaires ne contenant qu'un appareil d'enregistrement (le rôle de générateur est assuré par le système Terre-Soleil).

Une montre mécanique est un appareil composé d'un appareil qui effectue automatiquement des mouvements à intervalles réguliers spécifiés et d'un appareil permettant d'enregistrer ces mouvements. L’endroit où sont apparues les premières montres mécaniques est inconnu. Les premiers exemples remontent au 14ème siècle et appartiennent à des monastères (horloge de la tour).

Au cœur de tout ordinateur moderne, comme dans montre électronique, mensonges générateur d'horloge, générer des signaux électriques à intervalles réguliers qui sont utilisés pour piloter tous les appareils d'un système informatique. Contrôler un ordinateur revient en réalité à gérer la répartition des signaux entre les appareils. Un tel contrôle peut être effectué automatiquement (on parle dans ce cas de contrôle du programme) ou manuellement à l'aide de commandes externes - boutons, commutateurs, cavaliers, etc. (dans les premiers modèles). Dans les ordinateurs modernes, le contrôle externe est largement automatisé à l'aide d'interfaces matérielles-logiques spéciales auxquelles sont connectés des périphériques de contrôle et d'entrée de données (clavier, souris, joystick et autres). Contrairement au contrôle par programme, un tel contrôle est appelé interactif.

Sources mécaniques

Le premier dispositif automatique au monde permettant d'effectuer l'opération d'addition a été créé sur la base d'une montre mécanique. En 1623, il fut développé par Wilhelm Schickard, professeur au Département des langues orientales de l'Université de Tübingen (Allemagne). De nos jours, un modèle fonctionnel de l'appareil a été reproduit à partir des dessins et a confirmé sa fonctionnalité. Dans ses lettres, l’inventeur lui-même appelait la machine « une horloge sommatrice ».

En 1642, le mécanicien français Blaise Pascal (1623-1662) développa un dispositif d'addition plus compact, qui devint la première calculatrice mécanique produite en série au monde (principalement pour les besoins des prêteurs et des changeurs parisiens). En 1673, le mathématicien et philosophe allemand G. W. Leibniz (1646-1717) créa une calculatrice mécanique capable d'effectuer des opérations de multiplication et de division en répétant encore et encore les opérations d'addition et de soustraction.

Au cours du XVIIIe siècle, connu sous le nom de siècle des Lumières, de nouveaux modèles plus avancés sont apparus, mais le principe du contrôle mécanique des opérations informatiques est resté le même. L’idée de programmer des opérations informatiques est venue de la même industrie horlogère. L’horloge de l’ancienne tour du monastère était réglée pour allumer un mécanisme relié à un système de cloches à une heure donnée. Une telle programmation était difficile - la même opération a été effectuée en même temps.

L'idée d'une programmation flexible de dispositifs mécaniques à l'aide d'un ruban de papier perforé a été réalisée pour la première fois en 1804 sur le métier Jacquard, après quoi il n'y avait qu'une étape pour contrôle du programme opérations de calcul.

Cette étape a été franchie par l'éminent mathématicien et inventeur anglais Charles Babbage (1792-1871) dans son moteur analytique, qui, malheureusement, n'a jamais été entièrement construit par l'inventeur de son vivant, mais a été reproduit de nos jours selon ses dessins, donc qu'aujourd'hui nous avons le droit de parler du Moteur Analytique comme d'un dispositif réellement existant. Une particularité du moteur analytique était qu'il était le premier à implémenter le principe de division de l'information en commandes et données. Le moteur analytique contenait deux grandes unités : un « entrepôt » et un « moulin ». Les données étaient saisies dans la mémoire mécanique de « l'entrepôt » en installant des blocs d'engrenages, puis traitées dans le « moulin » à l'aide de commandes saisies à partir de cartes perforées (comme dans un métier Jacquard).

Les chercheurs de l'œuvre de Charles Babbage notent certainement le rôle particulier de la comtesse Augusta Ada Lovelace (1815-1852), fille du célèbre poète Lord Byron, dans le développement du projet Analytical Engine. C'est elle qui a eu l'idée d'utiliser des cartes perforées pour programmer des opérations informatiques (1843). Elle écrit notamment dans une de ses lettres : « La machine analytique tisse des motifs algébriques de la même manière qu’un métier à tisser reproduit des fleurs et des feuilles. » Lady Ada peut à juste titre être qualifiée de première programmeuse au monde. Aujourd'hui, l'un des langages de programmation les plus célèbres porte son nom.

L'idée de considération séparée de Charles Babbage équipes Et données s'est avéré particulièrement fructueux. Au 20ème siècle il a été développé dans les principes de John von Neumann (1941), et aujourd'hui dans le calcul du principe de considération séparée programmes Et données c'est tres important. Elle est prise en compte aussi bien lors du développement des architectures des ordinateurs modernes que lors du développement de programmes informatiques.

Sources mathématiques

Si nous réfléchissons aux objets avec lesquels travaillaient les premiers prédécesseurs mécaniques de l'ordinateur électronique moderne, nous devons admettre que les nombres étaient représentés soit sous la forme de mouvements linéaires de mécanismes à chaîne et à crémaillère, soit sous la forme de mouvements angulaires de mécanismes à engrenages et à levier. . Dans les deux cas, il s’agissait de mouvements qui ne pouvaient qu’affecter les dimensions des appareils et la rapidité de leur fonctionnement. Seule la transition de l'enregistrement des mouvements à l'enregistrement des signaux a permis de réduire considérablement les dimensions et d'augmenter les performances. Cependant, pour y parvenir, il a fallu introduire plusieurs principes et concepts plus importants.

Système binaire de Leibniz. Dans les appareils mécaniques, les engrenages peuvent avoir un grand nombre de roues fixes et, plus important encore, différent entre constituent des provisions. Le nombre de ces positions est au moins égal au nombre de dents d'engrenage. En électricité et appareils électroniques nous parlons de pas à propos de l'inscription des provisionséléments structurels, et sur l'enregistrement Étatséléments de l'appareil. Si stable et distinguable Il n'y a que deux états : marche - arrêt ; ouvert fermé; chargé - déchargé, etc. Par conséquent, le système décimal traditionnel utilisé dans les calculatrices mécaniques n'est pas pratique pour les appareils informatiques électroniques.

La possibilité de représenter n'importe quel nombre (et pas seulement) avec des chiffres binaires a été proposée pour la première fois par Gottfried Wilhelm Leibniz en 1666. Il est arrivé au système de nombres binaires en recherchant le concept philosophique d'unité et de lutte des contraires. Une tentative d'imaginer l'univers sous la forme d'une interaction continue de deux principes (« noir » et « blanc », masculin et féminin, bien et mal) et d'appliquer les méthodes des mathématiques « pures » à son étude a incité Leibniz à étudier les propriétés de la représentation binaire des données. Il faut dire que Leibniz avait déjà réfléchi à la possibilité d'utiliser un système binaire dans un appareil informatique, mais comme cela n'était pas nécessaire pour les appareils mécaniques, il n'a pas utilisé les principes du système binaire dans sa calculatrice (1673) .

Logique mathématique de George Boole, Parlant des travaux de George Boole, les chercheurs en histoire de l'informatique soulignent certainement que cet remarquable scientifique anglais de la première moitié du XIXe siècle était autodidacte. C’est peut-être précisément en raison de l’absence d’une éducation « classique » (au sens de l’époque) que George Boole a introduit des changements révolutionnaires dans la logique en tant que science.

Tout en étudiant les lois de la pensée, il a appliqué un système de notation formelle et de règles logiques proches du système mathématique. Par la suite ce système appelé algèbre logique ou Algèbre de Boole. Les règles de ce système sont applicables à une grande variété d'objets et de leurs groupes (ensembles, selon la terminologie de l'auteur). L'objectif principal du système, tel que conçu par J. Boole, était de coder des énoncés logiques et de réduire les structures des conclusions logiques à des expressions simples, proches dans leur forme des formules mathématiques. Le résultat d'une évaluation formelle d'une expression logique est l'une des deux valeurs logiques suivantes : vrai ou mensonge.

L'importance de l'algèbre logique a été longtemps ignorée, car ses techniques et méthodes ne présentaient aucun avantage pratique pour la science et la technologie de l'époque. Cependant, lorsque la possibilité fondamentale de créer une technologie informatique sur une base électronique est apparue, les opérations introduites par Boole se sont révélées très utiles. Ils se concentrent initialement sur une collaboration avec seulement deux entités : vrai Et mensonge. Il n'est pas difficile de comprendre en quoi ils ont été utiles pour travailler avec du code binaire, qui dans les ordinateurs modernes est également représenté par seulement deux signaux : zéro Et unité.

La totalité du système de George Boole (ni toutes les opérations logiques qu'il a proposées) n'a pas été utilisée pour créer des ordinateurs électroniques, mais quatre opérations principales : Et (intersection), OU (Syndicat), PAS (appel) et OU EXCLUSIF - constituent la base du fonctionnement de tous les types de processeurs dans les ordinateurs modernes.

Riz. 3.1. Opérations de base de l'algèbre logique


Classement du matériel informatique

1. Matériel

La composition d'un système informatique est appelée configuration. Le matériel informatique et les logiciels sont généralement considérés séparément. En conséquence, la configuration matérielle des systèmes informatiques et leur configuration logicielle sont considérées séparément. Ce principe de séparation revêt une importance particulière en informatique, car très souvent la solution aux mêmes problèmes peut être apportée à la fois par le matériel et par le logiciel. Les critères de choix d’une solution matérielle ou logicielle sont la performance et l’efficacité. Il est généralement admis que les solutions matérielles sont en moyenne plus coûteuses, mais la mise en œuvre Solutions logicielles nécessite un personnel plus qualifié.

À matériel les systèmes informatiques comprennent des dispositifs et des instruments qui forment une configuration matérielle. Ordinateurs modernes et les systèmes informatiques ont une conception modulaire en blocs - la configuration matérielle nécessaire à l'exécution types spécifiques travail, qui peut être assemblé à partir d'unités et de blocs prêts à l'emploi.

Les principaux composants matériels d'un système informatique sont : la mémoire, le processeur central et les périphériques, qui sont interconnectés par un bus système (Fig. 1.) La mémoire principale est conçue pour stocker des programmes et des données sous forme binaire et est organisée sous la forme d'un réseau ordonné de cellules, dont chacune possède une adresse numérique unique. Généralement, la taille de la cellule est de 1 octet. Opérations typiques sur la mémoire principale : lecture et écriture du contenu d'une cellule avec une adresse spécifique.

2. Processeur central

L'unité centrale de traitement est l'unité centrale d'un ordinateur qui effectue des opérations de traitement de données et contrôle les périphériques de l'ordinateur. Le processeur central comprend :

Dispositif de contrôle - organise le processus d'exécution du programme et coordonne l'interaction de tous les périphériques du système informatique pendant son fonctionnement ;

Unité arithmétique-logique - effectue des opérations arithmétiques et logiques sur les données : addition, soustraction, multiplication, division, comparaison, etc.

Périphérique de stockage - est mémoire interne processeur, qui se compose de registres, lorsqu'il est utilisé, le processeur effectue des calculs et stocke les résultats intermédiaires ; pour accélérer le travail avec la RAM, on utilise la mémoire cache, dans laquelle sont pompées les commandes et les données de la RAM nécessaires au processeur pour les opérations ultérieures ;

Générateur d'horloge - génère des impulsions électriques qui synchronisent le fonctionnement de tous les nœuds informatiques.

Le processeur central effectue diverses opérations avec les données à l'aide de cellules spécialisées pour stocker les variables clés et les résultats temporaires - des registres internes. Les registres sont divisés en deux types (Fig. 2.) :

Registres à usage général - utilisés pour le stockage temporaire des variables locales clés et des résultats intermédiaires des calculs, notamment les registres de données et les registres de pointeurs ; la fonction principale est de fournir accès rapide aux données fréquemment utilisées (généralement sans accès à la mémoire).

Registres spécialisés - utilisés pour contrôler le fonctionnement du processeur, les plus importants d'entre eux sont : le registre d'instructions, le pointeur de pile, le registre des drapeaux et le registre contenant des informations sur l'état du programme.

Le programmeur peut utiliser des registres de données à sa discrétion pour stocker temporairement des objets (données ou adresses) et y effectuer les opérations requises. Les registres d'index, comme les registres de données, peuvent être utilisés de n'importe quelle manière ; leur objectif principal est de stocker des index ou des décalages de données et d'instructions à partir du début de l'adresse de base (lors de la récupération des opérandes de la mémoire). L'adresse de base peut être dans les registres de base.

Les registres de segments sont un élément essentiel de l'architecture du processeur, fournissant l'adressage d'un espace d'adressage de 20 bits à l'aide d'opérandes de 16 bits. Registres de segments principaux : CS - registre de segments de code ; DS - registre de segments de données ; SS est le registre de segments de pile, ES est le registre de segments supplémentaires. L'accès à la mémoire se fait via des segments - des formations logiques superposées à n'importe quelle partie de l'espace d'adressage physique. L'adresse de début du segment, divisée par 16 (sans le chiffre hexadécimal le moins significatif) est inscrite dans l'un des registres de segment ; après quoi l'accès à la section mémoire à partir de l'adresse de segment spécifiée est fourni.

L'adresse de toute cellule mémoire se compose de deux mots, dont l'un détermine l'emplacement en mémoire du segment correspondant et l'autre - le décalage au sein de ce segment. La taille d'un segment est déterminée par la quantité de données qu'il contient, mais ne peut jamais dépasser 64 Ko, qui est déterminée par la valeur de décalage maximale possible. L'adresse du segment d'instruction est stockée dans le registre CS et le décalage par rapport à l'octet adressé est stocké dans le registre de pointeur d'instruction IP.

Fig.2. Registres du processeur 32 bits

Après avoir chargé le programme, le décalage de la première commande du programme est saisi dans l'IP. Le processeur, après l'avoir lu dans la mémoire, augmente le contenu d'IP exactement de la longueur de cette instruction (les instructions du processeur Intel peuvent avoir une longueur de 1 à 6 octets), de sorte que IP pointe vers la deuxième instruction du programme . Après avoir exécuté la première commande, le processeur lit la seconde dans la mémoire, augmentant à nouveau la valeur IP. En conséquence, l'IP contient toujours le décalage de la commande suivante - la commande suivant celle en cours d'exécution. L'algorithme décrit n'est violé que lors de l'exécution d'instructions de saut, d'appels de sous-programmes et de services d'interruption.

L'adresse du segment de données est stockée dans le registre DS, le décalage peut être dans l'un des registres à usage général. Le registre de segments supplémentaire ES est utilisé pour accéder à des champs de données non inclus dans le programme, tels que le tampon vidéo ou les cellules système. Toutefois, si nécessaire, il peut être configuré pour l'un des segments du programme. Par exemple, si un programme travaille avec une grande quantité de données, vous pouvez leur fournir deux segments et accéder à l'un d'eux via le registre DS et à l'autre via le registre ES.

Le registre de pointeur de pile SP est utilisé comme pointeur vers le haut de la pile. Une pile est une zone de programme permettant le stockage temporaire de données arbitraires. La commodité de la pile réside dans le fait que sa zone est utilisée à plusieurs reprises et que le stockage des données sur la pile et leur récupération à partir de là sont effectués à l'aide des commandes push et pop sans spécifier de noms. La pile est traditionnellement utilisée pour stocker le contenu des registres utilisés par un programme avant d'appeler un sous-programme, qui à son tour utilisera les registres du processeur à ses propres fins. Le contenu original des registres est extrait de la pile après le retour du sous-programme. Une autre technique courante consiste à transmettre les paramètres requis à un sous-programme via la pile. Le sous-programme, sachant dans quel ordre les paramètres sont placés sur la pile, peut les récupérer et les utiliser lors de son exécution.

Une caractéristique distinctive de la pile est l'ordre unique dans lequel les données qu'elle contient sont récupérées : à un moment donné, seul l'élément supérieur est disponible sur la pile, c'est-à-dire l'élément qui a été chargé en dernier sur la pile. Retirer l'élément supérieur de la pile rend l'élément suivant disponible. Les éléments de la pile sont situés dans la zone mémoire allouée à la pile, en commençant par le bas de la pile (à son adresse maximale) à des adresses successivement décroissantes. L'adresse de l'élément supérieur accessible est stockée dans le registre de pointeur de pile SP.

Les registres spéciaux ne sont disponibles qu'en mode privilégié et sont utilisés par le système d'exploitation. Ils contrôlent divers blocs de cache, la mémoire principale, les périphériques d'entrée/sortie et d'autres périphériques du système informatique.

Il existe un registre accessible en mode privilégié et utilisateur. Il s'agit du registre PSW (Program State Word), appelé registre des drapeaux. Le registre des drapeaux contient divers bits nécessaires au processeur central, les plus importants sont les codes de condition utilisés dans les comparaisons et les sauts conditionnels. Ils sont définis dans chaque cycle de l'unité arithmétique-logique du processeur et reflètent l'état du résultat du précédent. opération. Le contenu du registre des indicateurs dépend du type de système informatique et peut inclure des champs supplémentaires qui indiquent : le mode machine (par exemple, utilisateur ou privilégié) ; bit de trace (qui est utilisé pour le débogage) ; niveau de priorité du processeur ; état d'activation d'interruption. Le registre des drapeaux est généralement lu en mode utilisateur, mais certains champs ne peuvent être écrits qu'en mode privilégié (par exemple, le bit qui indique le mode).

Le registre de pointeur de commande contient l'adresse de la commande suivante dans la file d'attente pour exécution. Après avoir sélectionné une instruction dans la mémoire, le registre d'instructions est ajusté et le pointeur passe à l'instruction suivante. Le pointeur d'instruction surveille la progression de l'exécution du programme, indiquant à chaque instant l'adresse relative de l'instruction suivant celle en cours d'exécution. Le registre n'est pas accessible par programme ; L'incrément d'adresse y est effectué par le microprocesseur, en tenant compte de la longueur de l'instruction en cours. Les commandes de sauts, d'interruptions, d'appel de sous-programmes et de retour de ceux-ci modifient le contenu du pointeur, effectuant ainsi des transitions vers les points requis dans le programme.

Le registre accumulateur est utilisé dans la grande majorité des instructions. Les commandes fréquemment utilisées utilisant ce registre ont un format raccourci.

Pour traiter les informations, les données sont généralement transférées des cellules mémoire vers des registres à usage général, effectuant une opération processeur central et transférer les résultats vers la mémoire principale. Les programmes sont stockés sous forme de séquence d'instructions machine qui doivent être exécutées par le processeur central. Chaque commande se compose d'un champ d'opération et de champs d'opérande - les données sur lesquelles l'opération est effectuée. Un ensemble d’instructions machine est appelé langage machine. Les programmes sont exécutés comme suit. L'instruction machine pointée par le compteur de programme est lue dans la mémoire et copiée dans le registre d'instructions, où elle est décodée puis exécutée. Après son exécution, le compteur du programme pointe vers la commande suivante, etc. Ces actions sont appelées un cycle machine.

La plupart des processeurs centraux ont deux modes de fonctionnement : le mode noyau et le mode utilisateur, qui est spécifié par un bit dans le mot d'état du processeur (registre d'indicateur). Si le processeur fonctionne en mode noyau, il peut exécuter toutes les instructions du jeu d'instructions et utiliser toutes les capacités du matériel. Le système d'exploitation fonctionne en mode noyau et donne accès à tout le matériel. Les programmes utilisateur s'exécutent en mode utilisateur, ce qui permet l'exécution de nombreuses commandes mais ne rend disponible qu'une partie du matériel.

Pour communiquer avec le système d'exploitation, un programme utilisateur doit émettre un appel système qui passe en mode noyau et active les fonctions du système d'exploitation. La commande trap (interruption émulée) fait passer le mode de fonctionnement du processeur du mode utilisateur au mode noyau et transfère le contrôle au système d'exploitation. Une fois le travail terminé, le contrôle revient au programme utilisateur, à la commande suivant l'appel système.

Dans les ordinateurs, en plus des instructions pour exécuter les appels système, il existe des interruptions appelées par le matériel pour avertir des situations d'exception, telles qu'une tentative de division par zéro ou un débordement de virgule flottante. Dans tous ces cas, le contrôle passe au système d’exploitation, qui doit décider quoi faire ensuite. Parfois, vous devez terminer le programme avec un message d'erreur, parfois vous pouvez l'ignorer (par exemple, si un nombre perd son sens, il peut être mis à zéro) ou transférer le contrôle au programme lui-même pour gérer certains types de conditions.

Sur la base de la disposition des appareils par rapport au processeur central, on distingue les appareils internes et externes. En règle générale, les périphériques d'entrée/sortie (également appelés périphériques) et certains périphériques conçus pour le stockage de données à long terme sont externes.

La coordination entre les nœuds et les blocs individuels est effectuée à l'aide de dispositifs logiques matériels de transition appelés interfaces matérielles. Les normes relatives aux interfaces matérielles en informatique sont appelées protocoles - un ensemble de conditions techniques qui doivent être fournies par les développeurs d'appareils pour coordonner avec succès leur fonctionnement avec d'autres appareils.

De nombreuses interfaces présentes dans l'architecture de tout système informatique peuvent être divisées en deux grands groupes : série et parallèle. Grâce à une interface série, les données sont transmises séquentiellement, bit par bit, et via une interface parallèle, simultanément par groupes de bits. Le nombre de bits impliqués dans un message est déterminé par la largeur de l'interface ; par exemple, les interfaces parallèles à huit bits transmettent un octet (8 bits) par cycle.

Les interfaces parallèles sont généralement plus complexes que les interfaces série, mais offrent des performances supérieures. Ils sont utilisés là où la vitesse de transfert des données est importante : pour connecter des périphériques d'impression, des périphériques de saisie graphique, des périphériques d'enregistrement de données sur des supports externes, etc. Les performances des interfaces parallèles sont mesurées en octets par seconde (octet/s ; Ko/s ; Mo/s).

Appareil interfaces série Plus facile; en règle générale, ils n'ont pas besoin de synchroniser le fonctionnement des dispositifs d'émission et de réception (c'est pourquoi ils sont souvent appelés interfaces asynchrones), mais leur débit est moindre et le coefficient action utile ci-dessous. Étant donné que l'échange de données via des périphériques série s'effectue non pas par octets, mais par bits, leurs performances sont mesurées en bits par seconde (bps, Kbps, Mbps). Malgré l'apparente simplicité de conversion des unités de vitesse de transmission série en unités de vitesse de transfert de données parallèles par division mécanique par 8, une telle conversion n'est pas effectuée car elle n'est pas correcte en raison de la présence de données de service. En dernier recours, ajustée aux données de service, la vitesse des appareils série est parfois exprimée en caractères par seconde ou en caractères par seconde (s/s), mais cette valeur n'est pas de nature technique, mais de référence, de consommation.

Les interfaces série sont utilisées pour connecter des appareils lents (les appareils d'impression les plus simples de mauvaise qualité : appareils d'entrée et de sortie d'informations sur les caractères et les signaux, capteurs de contrôle, appareils de communication à faible performance, etc.), ainsi que dans les cas où il n'y a pas restrictions importantes sur la durée de l'échange de données (appareils photo numériques).

Le deuxième composant principal d’un ordinateur est la mémoire. Le système de mémoire est construit sous la forme d'une hiérarchie de couches (Fig. 3.). La couche supérieure est constituée des registres internes du processeur central. Les registres internes offrent une capacité de stockage de 32 x 32 bits sur un processeur 32 bits et de 64 x 64 bits sur un processeur 64 bits, soit moins d'un kilo-octet dans les deux cas. Les programmes eux-mêmes peuvent gérer les registres (c'est-à-dire décider ce qu'ils doivent stocker) sans intervention matérielle.

Figure 3. Typique structure hiérarchique mémoire

La couche suivante contient la mémoire cache, qui est principalement contrôlée par le matériel. La RAM est divisée en lignes de cache, généralement 64 octets, avec des adresses de 0 à 63 sur la ligne zéro, de 64 à 127 sur la première ligne, etc. Les lignes de cache les plus fréquemment utilisées sont stockées dans une mémoire cache à haute vitesse située à l'intérieur ou très proche du processeur. Lorsqu'un programme a besoin de lire un mot de la mémoire, la puce de cache vérifie si la ligne souhaitée se trouve dans le cache. Si tel est le cas, alors un accès effectif à la mémoire cache se produit, la demande est entièrement satisfaite à partir du cache et la demande de mémoire n'est pas envoyée au bus. Un accès réussi au cache prend généralement environ deux cycles d'horloge, tandis qu'un accès infructueux entraîne un accès mémoire avec une perte de temps importante. La taille de la mémoire cache est limitée en raison de son coût élevé. Certaines machines disposent de deux voire trois niveaux de cache, chacun étant plus lent et plus volumineux que le précédent.

Vient ensuite la RAM (RAM - mémoire vive, RAM anglaise, Random Access Memory - mémoire vive). Il s'agit de la principale zone de travail du périphérique de stockage du système informatique. Toutes les requêtes CPU qui ne peuvent pas être satisfaites par la mémoire cache sont envoyées à la mémoire principale pour traitement. Lors de l'exécution de plusieurs programmes sur un ordinateur, il est conseillé de placer les programmes complexes en RAM. La protection des programmes les uns contre les autres et leur déplacement en mémoire se réalise en équipant l'ordinateur de deux registres spécialisés : le registre de base et le registre limite.

Dans le cas le plus simple (Fig. 4.a), lorsque le programme commence à fonctionner, le registre de base est chargé avec l'adresse du début du module de programme exécutable, et le registre limite indique combien le module de programme exécutable prend avec les données. Lors de la récupération d'une commande de la mémoire, le matériel vérifie le compteur du programme, et s'il est inférieur au registre limite, il y ajoute la valeur du registre de base et transfère la somme à la mémoire. Lorsqu'un programme souhaite lire un mot de données (par exemple, à partir de l'adresse 10 000), le matériel ajoute automatiquement le contenu du registre de base (par exemple, 50 000) à cette adresse et transfère la somme (60 000) en mémoire. Le registre de base permet à un programme de référencer n'importe quelle partie de la mémoire suivant l'adresse qui y est stockée. De plus, le registre de limite empêche le programme d'accéder à une partie quelconque de la mémoire après le programme. Ainsi, avec l'aide de ce schéma, les deux problèmes sont résolus : la protection et la circulation des programmes.

À la suite de la vérification et de la transformation des données, l'adresse générée par le programme et appelée adresse virtuelle est traduite en une adresse utilisée par la mémoire et appelée adresse physique. Le dispositif qui effectue la vérification et la conversion est appelé unité de gestion de mémoire ou gestionnaire de mémoire (MMU, Memory Management Unit). Le gestionnaire de mémoire est situé soit dans le circuit du processeur, soit à proximité de celui-ci, mais se situe logiquement entre le processeur et la mémoire.

Un gestionnaire de mémoire plus complexe se compose de deux paires de registres de base et de limite. Une paire est destinée au texte du programme, l'autre paire est destinée aux données. Le registre de commande et toutes les références au texte du programme fonctionnent avec la première paire de registres ; les références aux données utilisent la deuxième paire de registres. Grâce à ce mécanisme, il devient possible de partager un programme entre plusieurs utilisateurs tout en ne stockant qu'une seule copie du programme en RAM, ce qui est exclu dans un schéma simple. Lorsque le programme n° 1 est en cours d'exécution, les quatre registres sont situés comme indiqué sur la figure 4 (b) à gauche, lorsque le programme n° 2 est en cours d'exécution, à droite. La gestion du gestionnaire de mémoire est une fonction du système d'exploitation.

Le disque magnétique (disque dur) vient ensuite dans la structure de la mémoire. La mémoire disque est deux ordres de grandeur moins chère que la RAM par bit et plus grande en taille, mais l'accès aux données situées sur le disque prend environ trois ordres de grandeur plus long. La raison de la lenteur d’un disque dur est le fait que le disque est une structure mécanique. Le disque dur est constitué d'une ou plusieurs plaques métalliques tournant à une vitesse de 5 400, 7 200 ou 10 800 tr/min (Fig. 5.). Les informations sont enregistrées sur des plaques sous forme de cercles concentriques. Les têtes de lecture/écriture à chaque position donnée peuvent lire un anneau sur le plateau appelé piste. Ensemble, les pistes pour une position de fourche donnée forment un cylindre.

Chaque piste est divisée en un certain nombre de secteurs, généralement 512 octets par secteur. Sur lecteurs modernes les cylindres extérieurs contiennent plus de secteurs que les cylindres intérieurs. Déplacer une tête d'un cylindre à un autre prend environ 1 ms, et passer à un cylindre aléatoire prend 5 à 10 ms, selon le lecteur. Lorsque la tête est située au dessus de la piste souhaitée, il faut attendre que le moteur fasse tourner le disque pour que le secteur souhaité se trouve sous la tête. Cela prend 5 à 10 ms supplémentaires, en fonction de la vitesse de rotation du disque. Lorsqu'un secteur se trouve sous la tête, le processus de lecture ou d'écriture se produit à des vitesses allant de 5 Mo/s (pour les disques basse vitesse) à 160 Mo/s (pour les disques haute vitesse).

La dernière couche est occupée par une bande magnétique. Ce médium était souvent utilisé pour créer copies de sauvegarde espace disque dur ou stockage grands ensembles données. Pour accéder à l'information, la bande était placée dans un lecteur de bande magnétique, puis elle était rembobinée jusqu'au bloc d'information demandé. L'ensemble du processus a duré quelques minutes. La hiérarchie de mémoire décrite est typique, mais dans certains modes de réalisation, tous les niveaux ou d'autres types de ceux-ci peuvent ne pas être présents (par exemple, un disque optique). Dans tous les cas, lorsque l'on parcourt la hiérarchie de haut en bas, le temps d'accès aléatoire augmente considérablement d'un appareil à l'autre, et la capacité augmente de manière équivalente au temps d'accès.

En plus des types décrits ci-dessus, de nombreux ordinateurs disposent d'une mémoire vive en lecture seule (ROM, Read Only Memory), qui ne perd pas son contenu lorsque le système informatique est éteint. La ROM est programmée lors de la fabrication et son contenu ne peut plus être modifié par la suite. Sur certains ordinateurs, la ROM contient des programmes de démarrage utilisés pour démarrer l'ordinateur et des cartes d'E/S pour contrôler les périphériques de bas niveau.

La ROM effaçable électriquement (EEPROM, Electrically Erasable ROM) et la flash RAM (flash RAM) sont également non volatiles, mais contrairement à la ROM, leur contenu peut être effacé et réécrit. Cependant, l’écriture de données sur ces fichiers prend beaucoup plus de temps que l’écriture dans la RAM. Par conséquent, ils sont utilisés exactement de la même manière que les ROM.

Il existe un autre type de mémoire : la mémoire CMOS, qui est volatile et est utilisée pour stocker la date et l'heure actuelles. La mémoire est alimentée par une batterie intégrée à l'ordinateur et peut contenir des paramètres de configuration (par exemple, indiquant sur quel disque dur démarrer).

3. Périphériques d'E/S

D'autres périphériques qui interagissent étroitement avec le système d'exploitation sont les périphériques d'entrée/sortie, qui se composent de deux parties : le contrôleur et le périphérique lui-même. Le contrôleur est un microcircuit (chipset) sur une carte insérée dans un connecteur, qui reçoit et exécute les commandes du système d'exploitation.

Par exemple, le contrôleur reçoit une commande pour lire un secteur spécifique du disque. Pour exécuter la commande, le contrôleur convertit le numéro linéaire du secteur du disque en numéro du cylindre, du secteur et de la tête. L'opération de conversion est compliquée par le fait que les cylindres extérieurs peuvent avoir plus de secteurs que les cylindres intérieurs. Le contrôleur détermine alors quel cylindre se trouve au-dessus ce moment tête, et donne une séquence d'impulsions pour déplacer la tête du nombre requis de cylindres. Après quoi le contrôleur attend que le disque tourne, plaçant le secteur requis sous la tête. Ensuite, les processus de lecture et de stockage des bits à mesure qu'ils arrivent du disque, les processus de suppression de l'en-tête et de calcul somme de contrôle. Ensuite, le contrôleur collecte les bits reçus en mots et les stocke en mémoire. Pour effectuer ce travail, les contrôleurs contiennent un firmware intégré.

Le périphérique d'E/S lui-même possède une interface simple qui doit être conforme à la norme IDE unifiée (IDE, Integrated Drive Electronics - interface de lecteur intégrée). Étant donné que l'interface du périphérique est masquée par le contrôleur, le système d'exploitation ne voit que l'interface du contrôleur, qui peut différer de l'interface du périphérique.

Puisque les contrôleurs pour différents appareils Les périphériques d'E/S diffèrent les uns des autres, donc pour les gérer, vous avez besoin d'un logiciel approprié : des pilotes. Par conséquent, chaque fabricant de contrôleurs doit fournir des pilotes pour les contrôleurs qu’il prend en charge. systèmes d'exploitation. Il existe trois façons d'installer le pilote dans le système d'exploitation :

Reconstruisez le noyau avec un nouveau pilote, puis redémarrez le système, ce qui correspond au fonctionnement de nombreux systèmes UNIX ;

Créez une entrée dans le fichier inclus dans le système d'exploitation indiquant qu'un pilote est requis et redémarrez le système ; lors du démarrage initial, le système d'exploitation trouvera pilote requis et téléchargez-le ; C'est ainsi que fonctionne le système d'exploitation Windows ;

Acceptez les nouveaux pilotes et installez-les rapidement à l'aide du système d'exploitation pendant son exécution ; Cette méthode est utilisée par les bus amovibles USB et IEEE 1394, qui nécessitent toujours des pilotes chargés dynamiquement.

Il existe certains registres pour la communication avec chaque contrôleur. Par exemple, un contrôleur de disque minimal peut avoir des registres pour spécifier l'adresse du disque, l'adresse mémoire, le numéro de secteur et le sens de fonctionnement (lecture ou écriture). Pour activer le contrôleur, le pilote reçoit une commande du système d'exploitation, puis la traduit en valeurs adaptées à l'écriture dans les registres de l'appareil.

Sur certains ordinateurs, les registres des périphériques d'E/S sont mappés sur l'espace d'adressage du système d'exploitation afin qu'ils puissent être lus ou écrits comme des mots ordinaires en mémoire. Les adresses de registre sont placées dans la RAM hors de portée des programmes utilisateur afin de protéger les programmes utilisateur du matériel (par exemple, en utilisant les registres de base et de limite).

Sur d'autres ordinateurs, les registres de périphériques sont situés dans des ports d'E/S spéciaux et chaque registre possède sa propre adresse de port. Sur ces machines, les commandes IN et OUT sont disponibles en mode privilégié, ce qui permet aux pilotes de lire et d'écrire des registres. Le premier schéma élimine le besoin d’instructions d’E/S spéciales, mais utilise un certain espace d’adressage. Le deuxième schéma n'affecte pas l'espace d'adressage, mais nécessite des commandes spéciales. Les deux schémas sont largement utilisés. La saisie et la sortie des données s'effectuent de trois manières.

1. Le programme utilisateur émet une requête système, que le noyau traduit en appel de procédure pour le pilote correspondant. Le pilote commence alors le processus d'E/S. Pendant ce temps, le pilote exécute une boucle de programme très courte, interrogeant constamment l'état de préparation du périphérique avec lequel il travaille (généralement, il y a un bit qui indique que le périphérique est toujours occupé). Une fois l'opération d'E/S terminée, le pilote place les données là où elles sont nécessaires et revient à l'état initial. Le système d'exploitation rend ensuite le contrôle au programme qui a effectué l'appel. Cette méthode est appelée attente prête ou attente active et présente un inconvénient : le processeur doit interroger l'appareil jusqu'à ce qu'il termine son travail.

2. Le pilote démarre le périphérique et lui demande d'émettre une interruption lorsque les E/S sont terminées. Après cela, le pilote renvoie les données, le système d'exploitation bloque le programme appelant si nécessaire et commence à effectuer d'autres tâches. Lorsque le contrôleur détecte la fin d'un transfert de données, il génère une interruption pour signaler la fin de l'opération. Le mécanisme de mise en œuvre des entrées-sorties se déroule comme suit (Fig. 6.a) :

Étape 1 : le pilote transmet la commande au contrôleur, en écrivant les informations dans les registres du périphérique ; Le contrôleur démarre le périphérique d'E/S.

Étape 2 : Une fois la lecture ou l'écriture terminée, le contrôleur envoie un signal à la puce du contrôleur d'interruption.

Étape 3 : Si le contrôleur d'interruption est prêt à recevoir une interruption, il envoie un signal à une broche spécifique du CPU.

Étape 4 : Le contrôleur d'interruption place le numéro du périphérique d'E/S sur le bus afin que le CPU puisse le lire et savoir quel périphérique a terminé son travail. Lorsque le processeur reçoit une interruption, le contenu du compteur de programme (PC) et du mot d'état du processeur (PSW) est placé sur la pile actuelle et le processeur passe en mode privilégié (mode noyau du système d'exploitation). Le numéro du périphérique d'E/S peut être utilisé comme index d'une partie de la mémoire utilisée pour trouver l'adresse du gestionnaire d'interruption. de cet appareil. Cette partie de la mémoire est appelée vecteur d'interruption. Lorsque le gestionnaire d'interruption (la partie du pilote de périphérique qui a envoyé l'interruption) commence son travail, il supprime le compteur de programme et le mot d'état du processeur situés sur la pile, les stocke et interroge le périphérique pour obtenir des informations sur son état. Une fois le traitement de l'interruption terminé, le contrôle revient au programme utilisateur qui était en cours d'exécution auparavant, à la commande dont l'exécution n'est pas encore terminée (Fig. 6 b).

3.Pour l'entrée et la sortie des informations, un contrôleur d'accès direct à la mémoire (DMA, Direct Memory Access) est utilisé, qui contrôle le flux de bits entre la RAM et certains contrôleurs sans intervention constante du processeur central. Le processeur appelle la puce DMA, lui indique le nombre d'octets à transférer, fournit les adresses de périphérique et de mémoire ainsi que la direction du transfert de données, et laisse la puce faire son propre travail. Une fois l'opération terminée, le DMA émet une interruption, qui est traitée en conséquence.

Des interruptions peuvent survenir à des moments inappropriés, par exemple pendant le traitement d'une autre interruption. Pour cette raison, le processeur a la possibilité de désactiver les interruptions et de les activer ultérieurement. Pendant que les interruptions sont désactivées, tous les appareils qui ont terminé leur travail continuent d'envoyer leurs signaux, mais le processeur n'est pas interrompu tant que les interruptions ne sont pas activées. Si plusieurs périphériques se ferment en même temps alors que les interruptions sont désactivées, le contrôleur d'interruption décide lequel doit être traité en premier, généralement en fonction des priorités statiques attribuées à chaque périphérique.

Le système informatique Pentium dispose de huit bus (bus de cache, bus local, bus mémoire, PCI, SCSI, USB, IDE et ISA). Chaque bus a sa propre vitesse de transfert de données et ses propres fonctions. Le système d'exploitation doit contenir des informations sur tous les bus pour gérer l'ordinateur et le configurer.

Bus ISA (Industry Standard Architecture) - apparu pour la première fois sur les ordinateurs IBM PC/AT, fonctionne à 8,33 MHz et peut transférer deux octets par cycle d'horloge avec une vitesse maximale de 16,67 Mo/s ; il est inclus dans le système pour une compatibilité ascendante avec les anciennes cartes d'E/S lentes.

Bus PCI (Peripheral Component Interconnect) - créé par Intel pour succéder au bus ISA, peut fonctionner à une fréquence de 66 MHz et transférer 8 octets par horloge à une vitesse de 528 Mo/s. Actuellement Bus PCI utilisez la plupart des périphériques d'E/S à haut débit, ainsi que les ordinateurs équipés de processeurs non Intel, car de nombreuses cartes d'E/S sont compatibles avec celui-ci.

Le bus local d'un système Pentium est utilisé par le processeur pour transférer des données vers la puce de pont PCI, qui accède à la mémoire sur un bus mémoire dédié, fonctionnant souvent à 100 MHz.

Le bus de cache est utilisé pour connecter le cache externe, car les systèmes Pentium disposent d'un cache de premier niveau (cache L1) intégré au processeur et d'un grand cache externe de deuxième niveau (cache L2).

Le bus IDE permet de connecter des périphériques : disques et lecteurs de CD-ROM. Le bus est un descendant de l'interface du contrôleur de disque PC/AT et est actuellement standard sur tous les systèmes basés sur des processeurs Pentium.

Bus USB (Universel Bus série, bus série universel) est conçu pour connecter des périphériques d'entrée/sortie lents (clavier, souris) à un ordinateur. Il utilise un petit connecteur à quatre fils avec deux fils alimentant les périphériques USB.

Le bus USB est un bus centralisé sur lequel le périphérique hôte interroge les périphériques d'E/S toutes les millisecondes pour voir s'ils contiennent des données. Il peut gérer les téléchargements de données à une vitesse de 1,5 Mo/s. Tous les périphériques USB utilisent le même pilote, ils peuvent donc être connectés au système sans le redémarrer.

Le bus SCSI (Small Computer System Interface) est un bus hautes performances utilisé pour les disques rapides, les scanners et autres périphériques nécessitant une bande passante importante. Ses performances atteignent 160 Mo/s. Le bus SCSI est utilisé sur les systèmes Macintosh et est populaire sur les systèmes UNIX et autres systèmes basés sur des processeurs Intel.

Le bus IEEE 1394 (FireWire) est un bus série à bits et prend en charge le transfert de données par paquets à des vitesses allant jusqu'à 50 Mo/s. Cette propriété vous permet de connecter des caméras vidéo numériques portables et d'autres appareils multimédias à votre ordinateur. Contrairement à un pneu Bus USB IEEE 1394 n'a pas de contrôleur central.

Le système d'exploitation doit être capable de reconnaître les composants matériels et de les configurer. Cette exigence a conduit Intel et Microsoft pour développer un système informatique personnel appelé plug and play. Avant ce système, chaque carte d'E/S avait des adresses de registre d'E/S fixes et un niveau de demande d'interruption. Par exemple, le clavier utilisait l'interruption 1 et les adresses comprises entre 0x60 et 0x64 ; Le contrôleur de disquette a utilisé l'interruption 6 et les adresses 0x3F0 à 0x3F7 ; l'imprimante a utilisé l'interruption 7 et les adresses de 0x378 à 0x37A.

Si l'utilisateur a acheté carte son et modem, il arrivait que ces appareils utilisaient accidentellement la même interruption. Il y a eu un conflit et les appareils n'ont pas pu fonctionner ensemble. Solution possible Il s'agissait d'intégrer un ensemble de commutateurs DIP (cavaliers) dans chaque carte et de configurer chaque carte de manière à ce que les adresses de port et les numéros d'interruption des différents périphériques n'entrent pas en conflit les uns avec les autres.

Plug and Play permet au système d'exploitation de collecter automatiquement des informations sur les périphériques d'E/S, d'attribuer de manière centralisée des niveaux d'interruption et des adresses d'E/S, puis de communiquer ces informations à chaque carte. Ce système fonctionne sur les ordinateurs Pentium. Chaque ordinateur avec Processeur Pentium contient la carte mère sur laquelle se trouve le programme - le système BIOS (Basic Input Output System). Le BIOS contient des programmes d'E/S de bas niveau, y compris des procédures de lecture à partir du clavier, d'affichage d'informations à l'écran, de données d'E/S à partir du disque, etc.

Au démarrage de l'ordinateur, le système BIOS démarre, qui vérifie la quantité de RAM installée dans le système, la connexion et le bon fonctionnement du clavier et des autres périphériques principaux. Ensuite, le BIOS vérifie les bus ISA et PCI et tous les périphériques qui y sont connectés. Certains de ces appareils sont traditionnels (pré-plug and play). Ils ont des niveaux d'interruption et une adresse de port d'E/S fixes (par exemple, définis à l'aide de commutateurs ou de cavaliers sur la carte d'E/S et ne peuvent pas être modifiés par le système d'exploitation). Ces appareils sont enregistrés, puis les appareils plug and play sont enregistrés. Si les périphériques présents sont différents de ceux présents lors du dernier démarrage, alors de nouveaux périphériques sont configurés.

Le BIOS détermine ensuite sur quel périphérique démarrer en essayant tour à tour chacune des listes stockées dans la mémoire CMOS. L'utilisateur peut modifier cette liste en entrant dans le programme de configuration du BIOS immédiatement après le démarrage. Généralement, il tentera d'abord de démarrer à partir de la disquette. Si cela échoue, le CD est essayé. Si votre ordinateur ne dispose pas à la fois d'une disquette et d'un CD, le système démarre à partir du disque dur. Le premier secteur est lu en mémoire à partir du périphérique de démarrage et exécuté. Ce secteur contient un programme qui vérifie la table de partition à la fin du secteur de démarrage pour déterminer quelle partition est active. Le chargeur de démarrage secondaire est ensuite lu à partir de la même partition. Il lit le système d'exploitation à partir de la partition active et le démarre.

Le système d'exploitation interroge ensuite le BIOS pour obtenir des informations sur la configuration de l'ordinateur et vérifie la présence d'un pilote pour chaque périphérique. Si le pilote est manquant, le système d'exploitation demande à l'utilisateur d'insérer une disquette ou un CD contenant le pilote (ces disques sont fournis par le fabricant du périphérique). Si tous les pilotes sont en place, le système d'exploitation les charge dans le noyau. Il initialise ensuite les tables de pilotes, crée tous les processus d'arrière-plan nécessaires et exécute le programme de saisie du mot de passe ou Interface graphiqueà chaque terminal.

5. Histoire du développement de la technologie informatique

Tous les ordinateurs personnels compatibles IBM sont équipés de processeurs compatibles Intel. L'histoire du développement des microprocesseurs de la famille Intel est brièvement la suivante. Le premier microprocesseur universel d'Intel est apparu en 1970. Il s'appelait Intel 4004, était à quatre bits et avait la capacité d'entrer/sortir et de traiter des mots de quatre bits. Sa vitesse était de 8 000 opérations par seconde. Le microprocesseur Intel 4004 a été conçu pour être utilisé dans les calculatrices programmables dotées d'une taille de mémoire de 4 Ko.

Trois ans plus tard, Intel a lancé le processeur 8080, qui pouvait déjà effectuer des opérations arithmétiques sur 16 bits, disposait d'un bus d'adresses de 16 bits et pouvait donc adresser jusqu'à 64 Ko de mémoire (2 516 0 = 65536). L'année 1978 est marquée par la sortie du processeur 8086 avec une taille de mot de 16 bits (deux octets), un bus de 20 bits et pouvant fonctionner avec 1 Mo de mémoire (2 520 0 = 1048576, soit 1024 Ko), divisé en blocs. (segments) de 64 Ko chacun. Le processeur 8086 était inclus dans les ordinateurs compatibles avec les IBM PC et IBM PC/XT. La prochaine étape majeure dans le développement de nouveaux microprocesseurs fut le processeur 8028b, apparu en 1982. Il disposait d'un bus d'adresses de 24 bits, pouvait gérer 16 mégaoctets d'espace d'adressage et était installé sur des ordinateurs compatibles avec IBM PC/AT. En octobre 1985, le 80386DX est sorti avec un bus d'adresses de 32 bits (espace d'adressage maximum de 4 Go), et en juin 1988, le 80386SX est sorti, qui était moins cher que le 80386DX et avait un bus d'adresses de 24 bits. Puis, en avril 1989, le microprocesseur 80486DX est apparu, et en mai 1993, la première version du processeur Pentium est apparue (tous deux avec un bus d'adresse de 32 bits).

En mai 1995 à Moscou, lors de l'exposition internationale Comtec-95, Intel a présenté nouveau processeur-P6.

L'un des objectifs les plus importants fixés lors du développement du P6 était de doubler les performances du processeur Pentium. Parallèlement, la production des premières versions du P6 sera réalisée selon le "Intel" déjà débogué et utilisé en production dernières versions Technologie semi-conducteur Pentium (0,6 microns, 3,3 V).

L’utilisation du même processus de fabrication garantit que le P6 peut être produit en série sans problèmes majeurs. Cependant, cela signifie que le doublement des performances n'est obtenu que grâce à des améliorations complètes de la microarchitecture du processeur. La microarchitecture P6 a été conçue à l’aide d’une combinaison soigneusement pensée et optimisée de diverses techniques architecturales. Certains d'entre eux ont déjà été testés sur des processeurs de grands ordinateurs, d'autres ont été proposés par des établissements universitaires et le reste a été développé par les ingénieurs d'Intel. Cette combinaison unique de caractéristiques architecturales, qu'Intel appelle « exécution dynamique », a permis aux premières puces P6 de dépasser les niveaux de performances initialement prévus.

Par rapport aux processeurs Intel alternatifs de la famille x86, il s'avère que la microarchitecture P6 a beaucoup en commun avec la microarchitecture des processeurs Nx586 de NexGen et K5 d'AMD et, bien que dans une moindre mesure, avec le M1 de Cyrix. Ce point commun s'explique par le fait que les ingénieurs de quatre sociétés résolvaient le même problème : introduire des éléments de la technologie RISC tout en maintenant la compatibilité avec l'architecture Intel x86 CISC.

Deux cristaux dans un seul paquet

Le principal avantage et la caractéristique unique du P6 est son positionnement dans le même boîtier que le processeur se trouve une mémoire cache statique secondaire de 256 Ko, connectée au processeur par un bus spécialement dédié. Cette conception devrait simplifier considérablement la conception des systèmes basés sur P6. Le P6 est le premier microprocesseur conçu pour la production de masse à contenir deux puces dans un seul boîtier.

La puce CPU du P6 contient 5,5 millions de transistors ; Cristal de cache L2 - 15,5 millions. À titre de comparaison, le dernier modèle Pentium comprenait environ 3,3 millions de transistors et le cache L2 était implémenté à l'aide d'un ensemble externe de puces mémoire.

Un si grand nombre de transistors dans le cache s'explique par sa nature statique. La mémoire statique du P6 utilise six transistors pour stocker un bit, tandis que la mémoire dynamique n'aurait besoin que d'un transistor par bit. La mémoire statique est plus rapide, mais plus coûteuse. Bien que le nombre de transistors sur une puce avec cache secondaire soit trois fois plus grand que sur une puce de processeur, les dimensions physiques du cache sont plus petites : 202 millimètres carrés contre 306 pour le processeur. Les deux cristaux sont enfermés ensemble dans un boîtier en céramique avec 387 contacts (« réseau de broches à double cavité »). Les deux puces sont fabriquées en utilisant la même technologie (0,6 µm, 4 couches métal-BiCMOS, 2,9 V). Consommation électrique maximale estimée : 20 W à 133 MHz.

La première raison de combiner le processeur et le cache secondaire dans un seul package est de faciliter la conception et la production de systèmes hautes performances basés sur P6. Les performances d'un système informatique construit sur processeur rapide, cela dépend en grande partie du réglage fin des puces de l'environnement du processeur, en particulier du cache secondaire. Toutes les entreprises de fabrication d’ordinateurs ne peuvent pas se permettre les recherches appropriées. Dans P6, le cache secondaire est déjà configuré de manière optimale pour le processeur, ce qui simplifie la conception de la carte mère.

La deuxième raison de la fusion est d'améliorer la productivité. Le processeur de deuxième niveau est connecté au processeur par un bus de 64 bits spécialement dédié et fonctionne à la même fréquence d'horloge que le processeur.

Les premiers processeurs Pentium à 60 et 66 MHz accédaient au cache secondaire via un bus 64 bits à la même vitesse d'horloge. Cependant, à mesure que les vitesses d'horloge du Pentium augmentaient, il est devenu trop difficile et coûteux pour les concepteurs de maintenir de telles vitesses d'horloge sur la carte mère. Par conséquent, des diviseurs de fréquence ont commencé à être utilisés. Par exemple, pour un Pentium 100 MHz, le bus externe fonctionne à une fréquence de 66 MHz (pour un Pentium 90 MHz, il est respectivement de 60 MHz). Le Pentium utilise ce bus à la fois pour accéder au cache secondaire et pour accéder à la mémoire principale et à d'autres périphériques, tels que le chipset PCI.

L'utilisation d'un bus dédié pour accéder au cache secondaire améliore les performances du système. Premièrement, cela permet d'obtenir une synchronisation complète des vitesses du processeur et du bus ; deuxièmement, la concurrence avec d'autres opérations d'E/S et les retards associés sont éliminés. Le bus cache L2 est complètement séparé du bus externe, à travers lequel la mémoire et appareils externes. Le bus externe 64 bits peut fonctionner à la moitié, au tiers ou au quart de la vitesse du processeur, tandis que le bus de cache secondaire fonctionne indépendamment à pleine vitesse.

La combinaison du processeur et du cache secondaire en un seul package et leur communication via un bus dédié constituent une étape vers les techniques d'amélioration des performances utilisées dans les processeurs RISC les plus puissants. Ainsi, dans le processeur Alpha 21164 de Digital, le cache de deuxième niveau de 96 Ko est situé dans le cœur du processeur, comme le cache principal. Cela permet d'obtenir des performances de cache très élevées en augmentant le nombre de transistors sur la puce à 9,3 millions. Les performances de l'Alpha 21164 sont de 330 SPECint92 à 300 MHz. Les performances du P6 sont inférieures (Intel estime 200 SPECint92 à 133 MHz), mais le P6 offre le meilleur rapport coût/performance pour son marché potentiel.

Lors de l'évaluation du rapport coût/performance, il convient de considérer que même si le P6 peut être plus cher que ses concurrents, la plupart des autres processeurs doivent être entourés d'un ensemble supplémentaire de puces mémoire et d'un contrôleur de cache. De plus, pour obtenir des performances de cache comparables, les autres processeurs devront utiliser des caches plus grands que 256 Ko.

Intel propose généralement de nombreuses variantes de ses processeurs. Ceci est fait afin de satisfaire les exigences variées des concepteurs de systèmes et de laisser moins de place aux modèles concurrents. Par conséquent, nous pouvons supposer que peu de temps après le début de la production du P6, à la fois des modifications avec un volume accru de mémoire cache secondaire et des modifications moins chères avec un emplacement externe du cache secondaire, mais avec un bus dédié conservé entre le cache secondaire et le processeur, apparaîtra.

Pentium comme point de départ

Processeur Pentium avec son pipeline et son superscalaire l'architecture a atteint des niveaux de performances impressionnants. Le Pentium contient deux pipelines à 5 étages qui peuvent fonctionner en parallèle et exécuter deux instructions entières par cycle d'horloge machine. Dans ce cas, seule une paire de commandes peut être exécutée en parallèle, se succédant dans le programme et satisfaisant certaines règles, par exemple l'absence de dépendances de registre de type « écriture après lecture ».

Dans P6, pour augmenter le débit, une transition a été effectuée vers un pipeline unique à 12 étages. L'augmentation du nombre d'étapes entraîne une diminution du travail effectué à chaque étape et, par conséquent, une réduction de 33 % du temps passé par une équipe à chaque étape par rapport au Pentium. Cela signifie qu'en utilisant la même technologie utilisée pour produire un P6 qu'un Pentium à 100 MHz, on obtiendrait un P6 cadencé à 133 MHz.

La puissance de l'architecture superscalaire du Pentium, avec sa capacité à exécuter deux instructions par horloge, serait difficile à battre sans une approche complètement nouvelle. La nouvelle approche de P6 élimine la relation rigide entre les phases traditionnelles de « récupération » et « d'exécution », où la séquence de commandes à travers ces deux phases correspond à la séquence de commandes dans le programme.

La nouvelle approche implique l'utilisation de ce que l'on appelle le pool de commandes et de nouveaux méthodes efficaces prédire le comportement futur du programme. Dans ce cas, la phase traditionnelle « exécution » est remplacée par deux : « dispatching/execution » et « rollback ». En conséquence, les commandes peuvent commencer à s'exécuter dans n'importe quel ordre, mais terminer toujours leur exécution conformément à leur ordre d'origine dans le programme. Le cœur P6 est implémenté sous la forme de trois dispositifs indépendants interagissant via un pool de commandes (Fig. 1).

Le principal problème de l’amélioration de la productivité

La décision d'organiser le P6 en trois appareils indépendants interagissant via un pool d'instructions a été prise après une analyse approfondie des facteurs limitant les performances des microprocesseurs modernes. Un fait fondamental, vrai pour le Pentium et de nombreux autres processeurs, est que la puissance du processeur n'est pas utilisée au maximum lors de l'exécution de programmes du monde réel.

Alors que la vitesse des processeurs a été multipliée par au moins 10 au cours des 10 dernières années, les temps d'accès à la mémoire principale n'ont diminué que de 60 %. Ce décalage croissant entre la vitesse de la mémoire et la vitesse du processeur était le problème fondamental qu'il fallait résoudre lors de la conception du P6.

Une approche possible pour résoudre ce problème consiste à se concentrer sur le développement de composants hautes performances entourant le processeur. Cependant, la production en série de systèmes comprenant à la fois un processeur hautes performances et des puces à environnement spécialisé à haute vitesse serait trop coûteuse.

Une solution possible par force brute pourrait consister à augmenter la taille du cache L2 afin de réduire le pourcentage de fois où le cache manque les données requises.

Cette solution est efficace, mais aussi extrêmement coûteuse, surtout compte tenu des exigences actuelles en matière de vitesse pour les composants de cache L2. Le P6 a été conçu dans l'optique d'une mise en œuvre efficace d'un système informatique complet, et il était nécessaire d'obtenir des performances élevées de l'ensemble du système à l'aide d'un sous-système de mémoire à faible coût.

Ainsi, La combinaison de techniques architecturales du P6 telles que la prédiction de branchement améliorée (la séquence de commandes suivante est presque toujours correctement déterminée), l'analyse du flux de données (l'ordre optimal d'exécution des commandes est déterminé) et l'exécution anticipée (la séquence de commandes prévue est exécutée sans temps d'arrêt). dans l'ordre optimal) des performances doublées par rapport au Pentium en utilisant la même technologie de production. Cette combinaison de méthodes est appelée exécution dynamique.

Actuellement, Intel développe une nouvelle technologie de production de 0,35 micron, qui permettra de produire des processeurs P6 avec une vitesse d'horloge de base supérieure à 200 MHz.

P6 comme plate-forme pour créer des serveurs puissants

Parmi les plus significatifs Les tendances du développement informatique de ces dernières années peuvent être soulignées comme l'utilisation croissante de systèmes basés sur des processeurs de la famille x86 comme serveurs d'applications et le rôle croissant d'Intel en tant que fournisseur de technologies non liées aux processeurs, telles que les bus, technologies de réseau, compression vidéo, mémoire flash et outils d'administration système.

La sortie du processeur P6 poursuit la politique d'Intel consistant à apporter au marché de masse des capacités auparavant réservées aux ordinateurs plus chers. Un contrôle de parité est assuré pour les registres P6 internes, et le bus 64 bits reliant le cœur du processeur et le cache de deuxième niveau est équipé d'outils de détection et de correction d'erreurs. Les nouvelles capacités de diagnostic intégrées au P6 permettent aux fabricants de concevoir des systèmes plus fiables. Le P6 offre la possibilité d'obtenir des informations via les contacts du processeur ou à l'aide d'un logiciel sur plus de 100 variables ou événements du processeur qui s'y produisent, tels que l'absence de données dans le cache, le contenu des registres, l'apparition de code auto-modifiable et bientôt. Le système d'exploitation et d'autres programmes peuvent lire ces informations pour déterminer l'état du processeur. P6 offre également une prise en charge améliorée des points de contrôle, ce qui signifie que l'ordinateur peut être ramené à un état précédemment enregistré si une erreur se produit.

Documents similaires

    La technologie informatique est apparue il y a longtemps, puisque le besoin de divers types de calculs existait à l'aube du développement de la civilisation. Développement rapide de la technologie informatique. Création des premiers PC, mini-ordinateurs depuis les années 80 du XXème siècle.

    résumé, ajouté le 25.09.2008

    Caractéristiques des systèmes de maintenance technique et préventive des équipements informatiques. Programmes de diagnostic pour les systèmes d'exploitation. Interrelation des systèmes de contrôle automatisés. Protéger votre ordinateur des influences extérieures néfastes.

    résumé, ajouté le 25/03/2015

    Développement d'un système d'information et d'analyse pour analyser et optimiser la configuration des équipements informatiques. Structure de contrôle automatisé des équipements informatiques. Logiciel, justification de l'efficacité économique du projet.

    thèse, ajoutée le 20/05/2013

    L'étape manuelle du développement de la technologie informatique. Système de numérotation positionnelle. Développement de la mécanique au XVIIe siècle. Stade électromécanique de développement de la technologie informatique. Ordinateurs de cinquième génération. Options et caractéristiques distinctives superordinateur.

    travail de cours, ajouté le 18/04/2012

    La structure et le principe de fonctionnement d'un ordinateur personnel (PC). Diagnostic des performances du PC et identification des défauts. Tâches Entretien installations informatiques. Développement de méthodes de maintien des équipements en état de fonctionnement.

    travail de cours, ajouté le 13/07/2011

    Étude des pratiques étrangères et nationales en matière de développement de la technologie informatique, ainsi que des perspectives de développement des ordinateurs dans un avenir proche. Technologies d'utilisation des ordinateurs. Étapes de développement de l'industrie informatique dans notre pays. Fusionner PC et communications.

    travail de cours, ajouté le 27/04/2013

    Classification des procédures de conception. Histoire de la synthèse de la technologie informatique et de la conception technique. Fonctions des systèmes de conception assistée par ordinateur, leurs logiciels. Caractéristiques de l'utilisation de scanners, manipulateurs et imprimantes tridimensionnels.

    résumé, ajouté le 25/12/2012

    Automatisation du traitement des données. L'informatique et ses résultats pratiques. Histoire de la création de la technologie informatique numérique. Ordinateurs électromécaniques. Usage les tubes à vide et ordinateurs des première, troisième et quatrième générations.

    thèse, ajoutée le 23/06/2009

    Le concept et les caractéristiques d'un ordinateur personnel, ses principales pièces et leur fonction. Outils pédagogiques en informatique et caractéristiques de l'organisation du travail dans une classe d'informatique. Équipement des postes de travail et application de logiciels.

    résumé, ajouté le 09/07/2012

    La composition d'un système informatique est la configuration de l'ordinateur, de son matériel et de ses logiciels. Appareils et instruments qui constituent la configuration matérielle d'un ordinateur personnel. Mémoire principale, ports E/S, adaptateur périphérique.




Haut