Quel est le pouvoir des informations alphabétiques. Volume d'information du texte et unités de mesure de l'information. Méthodes de mesure des informations sous forme électronique

RÉSOLUTION DE PROBLÈME

Lors du stockage et de la transmission d'informations à l'aide appareils techniques les informations doivent être considérées comme une séquence de symboles - signes (lettres, chiffres, codes couleurs des points d'image, etc.).

Un ensemble de symboles d'un système de signes (alphabet) peut être considéré comme différents états (événements) possibles.
Ensuite, si l'on suppose que l'apparition de symboles dans un message est également probable, le nombre d'événements possibles N peut être calculé comme N=2i
Quantité d'informations dans un message je peut être calculé en multipliant le nombre de caractères K par poids d'information d'un caractère je
Nous avons donc les formules nécessaires pour déterminer la quantité d'informations dans l'approche alphabétique :

Les combinaisons suivantes de quantités connues (Données) et recherchées (Trouver) sont possibles :

TaperDonnéTrouverFormule
1 je N N=2i
2 N je
3 je,K je Je = K*i
4 je, je K
5 Moi, K je
6 N, K je Les deux formules
7 N, je K
8 Moi, K N

Si l'on ajoute à ces problèmes des tâches sur le rapport de grandeurs écrites dans différentes unités de mesure, en utilisant la représentation des grandeurs sous forme de puissances de deux, on obtient 9 types de problèmes.
Considérons les tâches de tous types. Admettons qu'en passant d'une unité de mesure de l'information à une autre, on va construire une chaîne de valeurs. La probabilité d’une erreur de calcul diminue alors.

Problème 1. Un message a été reçu avec un volume d'informations de 32 bits. Quel est ce volume en octets ?

Solution : Il y a 8 bits dans un octet. 32:8=4
Réponse : 4 octets.

Problème 2. Le volume du message d'information est de 12582912 bits, exprimé en kilo-octets et mégaoctets.

Solution : Puisque 1 Ko = 1 024 octets = 1 024 * 8 bits, alors 12582912 : (1 024 * 8) = 1 536 Ko et
puisque 1 Mo = 1024 Ko, alors 1536 : 1024 = 1,5 Mo
Réponse : 1 536 Ko et 1,5 Mo.

Tâche 3. L'ordinateur a RAM 512 Mo. Le nombre de bits correspondant à cette valeur est supérieur :

1) 10 000 000 000 bits 2) 8 000 000 000 bits 3) 6 000 000 000 bits 4) 4 000 000 000 bits Solution : 512*1024*1024*8 bits = 4294967296 bits.
Réponse : 4.

Tâche 4. Déterminez le nombre de bits dans deux mégaoctets, en utilisant uniquement des puissances de 2 pour les nombres.
Solution : Puisque 1 octet = 8 bits = 2 3 bits et 1 Mo = 2 10 Ko = 2 20 octets = 2 23 bits. Par conséquent, 2 Mo = 2 24 bits.
Réponse : 2 24 bits.

Tâche 5. Combien de mégaoctets d'informations contient un message de 2 à 23 bits ?
Solution : Puisque 1 octet = 8 bits = 2 3 bits, alors
2 23 bits=2 23 *2 23 *2 3 bits=2 10 2 10 octets=2 10 Ko=1 Mo.
Réponse : 1 Mo

Tâche 6. Un caractère de l'alphabet « pèse » 4 bits. Combien de caractères y a-t-il dans cet alphabet ?
Solution:
Donné:


Réponse : 16

Tâche 7. Chaque caractère de l'alphabet est écrit à l'aide de 8 chiffres de code binaire. Combien de caractères y a-t-il dans cet alphabet ?
Solution:
Donné:


Réponse : 256

Tâche 8. L'alphabet russe est parfois estimé à 32 lettres. Quel est le poids informationnel d'une lettre d'un alphabet russe aussi abrégé ?
Solution:
Donné:


Réponse : 5

Tâche 9. L'alphabet est composé de 100 caractères. Quelle quantité d’informations un caractère de cet alphabet contient-il ?
Solution:
Donné:


Réponse : 5

Problème 10. La tribu Chichevok compte 24 lettres et 8 chiffres dans son alphabet. Il n'y a pas de signes de ponctuation ni de signes arithmétiques. Quel est le nombre minimum de chiffres binaires dont ils ont besoin pour coder tous les caractères ? Attention, les mots doivent être séparés les uns des autres !
Solution:
Donné:


Réponse : 5

Problème 11. Le livre, dactylographié à l'aide d'un ordinateur, contient 150 pages. Chaque page comporte 40 lignes, chaque ligne comporte 60 caractères. Combien d’informations contient le livre ? Donnez votre réponse en kilo-octets et mégaoctets
Solution:
Donné:


Réponse : 351 Ko ou 0,4 Mo

Problème 12. Le volume d'informations du texte du livre, saisi sur un ordinateur utilisant le codage Unicode, est de 128 kilo-octets. Déterminez le nombre de caractères dans le texte du livre.
Solution:
Donné:


Réponse : 65536

Problème 13. Un message d'information de 1,5 Ko contient 3 072 caractères. Déterminer le poids informationnel d'un caractère de l'alphabet utilisé
Solution:
Donné:


Réponse : 4

Problème 14. Le message, rédigé en lettres de l'alphabet de 64 caractères, contient 20 caractères. Quelle quantité d’informations contient-il ?
Solution:
Donné:


Réponse : 120 bits

Problème 15. Combien de caractères contient un message écrit avec un alphabet de 16 caractères si sa taille est de 1/16 de mégaoctet ?
Solution:
Donné:


Réponse : 131072

Problème 16. La taille du message, contenant 2 048 caractères, était de 1/512 de mégaoctet. Quelle est la taille de l’alphabet dans lequel le message est écrit ?
Solution:
Donné:


Réponse : 256

Tâches pour une solution indépendante :

  1. Chaque caractère de l'alphabet est écrit à l'aide de 4 chiffres de code binaire. Combien de caractères y a-t-il dans cet alphabet ?
  2. L'alphabet pour écrire des messages est composé de 32 caractères ; quel est le poids informationnel d'un caractère ? N'oubliez pas d'indiquer l'unité de mesure.
  3. Le volume d'informations du texte saisi sur un ordinateur utilisant le codage Unicode (chaque caractère est codé sur 16 bits) est de 4 Ko. Déterminez le nombre de caractères dans le texte.
  4. Le volume du message d'information est de 8192 bits. Exprimez-le en kilo-octets.
  5. Combien de bits d’informations contient un message de 4 Mo ? Donnez la réponse en puissances de 2.
  6. Un message écrit en lettres de l'alphabet de 256 caractères contient 256 caractères. Quelle quantité d’informations contient-il en kilo-octets ?
  7. Combien y en a-t-il de différents ? signaux sonores, composé de séquences d'appels courts et longs. La durée de chaque signal est de 6 appels.
  8. La station météorologique surveille l'humidité de l'air. Le résultat d'une mesure est un entier compris entre 20 et 100 %, écrit en utilisant le plus petit nombre de bits possible. La station a effectué 80 mesures. Déterminer le volume d'informations à la suite d'observations.
  9. Le débit de transfert de données via une connexion ADSL est de 512 000 bps. À travers cette connexion transférer un fichier de 1 500 Ko. Déterminez le temps de transfert de fichiers en secondes.
  10. Déterminez la vitesse du modem s'il peut transmettre une image raster de 640x480 pixels en 256 s. Il y a 3 octets pour chaque pixel. Et s'il y avait 16 millions de couleurs dans la palette ?
Le sujet de la détermination de la quantité d'informations sur la base de l'approche alphabétique est utilisé dans les tâches A1, A2, A3, A13, B5 du matériel de test de l'examen d'État unifié.

Il existe plusieurs façons de mesurer la quantité d'informations. L'un d'eux s'appelle alphabétique.

Approche alphabétique permet de mesurer la quantité d'informations dans un texte (message symbolique) composé de caractères d'un certain alphabet.

Alphabet est un ensemble de lettres, signes, chiffres, parenthèses, etc.
Le nombre de caractères de l'alphabet s'appelle son pouvoir.

Avec l'approche alphabétique, on pense que chaque caractère du texte a une signification spécifique. poids des informations. Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

Quelle est la puissance minimale de l’alphabet qui peut être utilisée pour enregistrer (coder) des informations ?



Appelons une combinaison de 2, 3, etc. peu code binaire.

Combien de caractères peuvent être codés avec deux bits ?

Numéro de séquence du symbole

1

2

3

4

Code binaire à deux chiffres

00

01

10

11

4 personnages 2 morceaux.

Combien de caractères peuvent être codés avec trois bits ?

Numéro de séquence du symbole

1

2

3

4

5

6

7

8

Code binaire à trois chiffres

000

001

010

011

100

101

110

111


Il s'ensuit que dans l'alphabet de cardinalité 8 caractères poids informationnel de chaque caractère - 3 bits.

On peut conclure que dans l'alphabet avec capacité 16 caractères le poids informationnel de chaque caractère sera 4 bits.

Désignons la puissance de l'alphabet par la lettre N, et le poids informationnel du symbole est la lettre b.

La relation entre le pouvoir de l'alphabet N et le poids informationnel du symbole b.

N

2

4

8

16

b

1 peu

Informations de mesure.

Approche alphabétique de la mesure de l'information.

Le même message peut véhiculer beaucoup d’informations pour une personne et ne pas en véhiculer du tout pour une autre personne. Avec cette approche, il est difficile de déterminer sans ambiguïté la quantité d'informations.

L'approche alphabétique permet de mesurer le volume d'information d'un message présenté dans une langue (naturelle ou formelle), quel que soit son contenu.

Pour exprimer quantitativement n’importe quelle quantité, il faut tout d’abord une unité de mesure. La mesure est effectuée en comparant la valeur mesurée avec une unité de mesure. Le nombre de fois qu'une unité de mesure « s'adapte » à la valeur mesurée est le résultat de la mesure.

Dans l'approche alphabétique, on pense que chaque caractère d'un certain message a une signification spécifique. poids des informations- porte un fixe quantité d'informations. Tous les caractères d’un même alphabet ont le même poids, selon la puissance de l’alphabet. Le poids informationnel d'un symbole de l'alphabet binaire est considéré comme l'unité minimale d'information et est appelé 1 peu.

Veuillez noter que le nom de l'unité d'information « bit » vient de l'expression anglaise « chiffre binaire » - « chiffre binaire ».

1 bit est considéré comme l'unité d'information minimale. On pense qu'il s'agit du poids informationnel d'un symbole de l'alphabet binaire.

1.6.2. Poids de l'information d'un caractère d'un alphabet arbitraire

Nous avons découvert précédemment que l'alphabet de toute langue naturelle ou formelle peut être remplacé par un alphabet binaire. Dans ce cas, la puissance de l'alphabet original N est liée à la capacité en bits du code binaire i nécessaire pour coder tous les caractères de l'alphabet original, la relation : N = 2 i.

Le poids informationnel du symbole alphabétique i et la puissance de l'alphabet N sont liés l'un à l'autre par la relation : N = 2 i.

Tache 1. L'alphabet Pulti contient 8 caractères. Quel est le poids informationnel d’un symbole de cet alphabet ?

Solution. Faisons un bref exposé des conditions du problème.

La relation entre les quantités i et N est connue : N = 2 i.

Compte tenu des données initiales : 8 = 2 i. D'où : i = 3.

La solution complète dans un notebook pourrait ressembler à ceci :

Réponse : 3 bits.

1.6.3. Volume d'informations du message

Volume d'informations le message (la quantité d'informations dans un message), représenté par des symboles d'un langage naturel ou formel, est constitué des poids d'information de ses symboles constitutifs.

Le volume d'informations du message I est égal au produit du nombre de caractères du message K et du poids informationnel du caractère alphabétique i : I = K * i.

Problème 2. Le message, rédigé dans l'alphabet de 32 caractères, contient 140 caractères. Quelle quantité d’informations contient-il ?

Tâche 3. Un message d'information d'un volume de 720 bits comprend 180 caractères. Quelle est la puissance de l’alphabet dans lequel ce message est écrit ?

1.6.4. Unités d'information

De nos jours, la préparation des textes s’effectue principalement à l’aide d’ordinateurs. On peut parler d'un « alphabet informatique », qui comprend les caractères suivants : minuscules et majuscules russes et des lettres, chiffres, signes de ponctuation, symboles arithmétiques, parenthèses, etc. Cet alphabet contient 256 caractères. Puisque 256 = 28, le poids informationnel de chaque caractère de cet alphabet est de 8 bits. Une valeur égale à huit bits est appelée un octet. 1 octet est le poids informationnel d'un symbole alphabétique d'une capacité de 256.

1 octet = 8 bits

Le bit et l'octet sont de « petites » unités de mesure. En pratique, des unités plus grandes sont utilisées pour mesurer les volumes d'informations :

1 kilo-octet = 1 Ko = 1024 octets = 210 octets

1 mégaoctet = 1 Mo = 1 024 Ko = 210 Ko = 220 octets

1 gigaoctet = 1 Go = 1 024 Mo = 210 Mo = 220 Ko = 230 octets

1 téraoctet = 1 To = 1 024 Go = 210 Go = 220 Mo = 230 Ko = 240 octets

Tâche 4. Un message d'information de 4 Ko comprend 4 096 caractères. Quel est le poids informationnel du symbole de l’alphabet utilisé ? Combien de caractères contient l’alphabet avec lequel ce message est écrit ?

Problème 5. 128 athlètes participent au cyclocross. Un dispositif spécial enregistre le passage de chaque participant à l'arrivée intermédiaire, en enregistrant son numéro dans une chaîne de zéros et de uns de longueur minimale, la même pour chaque athlète. Quel sera le volume d'informations du message enregistré par l'appareil après que 80 cyclistes auront terminé l'arrivée intermédiaire ?

Solution. Les numéros des 128 participants sont codés selon l'alphabet binaire. La profondeur de bits requise du code binaire (longueur de la chaîne) est de 7, puisque 128 = 27. En d'autres termes, le message enregistré par l'appareil indiquant qu'un cycliste a franchi l'arrivée intermédiaire contient 7 bits d'information. Lorsque 80 athlètes terminent l'arrivée intermédiaire, l'appareil enregistrera 80 7 = 560 bits, soit 70 octets d'informations.

Rappelons que, du point de vue d'une approche subjective de la définition de l'information, l'information est le contenu des messages qu'une personne reçoit de diverses sources. Le même message peut véhiculer beaucoup d’informations pour une personne et ne pas en véhiculer du tout pour une autre personne. Avec cette approche, il est difficile de déterminer sans ambiguïté la quantité d'informations.

L'approche alphabétique permet de mesurer le volume d'information d'un message présenté dans une langue (naturelle ou formelle), quel que soit son contenu.

Pour exprimer quantitativement n’importe quelle quantité, il faut tout d’abord une unité de mesure. La mesure est effectuée en comparant la valeur mesurée avec une unité de mesure. Le nombre de fois qu'une unité de mesure « s'adapte » à la valeur mesurée est le résultat de la mesure.

Avec l'approche alphabétique, on pense que chaque caractère d'un message a un certain poids d'information - il transporte une quantité fixe d'informations. Tous les caractères d’un même alphabet ont le même poids, selon la puissance de l’alphabet. Le poids informationnel d'un symbole de l'alphabet binaire est considéré comme l'unité minimale d'information et est appelé 1 bit. Veuillez noter que le nom de l'unité d'information « bit » vient de l'expression anglaise « binaire chiffre ».

1.4.2. Poids de l'information d'un caractère d'un alphabet arbitraire

Nous avons découvert précédemment que l'alphabet de toute langue naturelle ou formelle peut être remplacé par un alphabet binaire. Dans ce cas, la puissance de l'alphabet original N est liée à la capacité en bits du code binaire i nécessaire pour coder tous les caractères de l'alphabet original, la relation : N = 2 i.

Problème 1. L'alphabet Pulti contient 8 caractères. Quel est le poids informationnel d’un symbole de cet alphabet ?

Solution. Faisons un bref exposé des conditions du problème.

La relation entre les quantités i et N est connue : N = 2 i.

Compte tenu des données initiales : 8 = 2 i. D'où : i = 3.

La solution complète dans un notebook pourrait ressembler à ceci :

Réponse : 3 bits

1.4.3. Volume d'informations du message

Le volume d'informations d'un message (la quantité d'informations dans un message), représenté par des symboles d'un langage naturel ou formel, est constitué des poids d'information de ses symboles constitutifs.

Problème 2. Le message, rédigé dans l'alphabet de 32 caractères, contient 140 caractères. Quelle quantité d’informations contient-il ?

Solution.

Réponse » : 700 bits.

Problème 3. Un message d'information d'un volume de 720 bits comprend 180 caractères. Quelle est la puissance de l’alphabet dans lequel ce message est écrit ?

Solution.

Réponse : 16 caractères.

1.4.4. Unités d'information

De nos jours, la préparation des textes s’effectue principalement à l’aide d’ordinateurs. On peut parler d'un « alphabet informatique » qui comprend les caractères suivants : lettres minuscules et majuscules russes et latines, chiffres, signes de ponctuation, signes d'opérations arithmétiques, parenthèses, etc. Cet alphabet contient 256 caractères. Puisque 256 = 2 8 , le poids informationnel de chaque caractère de cet alphabet est de 8 bits. Une valeur égale à huit bits est appelée un octet. 1 octet est le poids informationnel d'un symbole alphabétique d'une capacité de 256.

Problème 4. Un message d'information de 4 Ko comprend 4 096 caractères. Quel est le poids informationnel du symbole de ce message ? Combien de caractères contient l’alphabet avec lequel ce message est écrit ? Solution.

Réponse : 256 caractères.

Le plus important

Avec l'approche alphabétique, on pense que chaque caractère d'un certain message a un certain poids d'information - il transporte une quantité fixe d'informations.

1 bit est l'unité d'information minimale.

Le poids d'information i du symbole alphabétique et la puissance N de l'alphabet sont liés l'un à l'autre par la relation : N = 2 i . Le volume d'information I du message est égal au produit du nombre K de caractères du message par le poids informationnel du i caractère de l'alphabet : I = K i.

1 octet = 8 bits.

L'octet, le kilooctet, le mégaoctet, le gigaoctet, le téraoctet sont des unités de mesure de l'information. Chaque unité suivante est 1024 (2 10) fois plus grande que la précédente.

Questions et tâches


En informatique, un alphabet est un système de signes pouvant être utilisé pour transmettre un message d’information. Pour comprendre l’essence de cette définition, voici quelques faits théoriques supplémentaires :

  1. Tous les messages sont constitués de l'alphabet. Par exemple, cet article est un message. Ensuite, il se compose de caractères de l’alphabet russe.
  2. Par symbole, nous pouvons comprendre la particule minimalement significative de l'alphabet. Les particules indivisibles sont également appelées atomes. Les caractères de l’alphabet russe sont « a », puis « b », « v », etc.
  3. En théorie, l’alphabet n’a pas besoin d’être codé d’une manière ou d’une autre. Par exemple, dans un livre imprimé, les caractères de l'alphabet signifient eux-mêmes, ce qui signifie qu'ils n'ont aucun encodage.

Mais en pratique, nous avons ceci : l'ordinateur ne comprend pas ce que sont les lettres. Par conséquent, pour transmettre un message d’information, celui-ci doit d’abord être codé dans un langage compréhensible par l’ordinateur. Pour aller plus loin, il est nécessaire d'introduire des termes supplémentaires.

Quel est le pouvoir de l'alphabet

Par puissance d’un alphabet, nous entendons le nombre total de caractères qu’il contient. Pour découvrir la puissance de l’alphabet, il vous suffit de compter le nombre de caractères qu’il contient. Voyons cela. Pour l'alphabet russe, la puissance de l'alphabet est de 33, ou 32 caractères si vous n'utilisez pas « ё ».

Supposons que tous les caractères de notre alphabet apparaissent avec la même probabilité. Cette hypothèse peut être comprise comme suit : disons que nous avons un sac de cubes étiquetés. Le nombre de cubes qu'il contient est infini et chacun est signé d'un seul symbole. Ensuite, avec une répartition uniforme, quel que soit le nombre de cubes que nous retirons du sac, le nombre de cubes avec des symboles différents sera le même, ou tendra vers cela à mesure que le nombre de cubes que nous sortons du sac augmente.

Estimation du poids des messages d'information

Il y a près de cent ans, l'ingénieur américain Ralph Hartley a développé une formule permettant d'estimer la quantité d'informations contenues dans un message. Sa formule fonctionne pour des événements également probables et ressemble à ceci :

je = journal 2 M

Où « i » est le nombre d'atomes d'information (bits) indivisibles dans le message, « M » est la puissance de l'alphabet. Allons-nous en. À l’aide de transformations mathématiques, nous pouvons déterminer que la puissance de l’alphabet peut être calculée comme suit :

Cette formule définit en général la relation entre le nombre d'événements équiprobables « M » et la quantité d'informations « i ».

Pouvoir de calcul

Très probablement, vous savez déjà grâce aux cours d'informatique de votre école que les systèmes informatiques modernes construits sur l'architecture de von Neumann utilisent un système de codage d'informations binaire. C'est ainsi que les programmes et les données sont codés.

Afin de représenter du texte dans un système informatique, un code uniforme à huit chiffres est utilisé. Un code est considéré comme uniforme car il contient un ensemble fixe d'éléments - 0 et 1. Les valeurs d'un tel code sont spécifiées par un certain ordre de ces éléments. En utilisant un code de huit bits, nous pouvons coder des messages pesant 256 bits, car selon la formule de Hartley : M 8 = 2 8 = 256 bits d'information.

Cette situation avec le codage de caractères binaires s'est développée historiquement. Mais en théorie, nous pourrions utiliser d’autres alphabets pour représenter les données. Ainsi, par exemple, dans un alphabet à quatre caractères, chaque caractère aurait un poids non pas d'un, mais de deux bits, dans un alphabet de huit caractères - 3 bits, et ainsi de suite. Ceci est calculé en utilisant le logarithme binaire donné ci-dessus ( je = journal 2 M).

Étant donné que dans un alphabet d'une puissance de 256 bits, huit chiffres binaires sont alloués pour désigner un caractère, il a été décidé d'introduire une mesure d'information supplémentaire - un octet. Un octet contient un caractère ASCII et contient huit bits.

Comment les informations sont mesurées

Codage sur huit bits des messages texte, qui est utilisé dans la table de caractères ASCII, vous permet de prendre en compte ensemble de base Caractères latins et cyrilliques en majuscules et minuscules, chiffres, symboles de ponctuation et autres caractères de base.

Afin de mesurer de plus grandes quantités de données, des préfixes spéciaux sont utilisés pour les mots octet et bit. Ces préfixes sont indiqués dans le tableau ci-dessous :

De nombreuses personnes qui ont étudié la physique diront qu'il serait rationnel d'utiliser des préfixes classiques pour désigner des unités d'information (comme le kilo et le méga), mais en réalité, ce n'est pas tout à fait correct, car de tels préfixes de quantités désignent une multiplication par un ou une autre puissance du nombre dix, alors qu'en informatique le système de mesure binaire est utilisé partout.

Noms corrects des unités de données

Afin d'éliminer les inexactitudes et les inconvénients, en mars 1999, la Commission internationale dans le domaine du génie électrique a approuvé de nouveaux préfixes pour les unités utilisées pour déterminer la quantité d'informations dans les documents électroniques. la technologie informatique. Ces préfixes étaient « mebi », « kibi », « gibi », « tebi », « exbi », « peti ». Ces unités n’ont pas encore pris racine, il faudra donc probablement du temps pour introduire cette norme et commencer à l’utiliser à grande échelle. Vous pouvez déterminer comment effectuer la transition des unités classiques vers les unités nouvellement approuvées à l'aide du tableau suivant :

Supposons que nous ayons un texte contenant K caractères. Ensuite, en utilisant l’approche alphabétique, nous pouvons calculer la quantité d’informations V qu’il contient. Il sera égal au produit de la puissance de l'alphabet et du poids informationnel d'un caractère qu'il contient.

Grâce à la formule de Hartley, nous savons comment calculer la quantité d'informations grâce au logarithme binaire. En supposant que le nombre de caractères alphabétiques est N et que le nombre de caractères dans l'enregistrement du message d'information est K, nous obtenons la formule suivante pour calculer le volume d'informations du message :

V = K ⋅ log 2 N

L'approche alphabétique indique que le volume d'informations dépendra uniquement de la puissance de l'alphabet et de la taille des messages (c'est-à-dire du nombre de caractères qu'il contient), mais ne sera en aucun cas lié au contenu sémantique pour une personne. .

Exemples de calcul de puissance

Dans les cours d'informatique, ils posent souvent des problèmes pour trouver la puissance de l'alphabet, la longueur d'un message ou le volume d'informations. Voici une de ces tâches :

"Le fichier texte occupe 11 Ko d'espace disque et contient 11 264 caractères. Déterminez la capacité alphabétique de ce fichier texte."

La solution sera visible dans l’image ci-dessous.

Ainsi, un alphabet d'une capacité de 256 caractères ne contient que 8 bits d'information, ce qu'on appelle en informatique un octet. Un octet décrit 1 caractère de la table ASCII, ce qui, à bien y réfléchir, n'est pas beaucoup du tout.

Un octet est-il beaucoup ou peu ?

Les entrepôts de données modernes comme les centres de données de Google et Facebook ne contiennent pas moins de dizaines de pétaoctets d'informations. Cependant, la quantité exacte de données sera difficile à calculer, même pour eux, car il faudra alors arrêter tous les processus sur les serveurs et refuser aux utilisateurs l'accès à l'enregistrement et à la modification de leurs informations personnelles.

Mais pour imaginer des quantités de données aussi incroyables, il faut bien comprendre que tout est constitué de petits détails. Il est nécessaire de comprendre quelle est la puissance de l'alphabet (256) et combien de bits contient 1 octet d'information (comme vous vous en souvenez, 8).




Haut