Assemblage d'ordinateurs en clusters. Cluster de bureau. Configuration des paramètres réseau

Aujourd'hui, les processus commerciaux de nombreuses entreprises sont entièrement liés à l'information.
les technologies. Avec la dépendance croissante des organisations au travail informatique
réseaux, la disponibilité des services à tout moment et sous n'importe quelle charge joue un rôle important
rôle. Un ordinateur ne peut fournir que Premier niveau fiabilité et
évolutivité, le niveau maximum peut être atteint en combinant
un système unique de deux ordinateurs ou plus - un cluster.

Pourquoi avez-vous besoin d'un cluster ?

Les clusters sont utilisés dans les organisations qui ont besoin de services 24 heures sur 24 et
disponibilité ininterrompue des services et où toute interruption du travail n'est pas souhaitable et
inacceptable. Ou dans les cas où il y a une éventuelle surtension de charge, qui peut
le serveur principal ne peut pas faire face, alors des serveurs supplémentaires aideront à compenser
des hôtes qui effectuent habituellement d’autres tâches. Pour serveur de courrier, traitement
des dizaines et des centaines de milliers de lettres par jour, ou un serveur web desservant
boutiques en ligne, l'utilisation de clusters est hautement souhaitable. Pour l'utilisateur
un tel système reste totalement transparent - l'ensemble du groupe d'ordinateurs
ressembler à un seul serveur. En utiliser plusieurs, encore moins chers,
les ordinateurs vous permettent d'obtenir des avantages très significatifs par rapport à un seul
et un serveur rapide. Il s'agit d'une répartition uniforme des demandes entrantes,
tolérance aux pannes accrue, car lorsqu'un élément tombe en panne, sa charge
repris par d'autres systèmes, évolutivité, maintenance et remplacement pratiques
nœuds de cluster, et bien plus encore. Défaillance automatique d'un nœud
est détecté et la charge est redistribuée, tout cela reste au client
inaperçu.

Fonctionnalités Win2k3

De manière générale, certains clusters sont conçus pour améliorer la disponibilité des données,
d'autres - pour assurer performance maximum. Dans le cadre de l'article, nous
sera d'intérêt MPP (Traitement Massif Parallèle)- des clusters, en
dans lequel des applications similaires s'exécutent sur plusieurs ordinateurs, fournissant
évolutivité des services. Il existe plusieurs technologies qui permettent
répartir la charge entre plusieurs serveurs : réorientation du trafic,
traduction d'adresse, Tournoi circulaire DNS, utilisation de produits spéciaux
programmes
, travaillant au niveau applicatif, comme les accélérateurs web. DANS
Win2k3, contrairement à Win2k, la prise en charge du clustering est incluse initialement et
deux types de clusters sont pris en charge, différant par leurs applications et leurs spécificités
données:

1. Clusters NLB (Network Load Balancing)- fournir
évolutivité et haute disponibilité des services et applications basés sur les protocoles TCP
et UDP, combinant jusqu'à 32 serveurs avec le même ensemble de données dans un seul cluster, sur
exécutant les mêmes applications. Chaque requête est exécutée comme
opération distincte. Utilisé pour travailler avec des ensembles de changements rarement
données, telles que WWW, ISA, Terminal Services et autres services similaires.

2. Clusters de serveurs– peut fédérer jusqu’à huit nœuds, leur principal
La tâche est d'assurer la disponibilité de l'application en cas de panne. Se compose d'actifs et
nœuds passifs. Le nœud passif reste inactif la plupart du temps, jouant un rôle
réserve de nœud principal. Pour des applications individuelles, il est possible de configurer
plusieurs serveurs actifs, répartissant la charge entre eux. Les deux nœuds
connecté à un seul entrepôt de données. Un cluster de serveurs est utilisé pour fonctionner
avec de grands volumes de données qui changent fréquemment (courrier, fichiers et
serveurs SQL). De plus, un tel cluster ne peut pas être constitué de nœuds exécutés sous
gestion de différentes variantes de Win2k3 : Entreprise ou Datacenter (Web et
Les clusters de serveurs standard ne sont pas pris en charge).

DANS Centre d'applications Microsoft 2000(et seulement) il y avait encore une sorte
grappe - CLB (équilibrage de charge des composants), offrant la possibilité
distribuer des applications COM+ sur plusieurs serveurs.

Clusters NLB

Lors de l'utilisation de l'équilibrage de charge, un
une carte réseau virtuelle avec sa propre adresse IP et MAC indépendante de la vraie.
Cette interface virtuelle représente le cluster comme un nœud unique, les clients
ils y accèdent précisément par son adresse virtuelle. Toutes les demandes sont reçues par tout le monde
nœud de cluster, mais sont traités par un seul. Fonctionne sur tous les nœuds
Service d'équilibrage de charge réseau
,
qui, en utilisant un algorithme spécial qui ne nécessite pas d'échange de données entre
nœuds, décide si un nœud particulier doit traiter une demande ou
Non. Échange de nœuds messages de battement de coeur leur montrant
disponibilité. Si l'hôte cesse d'émettre un battement de cœur ou si un nouveau nœud apparaît,
les nœuds restants démarrent processus de convergence, encore
redistribuer la charge. L’équilibrage peut être mis en œuvre de deux manières
modes :

1) monodiffusion– monodiffusion au lieu d'un MAC physique
Le MAC de l'adaptateur de cluster virtuel est utilisé. Dans ce cas, les nœuds du cluster ne sont pas
peuvent échanger des données entre eux en utilisant des adresses MAC uniquement via IP
(ou un deuxième adaptateur non associé au cluster) ;

Un seul de ces modes doit être utilisé au sein d’un même cluster.

Peut être personnalisé plusieurs clusters NLB sur une carte réseau,
spécifiant des règles spécifiques pour les ports. De tels clusters sont appelés virtuels. Leur
l'application permet de définir pour chaque application, nœud ou adresse IP
ordinateurs spécifiques du cluster principal ou bloquer le trafic pour
certaines applications sans affecter le trafic pour d'autres programmes en cours d'exécution
sur ce nœud. Ou, à l'inverse, un composant NLB peut être lié à plusieurs
adaptateurs réseau, qui vous permettront de configurer un certain nombre de clusters indépendants sur chaque
nœud. Vous devez également savoir que la configuration de clusters de serveurs et de NLB sur le même nœud
n'est pas possible car ils fonctionnent différemment avec les périphériques réseau.

L'administrateur peut créer une sorte de configuration hybride qui a
avantages des deux méthodes, par exemple en créant un cluster NLB et en configurant la réplication
données entre les nœuds. Mais la réplication n'est pas effectuée de manière constante, mais de temps en temps,
par conséquent, les informations sur les différents nœuds différeront pendant un certain temps.

Finissons ici avec la théorie, même si on peut parler de construction de clusters.
depuis longtemps, énumérant les possibilités et les moyens de construire, donnant diverses
recommandations et options pour une mise en œuvre spécifique. Laissons toutes ces subtilités et nuances
Pour auto-apprentissage et passons à la partie pratique.

Configuration d'un cluster NLB

Pour organiser des clusters NLB aucun logiciel supplémentaire requis, c'est tout
produit à l'aide des outils Win2k3 disponibles. Pour créer, maintenir et surveiller
Les clusters NLB utilisent le composant "Gestionnaire d'équilibrage de charge réseau"
(Gestionnaire d'équilibrage de charge réseau)
, qui se trouve dans l'onglet
« Administration » « Panneau de configuration » (commande NLBMgr). Puisque le composant
« Network Load Balancing » est installé en tant que pilote réseau Windows standard,
L'installation de NLB peut également être effectuée à l'aide du composant « Connexions réseau », dans
où l'article correspondant est disponible. Mais il vaut mieux n'utiliser que le premier
option, utilisation simultanée du gestionnaire NLB et des « Connexions réseau »
peut conduire à des résultats imprévisibles.

NLB Manager vous permet de configurer et de gérer le travail à partir d'un seul endroit à la fois
plusieurs clusters et nœuds.

Il est également possible d'installer un cluster NLB sur un ordinateur disposant d'un seul réseau
adaptateur associé à l'équilibrage de charge réseau, mais cela
Dans ce cas, en mode unicast, le gestionnaire NLB sur cet ordinateur ne peut pas être
utilisé pour contrôler d'autres nœuds, et les nœuds eux-mêmes ne peuvent pas échanger
informations les uns avec les autres.

Nous appelons maintenant le répartiteur NLB. Nous n'avons pas encore de clusters, alors qu'est-ce qui est apparu
la fenêtre ne contient aucune information. Sélectionnez « Nouveau » dans le menu « Cluster » et
Nous commençons à remplir les champs de la fenêtre « Paramètres du cluster ». Dans le champ "Paramètres"
Paramètres IP du cluster" saisissez la valeur de l'adresse IP virtuelle du cluster, masque
sous-réseau et nom complet. La valeur de l'adresse MAC virtuelle est définie
automatiquement. Juste en dessous on sélectionne le mode de fonctionnement du cluster : unicast ou
multidiffusion. Faites attention à la case à cocher "Autoriser le contrôle à distance" - dans
Dans tous les documents Microsoft, il est fortement déconseillé de l'utiliser dans
éviter les problèmes de sécurité. Au lieu de cela, vous devriez utiliser
répartiteur ou autre moyen télécommande, par exemple une boîte à outils
Gestion de Windows (WMI). Si la décision de l'utiliser est prise, vous devez
prendre toutes les mesures appropriées pour protéger le réseau, couvrant en outre
ports UDP 1717 et 2504 du pare-feu.

Après avoir rempli tous les champs, cliquez sur « Suivant ». Dans la fenêtre "Adresses IP du cluster", lorsque
si nécessaire, ajoutez des adresses IP virtuelles supplémentaires qui
utilisé par ce cluster. Dans la fenêtre suivante « Règles de port », vous pouvez
définir l'équilibrage de charge pour un ou pour un groupe de ports de tous ou
IP sélectionnée via les protocoles UDP ou TCP, ainsi que bloquer l'accès au cluster
des ports spécifiques (que le pare-feu ne remplace pas). Cluster par défaut
traite les demandes pour tous les ports (0-65365) ; Il vaut mieux limiter cette liste,
en ajoutant seulement ce qui est vraiment nécessaire. Mais si vous ne voulez pas vous embêter,
vous pouvez tout laisser tel quel. À propos, dans Win2k, par défaut, tout le trafic
dirigé vers le cluster, traité uniquement le nœud ayant la priorité la plus élevée,
les nœuds restants n'étaient connectés que lorsque le principal tombait en panne.

Par exemple, pour IIS, vous n'aurez qu'à activer les ports 80 (http) et 443 (https).
De plus, vous pouvez faire en sorte que, par exemple, les connexions protégées soient traitées
Uniquement certains serveurs sur lesquels le certificat est installé. Pour ajouter
nouvelle règle, cliquez sur « Ajouter », dans la boîte de dialogue qui apparaît, saisissez
Adresse IP de l'hôte, ou si la règle s'applique à tout le monde, laissez la case à cocher
"Tous". Dans les champs « De » et « À » de la plage de ports, nous définissons la même valeur –
80. Le champ clé est « Mode de filtrage » - ici
précise qui traitera cette demande. Il y a trois champs disponibles qui définissent le mode
filtrage : « Nœuds multiples », « Nœud unique » et « Désactiver cette plage de ports ».
La sélection de « Nœud unique » signifie que le trafic dirigé vers l'adresse IP sélectionnée (ordinateur
ou cluster) avec le numéro de port spécifié sera traité par le nœud actif,
ayant l'indicateur de priorité le plus bas (plus de détails ci-dessous). En sélectionnant "Désactiver..."
signifie que ce trafic sera rejeté par tous les membres du cluster.

Dans le mode de filtrage « Nœuds multiples », vous pouvez en outre spécifier l'option
déterminer l'affinité du client pour diriger le trafic d'un client donné vers
le même nœud de cluster. Il existe trois options : "Aucun", "Un" ou "Classe".
C". Choisir le premier signifie que toute demande recevra une réponse arbitraire.
nœud Mais vous ne devez pas l'utiliser si le protocole UDP est sélectionné dans la règle ou
"Les deux". Lors de la sélection des points restants, la similitude des clients sera déterminée par
plage de réseau IP ou classe C spécifique.

Donc, pour notre règle avec le port 80, choisissons l'option
"Plusieurs nœuds - classe C." Nous remplissons la règle pour 443 de la même manière, mais en utilisant
« Un nœud » pour que le client soit toujours répondu par le nœud principal avec le plus faible
priorité. Si le répartiteur détecte une règle incompatible, il affichera
un message d'avertissement sera ajouté au journal des événements Windows
entrée correspondante.

Connectez-vous ensuite au nœud du futur cluster en saisissant son nom ou sa véritable IP, et
Nous déterminons l'interface qui sera connectée au réseau du cluster. Dans la fenêtre Options
node" sélectionnez la priorité dans la liste, précisez paramètres réseau, définissez l'initiale
état du nœud (en cours d’exécution, arrêté, en pause). Priorité en même temps
est un identifiant de nœud unique ; Plus le nombre est faible, plus la priorité est élevée.
Le nœud de priorité 1 est le serveur maître, recevant principalement
paquets et agissant en tant que gestionnaire de routage.

La case à cocher « Enregistrer l'état après le redémarrage de l'ordinateur » permet de
une panne ou un redémarrage de ce nœud le mettra automatiquement en service. Après avoir cliqué
Sur « Prêt », une entrée sur le nouveau cluster apparaîtra dans la fenêtre du gestionnaire, dans laquelle pour l'instant
il y a un nœud.
L'ajout du nœud suivant est tout aussi simple. Sélectionnez « Ajouter un nœud » dans le menu ou
« Se connecter à l'existant », selon l'ordinateur
la connexion est en cours (elle fait déjà partie du cluster ou non). Puis dans la fenêtre
indiquer le nom ou l'adresse de l'ordinateur, si les droits de connexion sont suffisants, nouveau
le nœud sera connecté au cluster. Dans un premier temps, l'icône à côté de son nom sera
différent, mais lorsque le processus de convergence sera terminé, ce sera la même chose que
premier ordinateur.

Puisque le répartiteur affiche les propriétés des nœuds au moment de sa connexion, par exemple
Pour clarifier l'état actuel, vous devez sélectionner un cluster et menu contextuel paragraphe
"Mise à jour". Le gestionnaire se connectera au cluster et affichera les données mises à jour.

Après l'installation Cluster NLB n'oubliez pas de changer l'enregistrement DNS en
la résolution de nom affichait désormais l'adresse IP du cluster.

Modification de la charge du serveur

Dans cette configuration, tous les serveurs seront chargés de manière égale (sauf
option "Un nœud"). Dans certains cas, il est nécessaire de redistribuer la charge,
placer l'essentiel du travail sur l'un des nœuds (par exemple, le plus puissant).
Pour un cluster, les règles peuvent être modifiées après leur création en sélectionnant
dans le menu contextuel qui apparaît lorsque vous cliquez sur le nom, sélectionnez l'élément « Propriétés du cluster ».
Tous les paramètres dont nous avons parlé ci-dessus sont disponibles ici. Élément du menu
"Propriétés du nœud" offre un peu plus d'options. Dans "Options du nœud"
vous pouvez modifier la valeur de priorité pour un nœud spécifique. Dans "Règles
pour les ports", vous ne pouvez pas ajouter ou supprimer une règle ; ceci n'est disponible qu'au niveau
grappe. Mais en choisissant de modifier une règle spécifique, nous avons la possibilité
ajuster certains paramètres. Donc, avec le mode de filtrage défini
« Nœuds multiples », l'élément « Estimation de la charge » devient disponible, permettant
redistribuer la charge à un nœud spécifique. La valeur par défaut est cochée
« Égal », mais dans « Estimation de la charge », vous pouvez spécifier une valeur de charge différente pour
nœud spécifique, en pourcentage de la charge totale du cluster. Si le mode est activé
filtrage « Nœud unique », dans cette fenêtre apparaît nouveau paramètre"Une priorité
traitement." En l'utilisant, vous pouvez générer du trafic vers un port spécifique
sera traité d'abord par un nœud du cluster, et vers un autre par d'autres
noeud.

Journalisation des événements

Comme mentionné précédemment, Network Load Balancing enregistre tous
actions du cluster et modifications dans le journal des événements Windows. De les voir
sélectionnez « Observateur d'événements – Système », NLB inclut les messages WLBS (depuis
Service d'équilibrage de charge Windows, comme ce service était appelé dans NT). D’ailleurs, dans
la fenêtre du répartiteur affiche les derniers messages contenant des informations sur les erreurs
et sur tous les changements de configuration. Par défaut, ces informations ne sont pas
est sauvegardé. Pour qu'il soit écrit dans un fichier, sélectionnez « Options ->
Options de journalisation", cochez la case "Activer la journalisation" et spécifiez un nom
déposer. Le nouveau fichier sera créé dans un sous-répertoire de votre compte Documents
et Paramètres.

Configuration d'IIS avec réplication

Un cluster est un cluster, mais sans service, cela n'a aucun sens. Ajoutons donc IIS (Internet
Services d'information)
. Le serveur IIS est inclus avec Win2k3, mais pour le résumer
minimise les risques d'attaques sur le serveur, il n'est pas installé par défaut.

Il existe deux manières d'installer IIS : via le Panneau de configuration ou
assistant de gestion des rôles de ce serveur. Regardons le premier. Allons à
"Panneau de configuration - Ajout ou suppression de programmes"
Supprimer des programmes), sélectionnez « Installer les composants Windows » (Ajouter/Supprimer Windows
Composants). Allez maintenant dans l'élément « Serveur d'applications » et cochez « Services »
IIS" est tout ce dont vous avez besoin. Par défaut, le répertoire de travail du serveur est \Inetpub\wwwroot.
Une fois installé, IIS peut générer des documents statiques.

Introduction

Un cluster de serveurs est un groupe de serveurs indépendants gérés par le service Cluster qui fonctionnent ensemble comme un seul système. Les clusters de serveurs sont créés en combinant plusieurs serveurs Windows® 2000 Advanced Server et Windows 2000 Serveur de centre de données Pour collaboration, offrant ainsi des niveaux élevés de disponibilité, d'évolutivité et de gestion des ressources et des applications.

Le but d'un cluster de serveurs est d'assurer un accès continu des utilisateurs aux applications et aux ressources en cas de panne matérielle ou logicielle ou d'arrêt planifié d'équipement. Si l'un des serveurs du cluster est indisponible suite à une panne ou un arrêt d'exécution Entretien, ressources d'information et les applications sont redistribuées entre les nœuds de cluster disponibles restants.

Pour les systèmes de cluster, l'utilisation du terme " la haute disponibilité" est préférable à l'utilisation du terme " tolérance aux pannes", car les technologies de tolérance aux pannes nécessitent un niveau plus élevé de résistance des équipements aux influences externes et aux mécanismes de récupération. En règle générale, les serveurs tolérants aux pannes utilisent un degré élevé de redondance matérielle, ainsi qu'un logiciel spécialisé qui permet une récupération presque immédiate en cas de panne d'un logiciel ou d'un logiciel. matériel. Ces solutions sont nettement plus coûteuses que l'utilisation de technologies de cluster, car les organisations sont obligées de payer trop cher pour du matériel supplémentaire, qui est inactif la plupart du temps et n'est utilisé qu'en cas de panne. Les serveurs tolérants aux pannes sont utilisés pour les applications qui gèrent des volumes élevés de transactions de grande valeur dans des domaines tels que les centres de traitement des paiements, les distributeurs automatiques de billets ou les bourses.

Bien que le service Cluster ne garantisse pas la disponibilité, il fournit un niveau élevé de disponibilité suffisant pour exécuter la plupart des applications critiques. Le service Cluster peut surveiller les performances des applications et des ressources, reconnaissant automatiquement les conditions de défaillance et restaurant le système lorsqu'elles sont résolues. Cela offre une gestion plus flexible de la charge de travail au sein du cluster et augmente la disponibilité du système dans son ensemble.

Les principaux avantages obtenus en utilisant le service Cluster sont :

  • La haute disponibilité. Si un nœud tombe en panne, le service de cluster transfère le contrôle des ressources, telles que les disques durs et les adresses réseau, au nœud de cluster fonctionnel. Lorsqu'une panne logicielle ou matérielle se produit, le logiciel du cluster redémarre l'application défaillante sur le nœud fonctionnel ou déplace la totalité de la charge du nœud défaillant vers les nœuds fonctionnels restants. Cependant, les utilisateurs ne remarqueront peut-être qu’un court retard dans le service.
  • Remboursement après refus. Le service de cluster redistribue automatiquement la charge de travail dans le cluster lorsqu'un nœud défaillant redevient disponible.
  • Contrôlabilité. Cluster Administrator est un composant logiciel enfichable que vous pouvez utiliser pour gérer votre cluster en tant que système unifié, ainsi que pour la gestion des applications. L'administrateur de cluster fournit une vue transparente de la façon dont les applications s'exécutent comme si elles s'exécutaient sur le même serveur. Vous pouvez déplacer des applications vers différents serveurs au sein d'un cluster en faisant glisser et en déposant des objets du cluster avec la souris. Vous pouvez déplacer des données de la même manière. Cette méthode peut être utilisée pour répartir manuellement la charge de travail des serveurs, ainsi que pour décharger le serveur, puis l'arrêter pour une maintenance planifiée. De plus, l'administrateur de cluster vous permet de surveiller à distance l'état du cluster, tous ses nœuds et ressources.
  • Évolutivité. Pour garantir que les performances du cluster peuvent toujours répondre aux demandes croissantes, le service de cluster dispose de fonctionnalités de mise à l'échelle. Si les performances globales du cluster deviennent insuffisantes pour gérer la charge générée par les applications en cluster, des nœuds supplémentaires peuvent être ajoutés au cluster.

Ce document contient des instructions pour installer le service Cluster sur les serveurs exécutant Contrôle Windows 2000 Advanced Server et Windows 2000 Datacenter Server, et décrit le processus d'installation du service Cluster sur les serveurs de nœuds de cluster. Ce guide ne décrit pas l'installation et la configuration des applications en cluster, mais vous guide uniquement tout au long du processus d'installation d'un simple cluster à deux nœuds.

Configuration système requise pour créer un cluster de serveurs

Les listes de contrôle suivantes vous aideront à préparer l'installation. Instructions étape par étape Les instructions d'installation seront présentées sous ces listes.

Logiciels requis

  • salle d'opération Système Microsoft Windows 2000 Advanced Server ou Windows 2000 Datacenter Server installé sur tous les serveurs du cluster.
  • Un service de résolution de noms installé tel que Nom de domaine Système (DNS), Windows Internet Naming System (WINS), HOSTS, etc.
  • Serveur de terminaux pour l'administration de clusters à distance. Cette exigence n'est pas obligatoire, mais est recommandée uniquement pour garantir la facilité de gestion du cluster.

Exigences matérielles

  • La configuration matérielle requise pour le nœud de cluster est la même que celle requise pour l'installation des systèmes d'exploitation Windows 2000 Advanced Server ou Windows 2000 Datacenter Server. Ces exigences peuvent être trouvées sur la page de recherche Annuaire Microsoft.
  • Le matériel du cluster doit être certifié et répertorié sur la liste de compatibilité matérielle (HCL) Microsoft pour le service de cluster. Dernière version cette liste peut être trouvée sur la page de recherche Liste de compatibilité matérielle Windows 2000 Annuaire Microsoft en sélectionnant la catégorie de recherche « Cluster ».

Deux ordinateurs compatibles HCL, chacun avec :

  • Disque dur avec une partition système amorçable et le système d'exploitation Windows 2000 Advanced Server ou Windows 2000 Datacenter Server installé. Ce lecteur ne doit pas être connecté au bus de stockage partagé, décrit ci-dessous.
  • Contrôleur de périphérique PCI Fibre Channel ou SCSI séparé pour connecter un périphérique de stockage partagé externe. Ce contrôleur doit être présent en plus du contrôleur disque de démarrage.
  • Deux cartes réseau PCI installées sur chaque ordinateur du cluster.
  • Un périphérique de stockage sur disque externe répertorié par HCL et connecté à tous les nœuds du cluster. Il fera office de disque de cluster. Une configuration utilisant des matrices RAID matérielles est recommandée.
  • Câbles pour connecter un périphérique de stockage commun à tous les ordinateurs. Reportez-vous à la documentation du fabricant pour obtenir des instructions sur la configuration des périphériques de stockage. Si la connexion est établie sur le bus SCSI, vous pouvez vous référer à l'Annexe A pour Informations Complémentaires.
  • Tous les équipements des ordinateurs du cluster doivent être complètement identiques. Cela simplifiera le processus de configuration et éliminera les problèmes de compatibilité potentiels.

Exigences pour la configuration de la configuration réseau

  • Un nom NetBIOS unique pour le cluster.
  • Cinq adresses IP statiques uniques : deux adresses pour les cartes réseau privées, deux pour les cartes réseau publiques et une adresse pour le cluster.
  • Domaine Compte pour le service Cluster (tous les nœuds du cluster doivent être membres du même domaine)
  • Chaque nœud doit disposer de deux cartes réseau : une pour la connexion au réseau public, une pour la communication intra-cluster des nœuds. La configuration utilisant une seule carte réseau pour se connecter simultanément à un réseau public et privé n’est pas prise en charge. Il est nécessaire de disposer d'une carte réseau distincte pour le réseau privé pour se conformer aux exigences HCL.

Exigences relatives au disque de stockage partagé

  • Tous les disques de stockage partagés, y compris le disque quorum, doivent être physiquement connectés au bus partagé.
  • Tous les disques connectés au bus partagé doivent être accessibles par chaque nœud. Cela peut être vérifié lors de l'installation et de la configuration de l'adaptateur hôte. Pour Instructions détaillées Reportez-vous à la documentation du fabricant de l'adaptateur.
  • Les périphériques SCSI doivent se voir attribuer des numéros d'identification SCSI uniques cibles et les terminateurs doivent être installés correctement sur le bus SCSI, conformément aux instructions du fabricant. 1
  • Tous les disques de stockage partagé doivent être configurés comme disques de base (non dynamiques)
  • Toutes les partitions de disque du périphérique de stockage partagé doivent être formatées au format de fichier. Système NTFS.

Il est fortement recommandé de combiner tous les disques de stockage partagés dans des matrices RAID matérielles. Bien que cela ne soit pas obligatoire, la création de configurations RAID tolérantes aux pannes est essentielle pour se protéger contre les pannes de disque.

Installation des clusters

Présentation générale de l'installation

Pendant le processus d'installation, certains nœuds seront arrêtés et d'autres seront redémarrés. Ceci est nécessaire afin de garantir l'intégrité des données situées sur les disques connectés au bus commun du périphérique de stockage externe. Une corruption des données peut se produire lorsque plusieurs nœuds tentent simultanément d'écrire sur le même disque qui n'est pas protégé par le logiciel du cluster.

Le tableau 1 vous aidera à déterminer quels nœuds et périphériques de stockage doivent être activés à chaque étape de l'installation.

Ce guide décrit comment créer un cluster à deux nœuds. Toutefois, si vous configurez un cluster avec plus de deux nœuds, vous pouvez utiliser la valeur de la colonne "Nœud 2" pour déterminer l’état des nœuds restants.

Tableau 1. Séquence d'allumage des appareils lors de l'installation d'un cluster

Étape Nœud 1 Nœud 2 Périphérique de stockage Un commentaire
Définition des paramètres réseau Sur Sur Désactivé Assurez-vous que tous les périphériques de stockage connectés au bus commun sont éteints. Allumez tous les nœuds.
Configurer des Drive partagés Sur Désactivé Sur Désactivez tous les nœuds. Allumez le périphérique de stockage partagé, puis allumez le premier nœud.
Vérification de la configuration des Drive partagés Désactivé Sur Sur Éteignez le premier nœud, allumez le deuxième nœud. Répétez l’opération pour les nœuds 3 et 4 si nécessaire.
Configuration du premier nœud Sur Désactivé Sur Éteignez tous les nœuds ; allumez le premier nœud.
Configuration du deuxième nœud Sur Sur Sur Après avoir configuré avec succès le premier nœud, mettez le deuxième nœud sous tension. Répétez l’opération pour les nœuds 3 et 4 si nécessaire.
Terminer l'installation Sur Sur Sur À ce stade, tous les nœuds doivent être activés.

Avant l'installation logiciel clusters, vous devez effectuer les étapes suivantes :

  • Installer un système d'exploitation sur chaque ordinateur du cluster Système Windows 2000 Advanced Server ou Windows 2000 Datacenter Server.
  • Configurez les paramètres réseau.
  • Configurez les lecteurs de stockage partagés.

Effectuez ces étapes sur chaque nœud du cluster avant d'installer le service de cluster sur le premier nœud.

Pour configurer le service Cluster sur un serveur Windows 2000, votre compte doit disposer des droits d'administrateur sur chaque nœud. Tous les nœuds du cluster doivent être soit des serveurs membres, soit des contrôleurs du même domaine. L'utilisation mixte de serveurs membres et de contrôleurs de domaine dans un cluster est inacceptable.

Installation du système d'exploitation Windows 2000

Pour Installations Windows 2000 sur chaque nœud de cluster, reportez-vous à la documentation que vous avez reçue avec votre système d'exploitation.

Ce document utilise la structure de dénomination du manuel "Guide pas à pas d'une infrastructure commune pour le déploiement de Windows 2000 Server". Cependant, vous pouvez utiliser n’importe quel nom.

Avant de commencer l'installation du service Cluster, vous devez vous connecter en tant qu'administrateur.

Configuration des paramètres réseau

Note:À ce stade de l'installation, désactivez tous les périphériques de stockage partagés, puis activez tous les nœuds. Vous devez empêcher plusieurs nœuds d'accéder simultanément à un périphérique de stockage partagé jusqu'à ce que le service de cluster soit installé sur au moins un nœud et que ce nœud soit sous tension.

Chaque nœud doit disposer d'au moins deux cartes réseau installées : une pour se connecter au réseau public et une pour se connecter au réseau privé composé de nœuds de cluster.

L'adaptateur réseau privé assure la communication entre les nœuds, la création de rapports sur l'état actuel du cluster et la gestion du cluster. La carte réseau publique de chaque nœud connecte le cluster au réseau public composé d'ordinateurs clients.

Assurez-vous que toutes les cartes réseau sont physiquement connectées correctement : les cartes réseau privées sont connectées uniquement à d'autres cartes réseau privées et les cartes réseau publiques sont connectées aux commutateurs du réseau public. Le schéma de connexion est présenté dans la figure 1. Effectuez ce test sur chaque nœud du cluster avant de procéder à la configuration des disques de stockage partagés.

Figure 1 : Exemple de cluster à deux nœuds

Configuration d'un adaptateur réseau privé

Effectuez ces étapes sur le premier nœud de votre cluster.

  1. Mon environnement réseau et sélectionnez une équipe Propriétés.
  2. Faites un clic droit sur l'icône.

Note: La carte réseau qui desservira un réseau privé et celle publique dépend de la connexion physique des câbles réseau. DANS ce document Nous supposerons que le premier adaptateur (Local Connection) est connecté au réseau public et le deuxième adaptateur (Local Connection 2) est connecté au réseau privé du cluster. Dans votre cas, ce n'est peut-être pas le cas.

  1. État. Fenêtre État Connexion LAN 2 affiche l'état de la connexion et sa vitesse. Si la connexion est déconnectée, vérifiez les câbles et les connexions. Résolvez le problème avant de continuer. Cliquez sur le bouton Fermer.
  2. Faites à nouveau un clic droit sur l'icône Connexion LAN 2, sélectionnez une commande Propriétés et appuyez sur le bouton Régler.
  3. Sélectionnez un onglet En plus. La fenêtre illustrée à la figure 2 apparaîtra.
  4. Pour les adaptateurs réseau de réseau privé, la vitesse doit être définie manuellement au lieu de la valeur par défaut. Spécifiez la vitesse de votre réseau dans la liste déroulante. N'utilisez pas de valeurs "Détection automatique" ou "Sélection automatique" pour sélectionner la vitesse, car certaines cartes réseau peuvent abandonner des paquets lors de la détermination de la vitesse de connexion. Pour définir la vitesse de la carte réseau, spécifiez la valeur réelle du paramètre Type de connexion ou Vitesse.

Figure 2 : Paramètres supplémentaires de la carte réseau

Tous les adaptateurs réseau de cluster connectés au même réseau doivent être configurés de manière identique et utiliser les mêmes valeurs de paramètres Mode recto-verso, Contrôle de flux, Type de connexion, etc. Même si différents équipements réseau sont utilisés sur différents nœuds, les valeurs de ces paramètres doivent être les mêmes.

  1. Sélectionner Protocole Internet (TCP/IP) dans la liste des composants utilisés par la connexion.
  2. Cliquez sur le bouton Propriétés.
  3. Mettez l'interrupteur en position Utilisez l'adresse IP suivante et entrez l'adresse 10.1.1.1 . (Pour le deuxième nœud, utilisez l'adresse 10.1.1.2 ).
  4. Définissez le masque de sous-réseau : 255.0.0.0 .
  5. Cliquez sur le bouton En plus et sélectionnez un onglet GAGNE. Réglez la valeur du commutateur sur la position Désactiver NetBIOS sur TCP/IP. Cliquez sur D'ACCORD pour revenir au menu précédent. Effectuez cette étape uniquement pour la carte réseau privée.

Votre boîte de dialogue devrait ressembler à la figure 3.

Figure 3 : Adresse IP de connexion au réseau privé

Configuration d'un adaptateur réseau public

Note: Si un serveur DHCP s'exécute sur un réseau public, l'adresse IP de la carte réseau sur le réseau public peut être attribuée automatiquement. Toutefois, cette méthode n'est pas recommandée pour les adaptateurs de nœud de cluster. Nous vous recommandons fortement d'attribuer des adresses IP permanentes à tous les adaptateurs réseau hôte publics et privés. Sinon, si le serveur DHCP échoue, l'accès aux nœuds du cluster peut être impossible. Si vous êtes obligé d'utiliser DHCP pour les cartes réseau sur un réseau public, utilisez long termes bail d'adresse - cela garantira que l'adresse attribuée dynamiquement restera valide même si le serveur DHCP est temporairement indisponible. Attribuez toujours des adresses IP permanentes aux adaptateurs réseau privés. N'oubliez pas que le service Cluster ne peut reconnaître qu'une seule interface réseau par sous-réseau. Si vous avez besoin d'aide pour attribuer des adresses réseau sous Windows 2000, reportez-vous à l'aide intégrée du système d'exploitation.

Renommer les connexions réseau

Pour plus de clarté, nous vous recommandons de modifier les noms de vos connexions réseau. Par exemple, vous pouvez modifier le nom de la connexion Connexion LAN 2 sur . Cette méthode vous aidera à identifier plus facilement les réseaux et à attribuer correctement leurs rôles.

  1. Faites un clic droit sur l'icône 2.
  2. Dans le menu contextuel, sélectionnez la commande Renommer.
  3. Entrer Connectez-vous au réseau privé du cluster dans le champ de texte et appuyez sur la touche ENTRER.
  4. Répétez les étapes 1 à 3 et modifiez le nom de la connexion connexion LAN sur Connectez-vous à un réseau public.

Figure 4 : Connexions réseau renommées

  1. Les connexions réseau renommées devraient ressembler à la figure 4. Fermez la fenêtre Accès réseau et réseau à distance. Les nouveaux noms de connexion réseau sont automatiquement répliqués sur les autres nœuds du cluster lorsqu'ils sont activés.

Examen les connexions de réseau et résolution de nom

Pour tester le fonctionnement de l'équipement réseau configuré, effectuez les étapes suivantes pour toutes les cartes réseau sur chaque nœud. Pour ce faire, vous devez connaître les adresses IP de toutes les cartes réseau du cluster. Vous pouvez obtenir ces informations en exécutant la commande ipconfig sur chaque nœud :

  1. Cliquez sur le bouton Commencer, choisis une équipe Exécuter et tapez la commande cmd dans la fenêtre de texte. Cliquez sur D'ACCORD.
  2. Tapez la commande ipconfig / tout et appuyez sur la touche ENTRER. Vous verrez les informations de configuration du protocole IP pour chaque carte réseau sur machine locale.
  3. Si votre fenêtre n'est pas encore ouverte ligne de commande, suivez l'étape 1.
  4. Tapez la commande ping adresse IPadresse IP est l'adresse IP de la carte réseau correspondante sur un autre nœud. Par exemple, supposons que les cartes réseau possèdent les adresses IP suivantes :
Numéro de nœud Nom de la connexion réseau Adresse IP de la carte réseau
1 Connexion à un réseau public 172.16.12.12
1 Connectez-vous au réseau privé du cluster 10.1.1.1
2 Connexion à un réseau public 172.16.12.14
2 Connectez-vous au réseau privé du cluster 10.1.1.2

Dans cet exemple, vous devez exécuter les commandes cingler 172.16.12.14 Et ping 10.1.1.2à partir du nœud 1 et exécutez les commandes cingler 172.16.12.12 Et pinger 10.1.1.1 du nœud 2.

Pour vérifier la résolution de nom, exécutez la commande pinger, en utilisant le nom de l'ordinateur comme argument au lieu de son adresse IP. Par exemple, pour vérifier la résolution de nom du premier nœud de cluster nommé hq-res-dc01, exécutez la commande ping hq-res-dc01 depuis n’importe quel ordinateur client.

Vérification de l'appartenance au domaine

Tous les nœuds du cluster doivent être membres du même domaine et disposer de fonctionnalités réseau avec un contrôleur de domaine et un serveur DNS. Les nœuds peuvent être configurés en tant que serveurs de domaine membres ou en tant que contrôleurs du même domaine. Si vous décidez de faire de l'un des nœuds un contrôleur de domaine, tous les autres nœuds du cluster doivent également être configurés en tant que contrôleurs de domaine du même domaine. Ce guide suppose que tous les hôtes sont des contrôleurs de domaine.

Note: Pour obtenir des liens vers une documentation supplémentaire sur la configuration des domaines, Services DNS et DHCP sous Windows 2000, voir la section Ressources associéesà la fin de ce document.

  1. Clic-droit Mon ordinateur et sélectionnez une équipe Propriétés.
  2. Sélectionnez un onglet Identification du réseau. Dans la boîte de dialogue Propriétés du système Vous verrez l’ordinateur complet et le nom de domaine. Dans notre exemple, le domaine s'appelle reskit.com.
  3. Si vous avez configuré le nœud en tant que serveur membre, vous pouvez à ce stade le joindre au domaine. Cliquez sur le bouton Propriétés et suivez les instructions pour joindre l'ordinateur au domaine.
  4. Fermer les fenêtres Propriétés du système Et Mon ordinateur.

Créer un compte de service de cluster

Pour le service Cluster, vous devez créer un compte de domaine distinct sous lequel il sera lancé. Le programme d'installation vous demandera de saisir les informations d'identification pour le service de cluster. Un compte doit donc être créé avant d'installer le service. Le compte ne doit appartenir à aucun utilisateur du domaine et doit être utilisé uniquement pour exécuter le service de cluster.

  1. Cliquez sur le bouton Commencer, sélectionnez une commande Programmes / Administration, exécutez le composant logiciel enfichable.
  2. Agrandir la catégorie reskit.com, s'il n'a pas encore été déployé
  3. Sélectionnez dans la liste Utilisateurs.
  4. Faites un clic droit sur Utilisateurs, sélectionnez dans le menu contextuel Créer, sélectionner Utilisateur.
  5. Entrez un nom pour le compte de service de cluster, comme indiqué dans la figure 5, puis cliquez sur Plus loin.

Figure 5 : Ajout d'un utilisateur de cluster

  1. Vérifie les boites Empêcher l'utilisateur de changer le mot de passe Et Le mot de passe n'a pas de date d'expiration. Cliquez sur le bouton Plus loin et un bouton Prêt pour créer un utilisateur.

Note: Si votre politique de sécurité administrative n'autorise pas les mots de passe qui n'expirent jamais, vous devrez mettre à jour le mot de passe et configurer le service de cluster sur chaque nœud avant son expiration.

  1. Faites un clic droit sur l'utilisateur Grappe dans la barre d'outils de droite Active Directory– les utilisateurs et les ordinateurs.
  2. Dans le menu contextuel, sélectionnez la commande Ajouter des membres à un groupe.
  3. Sélectionner un groupe Administrateurs et appuyez sur D'ACCORD. Le nouveau compte dispose désormais de privilèges d'administrateur sur ordinateur local.
  4. Fermez le snap Active Directory - Utilisateurs et ordinateurs.

Configuration des lecteurs de stockage partagés

Avertissement: Assurez-vous qu'au moins un des nœuds du cluster exécute le système d'exploitation Windows 2000 Advanced Server ou Windows 2000 Datacenter Server et que le service de cluster est configuré et en cours d'exécution. Ce n'est qu'après cela que vous pourrez télécharger système opérateur Windows 2000 sur d'autres nœuds. Si ces conditions ne sont pas remplies, les disques du cluster risquent d'être endommagés.

Pour commencer à configurer des lecteurs de stockage partagés, désactivez tous les nœuds. Après cela, allumez le périphérique de stockage partagé, puis allumez le nœud 1.

Disque de quorum

Le disque quorum est utilisé pour stocker les points de contrôle et les fichiers journaux de récupération de la base de données du cluster, assurant ainsi la gestion du cluster. Nous faisons les recommandations suivantes pour créer un disque quorum :

  • Créez une petite partition (d'une taille d'au moins 50 Mo) à utiliser comme disque quorum. Nous recommandons généralement de créer un disque quorum d’une taille de 500 Mo.
  • Dédiez un disque distinct pour la ressource quorum. Étant donné que si un disque de quorum tombe en panne, l'ensemble du cluster échouera, nous vous recommandons fortement d'utiliser une matrice RAID de disques matériels.

Pendant le processus d'installation du service de cluster, vous devrez attribuer une lettre au lecteur de quorum. Dans notre exemple, nous utiliserons la lettre Q.

Configuration des lecteurs de stockage partagés

  1. Clic-droit Mon ordinateur, sélectionnez une commande Contrôle. Dans la fenêtre qui s'ouvre, développez la catégorie Périphériques de stockage.
  2. Sélectionnez une équipe Gestion de disque.
  3. Assurez-vous que tous les lecteurs de stockage partagés sont formatés en NTFS et ont le statut Basique. Si vous connectez un nouveau disque, il démarrera automatiquement Assistant de signature et de mise à jour de disque. Lorsque l'assistant démarre, cliquez sur le bouton Mise à jour, pour continuer son fonctionnement, après cela le disque sera identifié comme Dynamique. Pour convertir le disque en disque de base, faites un clic droit sur Numéro de disque(Où # – numéro du disque avec lequel vous travaillez) et sélectionnez la commande Revenir au disque de base.

Zone de clic droit Non distribuéà côté du disque correspondant.

  1. Sélectionnez une équipe Créer une rubrique
  2. Va commencer Assistant de création de partition. Appuyez deux fois sur le bouton Plus loin.
  3. Entrez la taille de partition souhaitée en mégaoctets et cliquez sur le bouton Plus loin.
  4. Cliquez sur le bouton Plus loin, en acceptant la lettre de lecteur par défaut suggérée
  5. Cliquez sur le bouton Plus loin pour formater et créer une partition.

Attribution de lettres de lecteur

Une fois le bus de données, les disques et les partitions de stockage partagé configurés, vous devez attribuer des lettres de lecteur à toutes les partitions de tous les disques du cluster.

Note: Les points de connexion sont Fonctionnalité système de fichiers qui vous permet d'installer système de fichiers en utilisant les répertoires existants, sans attribuer de lettre de lecteur. Les points de montage ne sont pas pris en charge par les clusters. N'importe lequel disque externe utilisée comme ressource de cluster doit être partitionnée en partitions NTFS, et ces partitions doivent se voir attribuer des lettres de lecteur.

  1. Cliquez avec le bouton droit sur la partition souhaitée et sélectionnez Modification de la lettre de lecteur et du chemin du lecteur.
  2. Sélectionnez une nouvelle lettre de lecteur.
  3. Répétez les étapes 1 et 2 pour tous les lecteurs de stockage partagé.

Figure 6 : Partitions de disque avec lettres attribuées

  1. A la fin de la procédure, la fenêtre snap Gestion d'ordinateur devrait ressembler à la figure 6. Fermez le composant logiciel enfichable Gestion d'ordinateur.
  1. Cliquez sur le bouton Commencer, sélectionner Programmes / Standard, et exécutez le programme " Carnet de notes".
  2. Tapez quelques mots et enregistrez le fichier sous le nom test.txt en sélectionnant la commande Enregistrer sous du menu Déposer. Fermer Carnet de notes.
  3. Double-cliquez sur l'icône Mes documents.
  4. Faites un clic droit sur le fichier test.txt et dans le menu contextuel sélectionnez la commande Copie.
  5. Ferme la fenêtre.
  6. Ouvrir Mon ordinateur.
  7. Double-cliquez sur la partition du lecteur de stockage partagé.
  8. Faites un clic droit et sélectionnez la commande Insérer.
  9. Une copie du fichier devrait apparaître sur le lecteur de stockage partagé test.txt.
  10. Double-cliquez sur le fichier test.txt pour l'ouvrir à partir d'un lecteur de stockage partagé. Fermez le fichier.
  11. Sélectionnez le fichier et appuyez sur la touche Del pour supprimer un fichier du disque du cluster.

Répétez la procédure pour tous les disques du cluster afin de vous assurer qu'ils sont accessibles depuis le premier nœud.

Éteignez maintenant le premier nœud, activez le deuxième nœud et répétez les étapes de la section Vérification du fonctionnement et accès publique aux disques. Suivez ces mêmes étapes sur tous les nœuds supplémentaires. Une fois que vous êtes sûr que tous les nœuds peuvent lire et écrire des informations sur les lecteurs de stockage partagés, désactivez tous les nœuds sauf le premier et passez à la section suivante.

J'ai construit mon premier « cluster » d'ordinateurs monocarte presque immédiatement après que le micro-ordinateur Orange Pi PC ait commencé à gagner en popularité. On pourrait le qualifier de « cluster » très étendu, car d’un point de vue formel, il s’agissait simplement d’un le réseau local de quatre conseils d'administration qui se « voyaient » et pouvaient accéder à Internet.

L'appareil a participé au projet SETI@home et a même réussi à compter quelque chose. Mais malheureusement, personne n’est venu me chercher sur cette planète.
Cependant, pendant tout ce temps à manipuler les fils, les connecteurs et les cartes microSD, j'ai beaucoup appris. Ainsi, par exemple, j'ai découvert qu'il ne faut pas se fier à la puissance déclarée de l'alimentation, qu'il serait bien de répartir la charge en termes de consommation et que la section du fil compte.

Et oui, nous avons dû « exploiter collectivement » le système de gestion de l'énergie, car le démarrage simultané de cinq appareils monocarte peut nécessiter un courant de démarrage de l'ordre de 8-10A (5*2) ! C'est beaucoup, surtout pour les alimentations fabriquées dans les sous-sols du pays, où l'on aime commander toutes sortes de gadgets... intéressants.

Je vais probablement commencer par elle. La tâche se résumait à des actions relativement simples : après une période de temps donnée, allumez séquentiellement 4 canaux à travers lesquels 5 volts sont fournis. Le moyen le plus simple de mettre en œuvre votre plan est Arduino (dont tout geek qui se respecte en a en abondance) et cette carte miracle d'Ali avec 4 relais.

Et vous savez, ça a même fonctionné.

Cependant, les clics « façon réfrigérateur » au démarrage ont provoqué un certain inconfort. Premièrement, lorsqu'il y avait un clic, des interférences traversaient l'alimentation électrique et il était nécessaire d'installer des condensateurs, et deuxièmement, la structure entière était assez grande.

Alors un jour, j'ai simplement remplacé le bloc relais par des commutateurs à transistors basés sur l'IRL520.

Cela a résolu le problème des interférences, mais comme le mosfet contrôle le « zéro », j'ai dû abandonner les pieds en laiton dans le rack afin de ne pas connecter accidentellement la masse des cartes.

Et maintenant, la solution est parfaitement répliquée et deux clusters fonctionnent déjà de manière stable et sans surprise. Exactement comme prévu.

Mais revenons à la réplication. Pourquoi acheter des alimentations pour une somme d’argent importante alors qu’il y a de nombreux ATX abordables littéralement sous vos pieds ?
De plus, ils disposent de toutes les tensions (5,12,3.3), d'un début d'autodiagnostic et de la possibilité de contrôle par programme.

Eh bien, je n'entrerai pas dans les détails ici - un article sur le contrôle d'ATX via Arduino.

Eh bien, toutes les pilules sont-elles mangées et les timbres sont-ils également collés ? Il est temps de tout mettre en place.

Il y aura un nœud principal qui se connectera au monde extérieur via WiFi et enverra « Internet » au cluster. Il sera alimenté par une tension de veille ATX.

En fait, TBNG est responsable de la distribution d'Internet.
Ainsi, si vous le souhaitez, les nœuds du cluster peuvent être cachés derrière TOR.

En outre, il y aura une carte délicate connectée via i2c à ce nœud principal. Il pourra activer/désactiver chacun des 10 nœuds de travail. De plus, il pourra contrôler trois ventilateurs 12 V pour refroidir l’ensemble du système.

Le scénario de fonctionnement est le suivant : lorsque l'ATX est allumé à 220 V, le nœud principal démarre. Lorsque le système est prêt à fonctionner, il allume séquentiellement les 10 nœuds et ventilateurs.
Une fois le processus de commutation terminé, le nœud principal fera le tour de chaque nœud de travail et demandera comment nous nous sentons, quelle est la température. Si l'un des racks devient chaud, augmentez le débit d'air.
Eh bien, avec une commande d'arrêt, chacun des nœuds sera soigneusement éteint et mis hors tension.

J'ai dessiné le schéma du tableau moi-même, donc ça a l'air effrayant. Cependant, le traçage et la fabrication ont été confiés à une personne bien formée, ce pour quoi nous le remercions vivement.

Le voici en cours d'assemblage

Voici l'un des premiers croquis de l'emplacement des composants du cluster. Réalisé sur une feuille de papier à carreaux et immortalisé via Office Lens par le téléphone.

L'ensemble de la structure est posé sur une feuille de textolite achetée pour l'occasion.

C'est approximativement à quoi ressemble l'emplacement des nœuds à l'intérieur. Deux racks de cinq cartes chacun.

Ici vous pouvez voir le contrôle Arduino. Il est connecté à la tête Orange Pi Pc via i2c via un convertisseur de niveau.

Eh bien, voici la version finale (version actuelle).

Donc, tout ce dont vous avez besoin est d'écrire plusieurs utilitaires en Python qui dirigeraient toute cette musique - allumez-la, allumez-la et réglez la vitesse du ventilateur.

Je ne vais pas vous ennuyer avec des détails techniques - cela ressemble à ceci :

1
2
3
4
5
6
7
8
#!/usr/bin/envsh

echo "Démarrage de la carte ATX..."
/home/zno/i2creobus/i2catx_tool.py --start
écho "Définition des valeurs initiales du ventilateur..."
/home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60

Comme nous avons déjà jusqu'à 10 nœuds, nous utilisons Ansible, qui nous aidera, par exemple, à désactiver correctement tous les nœuds. Ou exécutez un moniteur de température sur chacun.

1
2
3
4
5
6
7
8
---

- hôtes : travailleurs
les rôles:
- webmon_stop
- webmon_remove
- webmon_install
- webmon_start

On me reproche souvent sur un ton dédaigneux, en disant qu'il ne s'agit que d'un réseau local à plaque unique (comme je l'ai déjà mentionné au tout début). En général, je m'en fous des opinions des autres, mais peut-être ajouterons-nous un peu de glamour et organiserons-nous un cluster d'essaim de dockers.
La tâche est très simple et peut être réalisée en moins de 10 minutes. Ensuite, nous lançons une instance de Portainer sur le nœud principal, et voilà !

Maintenant vous pouvez vraiment faire évoluer les tâches. Alors, dans ce moment Le cluster exécute le mineur de crypto-monnaie Verium Reserve. Et avec beaucoup de succès. J'espère que le natif le plus proche récupérera l'électricité consommée ;) Eh bien, ou réduira le nombre de nœuds impliqués et exploitera autre chose comme Turtle Coin.

Si vous souhaitez une charge utile, vous pouvez intégrer Hadoop au cluster ou organiser l'équilibrage des serveurs Web. Il existe de nombreuses images toutes faites sur Internet et suffisamment de matériel de formation. Eh bien, si l'image (image Docker) est manquante, vous pouvez toujours créer la vôtre.

Qu'est-ce que cela m'a appris ? En général, la « pile » technologique est très large. Jugez par vous-même - Docker, Ansible, Python, mise à niveau d'Arduino (Dieu me pardonne, on ne le dira pas la nuit) et le shell, bien sûr. Et aussi KiCad et travailler avec un entrepreneur :).

Que peut-on faire de mieux ? Beaucoup. Côté logiciel, ce serait bien de réécrire les utilitaires de contrôle en Go. À propos - rendez-le plus steampunk - KDPV au début place parfaitement la barre. Il y a donc quelque chose à travailler.

Rôles exercés par :

  • Nœud principal - PC Orange Pi avec wifi USB.
  • Nœuds de travail - Orange Pi PC2 x 10.
  • Réseau - 100 Mbits TP-link@16ports.
  • Brain - Clone Arduino basé sur le convertisseur de niveau Atmega8 +.
  • Le cœur est un contrôleur de puissance ATX avec une alimentation.
  • Logiciel (âme) - Docker, Ansible, Python 3, un peu de shell et un peu de paresse.
  • Le temps passé n’a pas de prix.

Au cours des expériences, quelques cartes Orange Pi PC2 ont été endommagées en raison d'une alimentation électrique confuse (elles brûlent très bien), un autre PC2 a perdu Ethernet (c'est une autre histoire dans laquelle je ne comprends pas la physique du processus) .

Cela semble être toute l’histoire « de haut en bas ». Si quelqu'un trouve cela intéressant, posez des questions dans les commentaires. Et votez pour les questions là-bas (vote positif - chaque commentaire a un bouton pour cela). Les questions les plus intéressantes seront abordées dans de nouvelles notes.
Merci d'avoir lu jusqu'au bout.

TBVPFBFSH À PROPOS DE PDOPK NBYYOE HCE OE NPDP
YMY DEMBEN LMBUFET CH DPNBOYI HUMPCHYSI.

1. hCHEDEOYE

noPZYE Y CHBU YNEAF CH MPLBMSHOPK UEFY OUEULPMSHLP Linux NBIYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSCHN RTPGEUUPTPN. fBLCE NOPZIE UMSHCHYBMY P UYUFENBI, CH LPFPTSCHI NBYOSCH PVAEDEOSAFUS CH PDYO UKHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLYE LURETYNEOFSHCH UEWS À PROPOS DE TBVPFE YMY DPNB. dBChBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEVPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPTSEFE TEBMSHOP HULPTYFSH CHSHRPMOEOYE YUBUFY ЪBDBU. OBRTYNET LPNRYMSGYA YMY PDOPCHTENEOHA TBVPFKH OULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFK UFBFSHE S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VEY PUPVSHCHI HUIMYK PVAEDEOYFSH NBYOSHCH UCHPEK MPLBBMSHOPK UEFFY CH EDYOSCHK LMBUFET À PROPOS DE VBJE MOSIX.

2. lBL, UFP et ICI.

MOSIX - LFP RBFYu DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHCHK RPJCHPMSEF RTPGEUUBN U CHBYEK NBYOSCH RETEIPDIFSH (NYZTYTPCHBFSH) À PROPOS DE DTHZIE HOMSH MPLBMSHOPK UEFI. chЪSFSH EZP NPTsOP RP BDTEUH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEFUS ON CH YUIPDOSCHI LPBI RPD MYGEOYEK GPL. rBFYUY UKHEEUFCHHAF DMS CHUEI SDT YJ UFBVYMSHOPK CHEFLY Linux.

3. hUFBOPCHLB RTPZTBNNOPZP PVEUREYUEOOYS.

h OBYUBME KHUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U KHMB MOSIX OE FPMSHLP EZP, OP Y UPRHFUFCHHAEYE KHFYMYFSH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOPCHPYuOSCHK ULTYRF mosix_install. OE ЪБВХДШФЭ Х ПВСЪБ FEMSHOPN RPTSDLE TBURBLLPCHBFSH YUIPDOSHE LPDSCH SDTB CH /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - CH /usr/src/linux-2.2.13 DBMEE ЪBRHULBEFE mosix_install Y PFCHEYUBEFE À PROPOS DE CHUE EZP CHPRPTUSCH, KHLBIBCH ENKH UCHPK NEOEDTSET ЪБЗТХЪЛй (LILO), RХФШ Л YUIPDOILBN SDTB Y KHTPCHOY ЪBRХУЛБ.
rTY OBUFTPKLE SDTB CHLMAYUYFE PRGYY CONFIG_MOSIX, CONFIG_BINFMT_ELF ET CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP KHUFBOPCHLE MOSIX.
HUFBOPCHYMIE ? OH YFP TSE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOYE LFPTPZP PUEOSH VHDEF RPIPTSE À PROPOS DE mosix-2.2.13.

4. à propos de BUFTPKLB

yЪOBYUBMSHOP KHUFBOPCHMEOOSHCHK MOSIX UPCHETYEOOOP OE OBEF, LBLYE X CHBU NBYOSCH CH UEFI Y U LENE ENKH UPEDEOSFUS. OH B OBUFTBYCHBEFUS LFP PYUEOSH RTPUFP. eUMY CHCH FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DIUFTYVHFYCH - SuSE YMY RedHat - UPCHNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. rTY RETCHPN ЪBRHULE LFPF ULTYRF RTPUIF CHBU OBUFTPIFS MOSIX Y ЪBRKHULBEF FELUFPCHSHCHK TEDBLFPT DMS UPЪDBOYS ZhBKMB /etc/mosix.map, Ch LPFPTPN OBIPDFYFUS URYUPL HЪMP H CHBYEZP LMBUFETB. fKhDB RTPRYUSCHBEN : CH UMKHYUBE, EUMY KH CHBU CHUEZP DCHE-FTY NBYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL :



1 10.152.1.1 5

ici RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP KHMB, CHFPTPK - IP BDTEU RETCHPZP KHMB Y RPUMEDOYK - LPMYUEUFChP KHMPCH U FELHEZP. par exemple. UEKYBU KH OBUC H LMBUFETE PMKHYUBEFUS RSFSH KHMPCH, IP BDTEUB LPFPTSHCHK BLBOYUYCHBAFUS OB 1, 2, 3, 4 Y 5.
YMY DTHZPK RTYNET :

OPNET KHMB IP LPMYUEUFChP KHMPCH U FELHEZP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h LFPC LPOZHYZHTBGYY NSCH RPMKHYYN UMEDHAEIK TBULMBD :
IP 1-ПЗП ХЪМБ 10.150.1.1
IP 2-ПЗП ХЪМБ 10.150.1.55
IP 3-ПЗП ХЪМБ 10.150.1.56
IP 4-ПЗП ХЪМБ 10.150.1.223
FERETSH OHTSOP À PROPOS DE CHUEI NBYOBI VKHDHEEZP LMBUFETB KHUFBOPCHYFSH MOSIX Y UPJDBFSH CHEDE PDOBLPCCHCHK LPOZHYZHTBGYPOOSCHK ZHBKM /etc/mosix.map .

FERETSH RPUME RETEBRKHULB mosix CHBYB NBYOB KhCE VKhDEF TBVPFBFSH CH LMBUFETE, YuFP NPTsOP KHCHYDEFSH ЪBRKHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSHCHHCHYDYFE H NPOYFPTE FPMSHLP UCHPA NBYOKH YMY CHPPVEE OE KHCHYDYFE OYLPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CHBU PYYVLB YNEOOP CH /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. YuFP DBMSHYE ? b DBMSHYE PYUEOSH RTPUFP :-) - OHTsOP UPVTBFSH KhFYMYFSH DMS TBVPFSH U YЪNEOOOSCHN /proc YЪ RBLEFB mproc. h YUBUFOPUFY h LFPN RBLEFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, h LPFPTSCHK DPVBCHYMY CHPTNPTSOPUFSH PFPVTBTSEOYS KHMB(nœud), UPTFYTPCHLY RP KHMBN, RETEOPUB RTPGEUU B U FELHEEZP KHMB À PROPOS DE DTHZPK Y KHUFBOPCHMEOYS NYOINBMSHOPK ЪB ZTHYLY RTPGEUUPTB KHMB, RPUME LPFPTPK RTPGEUUSH OBUYOBAF NYZTYTPCHBFSH À PROPOS DE DTHZYE MOSIX - KHMSHCH .
ъBRKHULBEN mtop, CHSHCHVYTBEN RPOTBCHYCHYYKUS OE URSEIK RTPGEUU (TELPNEODHA ЪBRKHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" À PROPOS DE CHBYEK LMBCHYBFKHTE, RPUM YuEZP CHCHPDYN À PROPOS DE ЪBRTPU PID CHCHV TBOOPZP CH LBUEUFCHES TSET FCHSH RTPGEUUB Y ЪBFEN - OPNET KHMB, LHDB NSCH IFYN EZP PFRTBCHYFSH. b HCE RPUME bFPZP CHOINBFEMSHOP RPUNPFTYFE À PROPOS DE TEKHMSHFBFSCH, PFPVTBTSBENSHCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH À PROPOS DE UEVS OBZTHLKH CHSHVTBOOPZP RTPGEUUB.
b UPVUFCHOOOP mtop - CH RPME #N PFPVTBTSBFSH OPNET KHMB, ICI SUR CHSHRPMOSEFUS.
oP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPUEFUS PFRTBCHMSFSH À PROPOS DE DTHZIE KHMSHCH RTPGEUUSCH CHTHYOOHA ? non oe BIFFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUITPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPJCHPMSEF VPMEE-NEOEE TBCHOPNETOP TBURTEDEMSFSH OBZTKHLH À PROPOS DE CHUE KHMSHCH. oKH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. DMS OBYUBMB S TBUULBTsKH, LBL UDEMBFSH FPOLHA OBUFTPKLH (réglage) DMS DCHHI KHMPC LMBUFETB ? CH RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPUFSI RTPGEUUPTPCH Y UEFI :
ъBRPNOYFE TB Y OCHUEZDB - régler NPTsOP CHSHCHRPMOSFSH FPMSHLP CH monomode. YOBYUE CHSC MYVP RPMKHUYFE OE UPCHUEN LPTTELFOSCHK TEKHMSHFBF, MYVP CHBYB NBYOB NPTSEF RTPUFP ЪBCYUOKHFSH.
yFBL, mélodie CHSHRPMOSEN. rPUME RETECHPDB PRTBGYPOOPK UYUFENSCH CH monomode OBRTYNET LPNBODPK init 1 YMY init S ЪBRKHULBEN ULTYRF prep_tune, LPFPTSCHK RPDOINEF cEFECHSCHE
YOFETZHEKUSHY ЪBRHUFYF MOSIX. RPUME LFPPZP À PROPOS DE PDOPK YNBYO ЪBRKHULBEN tune, ChCHPDYN ENKH OPNET DTHZPZP KHMB DMS OBUFTPKLY Y TsDEN TEKHMSHFBFB - KhFYMYFB DPMTSOB CHSHCHDBFSH ЪBRTPU À PROPOS DE CHChPD YEUFY YUYUEM, R PMHYUEOOOSCHI PF CHSHRPMOEOYS LPNBODSCH tune -a<ХЪЕМ>À PROPOS DE DTHZPN HYME. uPVUFCHOOOP PRETBGYA RTYDEFUS RPCHFPTYFSH À PROPOS DE DTHZPN KHME LPNBODPK tune -a<ХЪЕМ>, B TEЪHMSHFBF YЪ YEUFY YUYUEM CHCHEUFY À PROPOS DE RETCHSHCHK HYEM. rPUME RPDPVOPZP FAIOZB CH CHBYEK UYUFEN DPMTSEO RPSCHYFUS ZhBKM /etc/overheads, UPDETSBEIK YOZHPTNBGYA DMS MOSIX CHYDE OELYI YUYUMPCHSCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE YJ FELHEEZP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. bFP RPNPTSEF;-).
rTY FAOYOSE LMBUFETB YY VPMEE YUEN DCHHI NBYO OHTSOP YURPMSHЪPCHBFSH KhFYMYFKH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPЪCHPMSEF
CHBN CH VPMEE RTPUFPN Y RTYCHSHYUOPN CHYDE OBUFTPYFSH LMBUFET, PFCHEFYCH À PROPOS D'OEULPMSHLP CHPRTPUPCH Y RTPCHEDS FAOIOZ U DCHHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNH PRSHCHFKH NPZH ULBUBFSH, YuFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪБЗТХЦБФШ UEFSH, B OBPVPTPPF - RTYPUFBOPCHYFSH CHUE BLFFYCHOSHE PRETBGYY CH MPLBMSHOPK UEFI.

5. hRTBCHMEOYE LMBUFETPN

dMS KHRTBCHMEOYS KHMPN LMBUFETB UKHEEUFCHHEF OEVPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI :

mosctl -LPOFTPMSH OBD KHMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSCH KHMB - FBLYE, bloc LBL, séjour, l séjour, délai Y F.D
dBChBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTPCH LFPC KHFYMYFSCH :
rester - RPЪCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH À PROPOS DE DTHZIE KHMSHCH U FELHEEK NBYOSCH. pFNEOSEPHUS RBTBNEFTPN nostay YMY -séjour
Je reste - ЪBRTEEBEF FPMSHLP MPLBMSHOSCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYO NPZHF RTDDPMTsBFSH LFP DEMBFSH. pFNEOSEPHUS RBTBNEFTPN nolstay YMY -lstay.
bloc - ЪBRTEEBEF KHDBMEOOSCHN/ZPUFECHSHCHN RTPGEUUBN CHSHPRPMOSPHUS À PROPOS DE LFPN KHM. pFNEOSEPHUS RBTBNEFTPN noblock YMY -bloc.
apporter - CHPCHTBEBEF PTBBFOP CHUE RTPGEUUSCH U FELHEEZP KHMB CHSHPRPMOSENSHCHE À PROPOS DE DTHZYI NBIYOBI LMBUFETB. ьФПФ RBTБNEFT NPTSEF OE UTBVBFSCHBFSH, RPLB NYZTYTPCHBCHYK RTPGEUU OE RPMKHYUIF RTETSCHCHBOIE PF UYUFENSCH.
Régler le délai KHUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBUYOBEF NYZTYTPCHBFSH.
CHEDSH UPZMBUYFEUSH - CH UMKHYUBE, EUMY CHTENS CHSHRPMOEOYS RTPGEUUB NEOSHYE UELKHODSCH UNSHUM RETEOPUYFSH EZP À PROPOS DE DTHZIE NBYOSCH UEFI YUYUEBEF. yNEOOOP LFP LECTURE CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET :
mosctl setdecay 1 500 200
KHUFBOBCHMYCHBEF CHTENS RETEIPDB À PROPOS DE DTHZIE KHMSH 500 NYMMYUELKHOD CH UMHYUBE, EUMY RTPGEUU ЪBRHEEO LBL lent Y 200 NYMYUELKHOD VMS rapide RTPGEUUPCH. pVTBFYFE CHOYNBOYE, UFP RBTBNEFT lent CHUEZDB DPMTSEO VShchFSH VPMSHYE YMY TBCHEO RBTBNEFTH rapide.

mosrun - ЪBRKHULBEF RTYMPTSEOYE CH LMBUFETE. OBRTYNET mosrun -e -j5 make ЪBRKHUFYF make À PROPOS DE 5-PN HЪME LMBUFETB, RTY LFPN CHUE EZP DPYUETOYE RTPGEUUSCH VHDHF FBLCE CHSHRPMOSPHUS À PROPOS DE 5-PN HЪME. rTBCHDB ЪDEUSH EUFSH PDYO OABOU, RTY YUEN DPChPMSHOP UKHEUFCHEOOSCHK :
CH UMHYUBE, EUMY DPYUETOYE RTPGEUUSCHCHSHRPMOSAFUS VSHCHUFTEE YUEN KHUFBOPCHMEOOBS HFYMYFPK mosctl ЪBDETTSLB (délai) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH À PROPOS DE DTKHZIE KHMSHCH LMBUFETB . Х mosrun EEE DPChPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTPCH, OP RPDTPVOP KHOBFSH
P OYI CHSHCH UNPTSEFE YЪ THLPCHPDUFCHB RP LFPC KHFYMYFE. (homme mosrun)

lun - LBL NSCH HTSE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCHK CH RUECHDPZTBZHYUEULPN CHYDE PFPVTBTSBEF ЪBZTHYLH LBTSDPZP TBVPYUEZP KHMB ChBYEZP LMBUFETB, LPMYUEU FChP UChPVPDOPK Y ЪBOSFPK RBNSFY KHЪMPCH Y CHSHCHDBEF NOP ZP DTHZPK, OE NEOEE YOFETEUOPK YOZHTNBGYY.

mtop - NPDYZHYYTPCHBOOBS DMS YURPMSHЪPCHBOYS À PROPOS DE KHMBI LMBUFETB CHETUIS LPNBODSCH haut. pFPVTBTSBEF À PROPOS DE LTBOE DYOBNYUUEULHA YOZHTTNBGYA P RTPGEUUBI, ЪBRHEEOOSCHI À PROPOS DE DBOOPN KHOME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RTPGEUUSCH.

députés - FPTSE NPDYZHYYTPCHBOOBS CHETUIS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET KHMB, À PROPOS DE LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF À PROPOS DE NPK CHZMSD Y CHUE PUOPCHOSHE KHFYMYFSHCH. À PROPOS DE L'UBNPN DEME LPOEYOP NPTsOP PVPKFYUSH DBTSE VEЪ OI. OBRTYNET YURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
FBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOHA YOZHPTNBGYA P OBUFTPKLBI KHMB, RTPGEUUBI ЪBRHEOOOSCHI U DTHZYI KHMPCH Y F.D., B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTPCH.

6. lURETENEOFYTHEN.

l UPTSBMEOYA, NOE OE KHDBMPUSH ЪBUFBCHYFSH CHSHRPMOSFUS LBLPK-FP PDYO RTPGEUU PDOPCHTENEOOOP À PROPOS DE OEULPMSHLYI KHMBI. nBLUINKHN, YuEZP S DPUFYZ CH RTPGEUUE LURETYNEOFPCH U LMBUFETPN-YURPMSHJPCHBOIE DMS CHSHPRMOEOYS TEUKHTUPENLYI RTPGEUUPCH À PROPOS DE DTHZPN KHME.
dBChBKFE TBUUNPFTYN PDYO YJ RTYNETPCH :
dPRKHUFYN, YUFP KH OBU CH LMBUFETE TBVPFBAF DCHE NBYOSCH (DCHB KHMB), PDYO YI LPFPTSCHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). ьLURETYNEOFYTPCHBFSH NSCH VKhDEN À PROPOS DE 5 MON HYME. 1-K HYEM CH LFP CHTENS RTPUFBYCHBM. ;-)
yFBL, ЪBRKHULBEN À PROPOS DE 5-N HYME KHFYMYFKH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP YЪ CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSHNY KHFYMYFBNY, FP ON DPMTSEO ЪOBFSH, YuFP RTPGEUU RPDVPTB RBTPMS "LKHYBEF" DP 99 RT PGEOFPCH RTPGEUUPTB. OH YFP TSE - RPUME ЪBRKHULB NSCH OBVMADBEN, YuFP RTPGEUU PUFBEFUS À PROPOS DE LFPN, 5-PN KHJME. tBKHNOP - CHEDSH YNEOOP KH LFPPZP KHMB RTYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K KHYEM RPYUFY CH DCHB TBBB.
dBMEE NSCH RTPUFP ЪBRKHUFYMY UVPTLH kde 2.0. uNPFTYN FBVMYGH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM À PROPOS DE 1-K HYEM, PUCHPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPVPTsDBEFUS) DMS faire . b LBL FPMSHLP fait ЪBLPOYUM UCHPA TBVPFKH - crark CHETOHMUS PVTBFOP, À PROPOS DE TPDOPK ENKH 5-K KHYEM.
YoFETEUOSCHK YZHZHELF RPMKHYUBEFUS, EUMY crark ЪBRKHULBFSH À PROPOS DE VPMEE NEDMEOOPN 1-N KHJME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRPMPTSOSHCHK TEKHMSHFBF - RTPGEUU UTBH-CE NYZTYTHEF À PROPOS DE 5-K, VPMEE VSHCHUFTSHCHK HYEM. rTY LFPN SUR CHPTBEBEFUS PTBBFOP, LPZDB IPЪSIO RSFPZP LPNRSHAFETB OBUYOBEF LBLYE-FP DEKUFCHYS U UYUFENPK.

7. yURPMSHЪPCHBOIE

dBChBKFE CH LPOGE TBVETENUS, ЪBUEN Y LBL NSCH NPTsEN YURPMSHЪPCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPK TSYYOY.
dMS OBYUBMB OHTSOP TBY OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSHCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH LOOPE LPMYUEUFCHP NBYO, LPFPTSCHE YUBUFEOSHLP RTPUFBYCHBA F Y CHSH IPFYFE YURPMSHЪPCHBFSH YI TEUKHTUSH OBRTYNET DMS UVPTLY KDE YMY DMS MAVSHHI UETSHESHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYO NPTsOP PDOPCHTEENOOOP
LPNRYMYTCHBFS DP 10 FSTSEMSCHI RTPZTBNN À PROPOS DE FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSH,
OE RTELTBEBBS OH À PROPOS D'UELKHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHYLY À PROPOS DE CHBY LPNRSHAFET.
dB Y CHPPVEE - LFP RTPUFP YOFETEUOP;-).

8. ъBLMAYUEOOYE

h ЪBLMAYUEOYE IPUKH ULBUBFSH, YuFP h LFPK UFBFSHE OE TBUUNPFTEOSCH CHUE CHPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTDPDPMTSEOYS. :-)


Haut