Asamblarea computerelor în clustere. cluster desktop. Configurarea setărilor de rețea

Astăzi, procesele de afaceri ale multor companii sunt complet legate de informații
tehnologii. Odată cu dependența tot mai mare a organizațiilor de munca de calcul
rețelele, disponibilitatea serviciilor în orice moment și sub orice sarcină joacă un rol important
rol. Un singur computer poate oferi doar Primul nivel fiabilitatea și
scalabilitate, nivelul maxim poate fi atins prin combinarea în
un singur sistem de două sau mai multe computere - un cluster.

Pentru ce este un cluster?

Clusterele sunt utilizate în organizațiile care au nevoie de 24 de ore și
disponibilitatea neîntreruptă a serviciilor și acolo unde orice întreruperi în funcționare sunt nedorite și
nu sunt permise. Sau în cazurile în care este posibilă o creștere a sarcinii, cu care
serverul principal nu poate face față, apoi suplimentar
gazde care îndeplinesc de obicei alte sarcini. Pentru server de mail prelucrare
zeci și sute de mii de scrisori pe zi sau un server web care servește
cumpărături online, utilizarea clusterelor este foarte de dorit. Pentru utilizator
un astfel de sistem rămâne complet transparent - întregul grup de calculatoare va fi
arata ca un singur server. Utilizarea mai multor, chiar mai ieftine,
computerele vă permite să obțineți avantaje foarte semnificative față de un singur
si server rapid. Aceasta este o distribuție uniformă a cererilor primite,
toleranță crescută la erori, deoarece atunci când un element iese, sarcina acestuia
preluați alte sisteme, scalabilitate, întreținere convenabilă și înlocuire
noduri de cluster și multe altele. Eșecul unui nod automat
este detectat și încărcarea este redistribuită, pentru client toate acestea vor rămâne
neobservat.

Caracteristicile Win2k3

În general, unele clustere sunt concepute pentru a crește disponibilitatea datelor,
alţii să se asigure performanță maximă. În contextul articolului, noi
va fi interesat MPP (Procesare paralelă masivă)- clustere,
pe care același tip de aplicații rulează pe mai multe computere, oferind
scalabilitatea serviciului. Există mai multe tehnologii care
distribuiți încărcarea pe mai multe servere: redirecționarea traficului,
traducerea adresei, DNS Round Robin, utilizarea de special
programe
care operează la nivelul aplicației, precum acceleratoarele web. ÎN
Win2k3, spre deosebire de Win2k, suportul pentru clustering este încorporat în și
sunt acceptate două tipuri de clustere, care diferă în aplicații și specificități
date:

1. Clustere NLB (Network Load Balancing).- asigura
scalabilitate și disponibilitate ridicată a serviciilor și aplicațiilor bazate pe protocoale TCP
și UDP, combinând într-un singur cluster până la 32 de servere cu același set de date, activate
care rulează aceleași aplicații. Fiecare cerere este executată ca
tranzacție separată. Ele sunt folosite pentru a lucra cu seturi de schimbare rar
date precum WWW, ISA, servicii terminale și alte servicii similare.

2. Clustere de servere– pot combina până la opt noduri, principalele lor
sarcina este de a asigura disponibilitatea aplicațiilor în caz de eșec. Consta din activ și
noduri pasive. Nodul pasiv este inactiv de cele mai multe ori, jucând rolul
rezerva nodului principal. Pentru aplicații individuale, este posibilă personalizarea
mai multe servere active, distribuind sarcina între ele. Ambele noduri
conectat la un singur depozit de date. Clusterul de server este folosit pentru lucru
cu volume mari de date care se schimbă frecvent (e-mail, fișiere și
servere SQL). Mai mult, un astfel de cluster nu poate consta din noduri care operează sub
gestionarea diferitelor variante de Win2k3: Enterprise sau Datacenter (Web și
Clusterele standard de servere nu acceptă).

ÎN Microsoft Application Center 2000(și numai) mai era un fel
cluster - CLB (echilibrarea sarcinii componentelor), oferind oportunitatea
distribuirea aplicațiilor COM+ pe mai multe servere.

clustere NLB

Când utilizați echilibrarea încărcăturii, fiecare dintre gazde creează
un adaptor de rețea virtuală cu propria sa adresă IP și MAC independentă.
Această interfață virtuală reprezintă clusterul ca un singur nod, clienți
adresa acestuia pe adresa virtuală. Toate cererile sunt primite de fiecare
nod cluster, dar sunt procesate de unul singur. Se rulează pe toate nodurile
Serviciul de echilibrare a sarcinii în rețea
,
care, folosind un algoritm special care nu necesită schimb de date între
noduri, decide dacă un anumit nod trebuie să proceseze o cerere sau
Nu. Nodurile sunt schimbate mesaje ale bătăilor inimii arătându-le
disponibilitate. Dacă o gazdă nu mai emite o bătăi de inimă sau apare un nou nod,
alte noduri pornesc proces de convergenţă, un nou
redistribuirea sarcinii. Echilibrarea poate fi implementată în unul din două moduri
moduri:

1) unicast– unicast atunci când în loc de un MAC fizic
este utilizat MAC-ul adaptorului virtual al clusterului. În acest caz, nodurile cluster nu sunt
pot comunica între ei folosind adrese MAC numai prin IP
(sau un al doilea adaptor care nu este asociat cu clusterul);

Doar unul dintre aceste moduri ar trebui utilizat în cadrul aceluiași cluster.

poate fi personalizat mai multe clustere NLB pe un adaptor de rețea,
specificarea regulilor specifice pentru porturi. Astfel de grupuri sunt numite virtuale. Al lor
aplicația vă permite să setați pentru fiecare aplicație, gazdă sau adresă IP
anumite computere din clusterul principal sau blocați traficul pentru
unele aplicații fără a afecta traficul pentru alte programe care rulează
pe acest nod. Sau, invers, o componentă NLB poate fi legată de mai multe
adaptoare de rețea, care vă vor permite să configurați un număr de clustere independente pe fiecare
nodul. De asemenea, ar trebui să știți că configurați clustere de servere și NLB pe același nod
nu este posibil deoarece funcționează diferit cu dispozitivele de rețea.

Administratorul poate face un fel de configurație hibridă care are
avantajele ambelor metode, de exemplu, prin crearea unui cluster NLB și configurarea replicării
date între noduri. Dar replicarea nu se realizează în mod constant, ci din când în când,
prin urmare, informațiile despre diferite noduri vor fi diferite pentru o perioadă de timp.

Să terminăm cu teoria, deși poți vorbi despre construirea clusterelor
de mult timp, enumerând posibilitățile și modalitățile de construire, dând diverse
recomandări și opțiuni pentru implementarea specifică. Să lăsăm toate aceste subtilități și nuanțe
Pentru auto-studiu si trecem la partea practica.

Configurarea unui cluster NLB

Pentru organizațiile cluster NLB nu este nevoie de software suplimentar
produs prin mijloacele disponibile ale Win2k3. Pentru a crea, întreține și monitoriza
Clusterele NLB folosesc componenta Network Load Balancing Manager
(Manager de echilibrare a sarcinii în rețea)
, care se află în filă
„Administrare” „Panou de control” (comanda NLBMgr). Din moment ce componenta
„Network Load Balancing” este instalat ca driver de rețea Windows standard,
De asemenea, puteți instala NLB utilizând componenta Network Connections, în
care este disponibil articolul corespunzător. Dar este mai bine să îl folosiți numai pe primul
opțiunea, activarea simultană a managerului NLB și „Conexiuni de rețea”
poate duce la rezultate imprevizibile.

NLB Manager vă permite să configurați și să gestionați munca dintr-un singur loc simultan
mai multe clustere și noduri.

De asemenea, este posibil să instalați un cluster NLB pe un computer cu o singură rețea
adaptor asociat cu componenta Network Load Balancing, dar aceasta
În cazul modului unicast, managerul NLB de pe acest computer nu poate fi
folosit pentru a controla alte noduri, iar nodurile în sine nu pot face schimb
cu alte informații.

Acum sunăm dispeceratul NLB. Nu avem încă grupuri, așa că a apărut
fereastra nu conține nicio informație. Selectați „Nou” din meniul „Cluster” și
începem să completăm câmpurile din fereastra „Parametri cluster”. În câmpul „Setări”.
Setări IP Cluster” introduceți valoarea adresei IP virtuale a clusterului, masca
subrețea și nume complet calificat. Valoarea adresei MAC virtuale este setată
automat. Puțin mai jos selectăm modul de funcționare cluster: unicast sau
multicast. Acordați atenție casetei de selectare „Permiteți controlul de la distanță” - în
în toate documentele, Microsoft recomandă insistent să nu fie utilizat în timpul
evita problemele de securitate. În schimb, ar trebui să aplici
dispecer sau alte mijloace telecomandă, de exemplu trusa de instrumente
Windows Management (WMI). Dacă se ia decizia de a-l folosi, atunci
ia toate măsurile adecvate pentru a proteja rețeaua, acoperind suplimentar
firewall porturi UDP 1717 și 2504.

După ce ați completat toate câmpurile, faceți clic pe „Următorul”. În fereastra „Cluster IP addresses”, când
necesar, adăugăm adrese IP virtuale suplimentare care vor fi
folosit de acest cluster. În următoarea fereastră Port Rules, puteți
setați echilibrarea sarcinii pentru unul sau pentru un grup de porturi din toate sau
IP selectat prin protocoale UDP sau TCP, precum și blocarea accesului la cluster
anumite porturi (pe care un firewall nu le înlocuiește). Cluster implicit
procesează cererile pentru toate porturile (0-65365); este mai bine să limitați această listă,
adăugând doar pe cele care sunt cu adevărat necesare. Deși, dacă nu există nicio dorință de a se încurca,
poți lăsa totul așa cum este. Apropo, în Win2k, implicit, tot traficul
direcționat către cluster, a procesat doar nodul care a avut cea mai mare prioritate,
nodurile rămase au fost conectate numai atunci când cel principal a eșuat.

De exemplu, pentru IIS, trebuie doar să activați porturile 80 (http) și 443 (https).
Mai mult, puteți face astfel încât, de exemplu, procesul de conexiuni securizate
numai anumite servere care au certificatul instalat. Pentru adaugare
regulă nouă, faceți clic pe „Adăugați”, în caseta de dialog care apare, introduceți
Adresa IP a nodului sau dacă regula se aplică tuturor, lăsați caseta de selectare
"Toate". În câmpurile „De la” și „Către” ale intervalului de porturi, setați aceeași valoare -
80. Câmpul cheie este „Modul de filtrare” - aici
precizează cine va procesa această cerere. Există trei câmpuri care definesc modul
filtrare: „Noduri multiple”, „Nod unic” și „Dezactivați această gamă de porturi”.
Selectarea „Single Host” înseamnă că traficul este direcționat către IP-ul selectat (computer
sau cluster) cu numărul de port specificat va fi procesat de nodul activ,
având indicatorul cu cea mai mică prioritate (mai multe despre asta mai jos). Selectând „Dezactivați...”
înseamnă că un astfel de trafic va fi eliminat de toți membrii clusterului.

În modul de filtrare „Noduri multiple”, puteți specifica în plus opțiunea
definiții de afinitate client pentru a direcționa traficul de la un anumit client către
același nod de cluster. Există trei opțiuni: „Niciuna”, „Singură” sau „Clasă
C". Alegerea primei înseamnă că orice solicitare va primi un răspuns arbitrar
nodul. Dar nu ar trebui să-l utilizați dacă protocolul UDP este selectat în regulă sau
"Ambii". La alegerea altor articole, asemănarea clienților va fi determinată de
IP specific sau interval de rețea de clasă C.

Deci, pentru regula noastră cu portul 80, vom opta pentru opțiunea
„Noduri multiple – clasa C”. Regula pentru 443 este completată în același mod, dar noi folosim
„Single node”, astfel încât clientul primește întotdeauna răspuns de nodul principal cu cel mai mic
prioritate. Dacă dispecerul găsește o regulă incompatibilă, aceasta se va afișa
va fi adăugat un mesaj de avertizare, pe lângă jurnalul de evenimente Windows
intrarea corespunzătoare.

Apoi, ne conectăm la nodul viitorului cluster introducând numele sau IP-ul real și
definiți interfața care va fi conectată la rețeaua cluster. În fereastra Opțiuni
nodul „selectați prioritatea din listă, specificați setari de retea, setați inițiala
starea nodului (în rulare, oprit, întrerupt). Prioritate în același timp
este identificatorul unic al nodului; cu cât numărul este mai mic, cu atât prioritatea este mai mare.
Nodul cu prioritate 1 este serverul principal care primește primul
pachete și acționând ca un manager de rutare.

Caseta de selectare „Păstrează starea după repornirea computerului” permite, în caz
eșecul sau repornirea acelui nod îl va aduce automat online. După apăsare
la „Finish” în fereastra Manager, va apărea o intrare despre noul cluster, în care până acum
există un singur nod.
Următorul nod este, de asemenea, ușor de adăugat. Selectați „Adăugați nod” din meniu sau
„Conectează-te la existent”, în funcție de computer
se face o conexiune (este deja membru al clusterului sau nu). Apoi în fereastră
specificați numele sau adresa computerului, dacă sunt suficiente drepturi pentru a vă conecta, unul nou
nodul va fi conectat la cluster. Prima dată va fi pictograma de lângă numele lui
diferă, dar când procesul de convergență este finalizat, acesta va fi același cu cel al
primul computer.

Deoarece dispecerul afișează proprietățile nodurilor în momentul conexiunii sale, pt
clarificarea stării curente, selectați un cluster și în meniul contextual paragraf
"Actualizați". Managerul se va conecta la cluster și va afișa datele actualizate.

După instalare cluster NLB nu uitați să schimbați înregistrarea DNS în
rezoluția numelui este afișată acum pe IP-ul clusterului.

Modificați încărcarea serverului

În această configurație, toate serverele vor fi încărcate uniform (cu excepția
opțiunea „Un nod”). În unele cazuri, este necesară redistribuirea sarcinii,
cea mai mare parte a muncii este atribuită unuia dintre noduri (de exemplu, cel mai puternic).
Pentru un cluster, regulile pot fi modificate după ce au fost create selectând
meniul contextual care apare când faceți clic pe nume, elementul „Proprietăți cluster”.
Toate setările despre care am vorbit mai sus sunt disponibile aici. Articol din meniu
„Proprietățile nodului” oferă mai multe opțiuni. În „Opțiuni nod”
puteți modifica valoarea de prioritate pentru un anumit nod. În „Reguli
pentru porturi" nu puteți adăuga sau șterge o regulă, este disponibilă doar la nivel
cluster. Dar, alegând să edităm o anumită regulă, avem ocazia
ajustați unele setări. Deci, cu modul de filtrare setat
„Multiple Nodes”, elementul „Load Estimation” devine disponibil, permițându-vă
redistribuiți sarcina pe un anumit nod. Bifat implicit
„Egal”, dar în „Estimarea încărcăturii” puteți specifica o valoare diferită a încărcării
nod specific, ca procent din încărcarea totală a clusterului. Dacă modul este activat
filtrarea „Un nod”, în această fereastră apare parametru nou"O prioritate
prelucrare". Folosind-o, puteți face astfel încât traficul către un anumit port
va fi procesat în primul rând de către un nod al clusterului, iar la altul - de către alții
nodul.

Înregistrare evenimente

După cum sa menționat deja, componenta Network Load Balancing înregistrează totul
acțiunile cluster și modificările în jurnalul de evenimente Windows. Sa ii vedem
selectați „Event Viewer - System”, NLB include mesaje WLBS (de la
Serviciul de echilibrare a încărcăturii Windows, așa cum a fost numit acest serviciu în NT). În plus, în
fereastra dispecerului afișează cele mai recente mesaje care conțin informații despre erori
și orice modificare a configurației. În mod implicit, această informație nu este
este salvat. Pentru a-l scrie într-un fișier, selectați „Opțiuni -\u003e
Opțiuni de înregistrare”, bifați caseta de selectare „Activați înregistrarea în jurnal” și specificați un nume
fişier. Noul fișier va fi creat în subdirectorul Documente al contului dvs
și setări.

Configurarea IIS cu replicare

Un cluster este un cluster, dar fără un serviciu nu are sens. Deci să adăugăm IIS (Internet
servicii de informare)
. Serverul IIS este inclus cu Win2k3, dar pentru a-l reduce la
pentru a minimiza posibilitatea atacurilor asupra serverului, acesta nu este instalat implicit.

Există două moduri de a instala IIS: prin „Panou de control” sau
maestru de management al rolului acest server. Să luăm în considerare primul. Mergi la
„Panou de control - Adăugați sau eliminați programe” (Panou de control - Adăugați sau
Eliminați programe), selectați „Instalați componente Windows” (Adăugați/Eliminați Windows
componente). Acum accesați elementul „Server de aplicații” și marcați în „Servicii”.
IIS” este tot ce este necesar. În mod implicit, directorul de lucru al serverului este \Inetpub\wwwroot.
Odată instalat, IIS poate afișa documente statice.

Introducere

Un cluster de servere este un grup de servere independente gestionate de serviciul cluster care lucrează împreună ca un singur sistem. Clusterele de servere sunt create prin combinarea mai multor servere bazate pe Windows® 2000 Advanced Server și Windows 2000 Server pentru centru de date Pentru munca în comun, oferind astfel un nivel ridicat de disponibilitate, scalabilitate și manevrabilitate pentru resurse și aplicații.

Sarcina unui cluster de servere este de a oferi utilizatorilor acces continuu la aplicații și resurse în caz de defecțiuni hardware sau software sau opriri planificate ale echipamentelor. Dacă unul dintre serverele din cluster este indisponibil din cauza unei erori sau a opririi rulării întreținere, resurse informaționale iar aplicațiile sunt redistribuite între nodurile de cluster disponibile rămase.

Pentru sistemele cluster, utilizarea termenului „ Valabilitate ridicată" este de preferat față de utilizarea termenului " toleranta la greseli" deoarece tehnologiile de toleranță la erori necesită un nivel mai ridicat de rezistență hardware și mecanisme de recuperare. De regulă, serverele tolerante la erori utilizează un grad ridicat de redundanță hardware, plus, în plus, software specializat care permite recuperarea aproape imediată în cazul oricărei erori de software sau software. hardware. Aceste soluții sunt semnificativ mai scumpe decât utilizarea tehnologiilor cluster, deoarece organizațiile sunt forțate să plătească în exces pentru hardware suplimentar care este inactiv de cele mai multe ori și este utilizat numai în caz de defecțiuni. Serverele tolerante la erori sunt utilizate pentru aplicații cu valoare mare pentru tranzacții, cum ar fi centrele de procesare a plăților, bancomatele sau bursele.

Deși serviciul Cluster nu este garantat să ruleze non-stop, acesta oferă un nivel ridicat de disponibilitate, care este suficient pentru a rula majoritatea aplicațiilor critice. Serviciul Cluster poate monitoriza funcționarea aplicațiilor și resurselor, recunoscând automat starea defecțiunilor și recuperând sistemul după ce acestea sunt rezolvate. Acest lucru oferă o gestionare mai flexibilă a sarcinii de lucru în cadrul clusterului și îmbunătățește disponibilitatea generală a sistemului.

Avantajele cheie ale utilizării serviciului Cluster:

  • Valabilitate ridicată.În cazul eșecului unui nod, serviciul cluster transferă controlul resurselor, cum ar fi hard disk-urile și adresele de rețea, către nodul cluster activ. Când are loc o defecțiune software sau hardware, software-ul cluster repornește aplicația eșuată pe nodul activ sau transferă întreaga încărcare a nodului eșuat la nodurile active rămase. În acest caz, utilizatorii pot observa doar o scurtă întârziere în serviciu.
  • Întoarcere după anulare. Serviciul Cluster redistribuie automat sarcina de lucru în cluster atunci când un nod eșuat devine din nou disponibil.
  • Controlabilitate. Cluster Administrator este un snap-in pe care îl puteți folosi pentru a vă gestiona clusterul sistem unificat, precum și pentru managementul aplicațiilor. Administratorul clusterului oferă o vedere transparentă a modului în care rulează aplicațiile ca și cum ar fi rulat pe același server. Puteți muta aplicații pe diferite servere dintr-un cluster trăgând și plasând obiectele cluster. În același mod, puteți muta datele. Această metodă poate fi utilizată pentru a distribui manual volumul de lucru al serverelor, precum și pentru a descărca serverul și apoi a-l opri în scopul întreținerii programate. În plus, Cluster Administrator vă permite să monitorizați de la distanță starea cluster-ului, toate nodurile și resursele acestuia.
  • Scalabilitate. Pentru a se asigura că performanța clusterului poate ține mereu pasul cu cerințele tot mai mari, serviciul Cluster este conceput pentru a se extinde. Dacă performanța globală a clusterului devine insuficientă pentru a gestiona sarcina generată de aplicațiile cluster, pot fi adăugate noduri suplimentare la cluster.

Acest document oferă instrucțiuni pentru instalarea serviciului Cluster pe serverele care rulează Control Windows 2000 Advanced Server și Windows 2000 Datacenter Server și descrie modul de instalare a serviciului Cluster pe serverele nodului cluster. Acest ghid nu acoperă instalarea și configurarea aplicațiilor în cluster, ci doar vă ghidează prin procesul de instalare a unui cluster simplu cu două noduri.

Cerințe de sistem pentru crearea unui cluster de servere

Următoarele liste de verificare vă vor ajuta să vă pregătiți pentru instalare. Instrucțiuni pas cu pas instrucțiunile de instalare vor fi prezentate în continuare după aceste liste.

Cerințe software

  • sala de operatie sistem Microsoft Windows 2000 Advanced Server sau Windows 2000 Datacenter Server instalat pe toate serverele din cluster.
  • Un serviciu de rezoluție de nume instalat, cum ar fi Denumirea domeniului System (DNS), Windows Internet Naming System (WINS), HOSTS etc.
  • Server terminal pentru administrarea clusterului de la distanță. Această cerință nu este obligatorie, ci este recomandată doar pentru a asigura confortul managementului clusterului.

Cerințe hardware

  • Cerințele hardware pentru un nod de cluster sunt aceleași cu cele pentru instalarea sistemelor de operare Windows 2000 Advanced Server sau Windows 2000 Datacenter Server. Aceste cerințe pot fi găsite pe pagina de căutare directorul Microsoft.
  • Hardware-ul clusterului trebuie să fie certificat și listat în Lista de compatibilitate hardware (HCL) Microsoft Cluster Service. ultima versiune această listă poate fi găsită pe pagina de căutare Lista de compatibilitate hardware Windows 2000 Directorul Microsoft selectând categoria de căutare „Cluster”.

Două computere calificate HCL, fiecare cu:

  • HDD cu o partiție de sistem bootabilă și Windows 2000 Advanced Server sau Windows 2000 Datacenter Server instalat. Această unitate nu trebuie conectată la magistrala de stocare partajată discutată mai jos.
  • Dispozitive PCI-controller separate canal optic (Fibre Channel) sau SCSI pentru conectarea unui dispozitiv de stocare partajat extern. Acest controler trebuie să fie prezent pe lângă controler disc de pornire.
  • Două adaptoare de rețea PCI instalate pe fiecare computer din cluster.
  • Dispozitivul de stocare pe disc extern listat în HCL care este atașat la toate nodurile din cluster. Va acționa ca un disc cluster. Se recomandă o configurație care utilizează matrice RAID hardware.
  • Cabluri pentru conectarea unui dispozitiv de stocare partajat la toate computerele. Consultați documentația producătorului pentru instrucțiuni privind configurarea dispozitivelor de stocare. Dacă vă conectați la o magistrală SCSI, puteți consulta Anexa A pentru Informații suplimentare.
  • Tot hardware-ul de pe computerele cluster trebuie să fie complet identic. Acest lucru va simplifica procesul de configurare și vă va salva de potențiale probleme de compatibilitate.

Cerințe de configurare a rețelei

  • Nume unic NetBIOS pentru cluster.
  • Cinci adrese IP statice unice: două pentru adaptoarele de rețea private, două pentru adaptoarele de rețea publice și una pentru cluster.
  • Domeniu Cont pentru serviciul de cluster (toate nodurile de cluster trebuie să fie membri ai aceluiași domeniu)
  • Fiecare nod trebuie să aibă două adaptoare de rețea - unul pentru conectarea la rețeaua publică, unul pentru comunicarea intra-cluster a nodurilor. O configurație care utilizează un singur adaptor de rețea pentru a se conecta la o rețea publică și privată în același timp nu este acceptată. Pentru a respecta cerințele HCL, este necesar un adaptor de rețea separat pentru rețeaua privată.

Cerințe pentru unitățile de stocare partajate

  • Toate unitățile de stocare partajate, inclusiv unitatea de cvorum, trebuie să fie conectate fizic la magistrala partajată.
  • Toate discurile conectate la magistrala partajată trebuie să fie disponibile pentru fiecare nod. Acest lucru poate fi verificat în timpul fazei de instalare și configurare a adaptorului gazdă. Pentru instrucțiuni detaliate consultați documentația producătorului adaptorului.
  • Dispozitivelor SCSI trebuie să li se atribuie numere de identificare unice SCSI țintă, iar terminatoarele de pe magistrala SCSI trebuie să fie terminate corespunzător, conform instrucțiunilor producătorului. 1
  • Toate discurile de stocare partajată trebuie configurate ca discuri de bază (nu dinamice)
  • Toate partițiile de pe unitățile de stocare partajate trebuie să fie formatate în format de fișier. sistem NTFS.

Este foarte recomandat ca toate unitățile de stocare partajate să fie configurate în matrice RAID hardware. Deși nu este necesar, crearea de configurații RAID tolerante la erori este cheia pentru protejarea împotriva defecțiunilor de disc.

Instalarea unui cluster

Prezentare generală a instalației

În timpul procesului de instalare, unele noduri vor fi închise, iar altele vor fi repornite. Acest lucru este necesar pentru a asigura integritatea datelor aflate pe discuri conectate la magistrala comună a unui dispozitiv de stocare extern. Coruperea datelor poate apărea atunci când mai multe noduri încearcă simultan să scrie pe aceeași unitate care nu este protejată de software-ul cluster.

Tabelul 1 vă va ajuta să determinați ce noduri și dispozitive de stocare trebuie să fie activate pentru fiecare pas al instalării.

Acest ghid descrie cum să creați un cluster cu două noduri. Cu toate acestea, dacă configurați un cluster cu mai mult de două noduri, puteți utiliza valoarea coloanei „Nodul 2” pentru a determina starea nodurilor rămase.

Tabelul 1. Secvența dispozitivelor de activare în timpul instalării clusterului

Etapa Nodul 1 Nodul 2 dispozitiv de stocare Un comentariu
Setarea parametrilor rețelei Pe Pe Oprit Asigurați-vă că toate dispozitivele de stocare conectate la magistrala partajată sunt oprite. Porniți toate nodurile.
Configurarea drive-urilor partajate Pe Oprit Pe Opriți toate nodurile. Porniți dispozitivul de stocare partajat, apoi porniți prima gazdă.
Verificarea configurației drive-urilor partajate Oprit Pe Pe Opriți primul nod, porniți al doilea nod. Repetați pentru nodurile 3 și 4 dacă este necesar.
Configurarea primului nod Pe Oprit Pe Opriți toate nodurile; porniți primul nod.
Configurarea celui de-al doilea nod Pe Pe Pe După configurarea cu succes a primului nod, porniți al doilea nod. Repetați pentru nodurile 3 și 4 dacă este necesar.
Finalizarea instalării Pe Pe Pe În acest moment, toate nodurile ar trebui să fie activate.

Înainte de instalare software clustere, urmați acești pași:

  • Instalați un sistem de operare pe fiecare computer din cluster sistem Windows 2000 Advanced Server sau Windows 2000 Datacenter Server.
  • Configurați setările de rețea.
  • Configurați unități de stocare partajate.

Finalizați acești pași pe fiecare nod al clusterului înainte de a instala serviciul Cluster pe primul nod.

Pentru a configura serviciul Cluster pe un server care rulează Windows 2000, contul dumneavoastră trebuie să aibă drepturi administrative pe fiecare nod. Toate nodurile de cluster trebuie să fie fie servere membre, fie controlere ale aceluiași domeniu în același timp. Utilizarea mixtă a serverelor membre și controlerelor de domeniu într-un cluster nu este permisă.

Instalarea sistemului de operare Windows 2000

Pentru Instalare Windows 2000 pe fiecare nod de cluster, consultați documentația pe care ați primit-o împreună cu sistemul dvs. de operare.

Acest document folosește structura de denumire din manual „Ghid pas cu pas pentru o infrastructură comună pentru implementarea Windows 2000 Server”. Cu toate acestea, puteți utiliza orice nume.

Trebuie să fiți autentificat cu un cont de administrator înainte de a începe instalarea serviciului de cluster.

Configurarea setărilor de rețea

Notă:În acest moment al instalării, opriți toate dispozitivele de stocare partajate, apoi porniți toate nodurile. Trebuie să împiedicați mai multe noduri să acceseze spațiul de stocare partajat în același timp până când serviciul Cluster este instalat pe cel puțin unul dintre noduri și acel nod este pornit.

Fiecare nod trebuie să aibă cel puțin două adaptoare de rețea instalate - unul pentru a se conecta la rețeaua publică și unul pentru a se conecta la rețeaua privată a nodurilor cluster.

Adaptorul de rețea de rețea privată asigură comunicarea între noduri, comunicarea stării curente a clusterului și gestionarea clusterului. Adaptorul de rețea publică al fiecărui nod conectează clusterul la rețeaua publică a computerelor client.

Asigurați-vă că toate adaptoarele de rețea sunt conectate fizic corect: adaptoarele de rețea private sunt conectate numai la alte adaptoare de rețea private, iar adaptoarele de rețea publice sunt conectate la comutatoarele de rețea publice. Diagrama de conectare este prezentată în Figura 1. Efectuați această verificare pe fiecare nod al clusterului înainte de a continua configurarea unităților de stocare partajate.

Figura 1: Un exemplu de cluster cu două noduri

Configurarea unui adaptor de rețea privată

Efectuați acești pași pe primul nod al clusterului dvs.

  1. Mediul meu de rețeași selectați comanda Proprietăți.
  2. Faceți clic dreapta pe pictogramă.

Notă: Ce adaptor de rețea va deservi rețeaua privată și care rețeaua publică depinde de conexiunea fizică a cablurilor de rețea. ÎN acest document vom presupune că primul adaptor (Local Area Connection) este conectat la rețeaua publică, iar al doilea adaptor (Local Area Connection 2) este conectat la rețeaua privată a clusterului. În cazul dvs., acesta poate să nu fie cazul.

  1. Stat. Fereastră Stare Conexiune locală 2 arată starea conexiunii și viteza acesteia. Dacă conexiunea este într-o stare deconectată, verificați cablurile și conexiunea corectă. Remediați problema înainte de a continua. Faceți clic pe butonul închide.
  2. Faceți clic dreapta pe pictogramă din nou Conexiune LAN 2, selectați o comandă Proprietățiși apăsați butonul Ton.
  3. Selectați fila În plus. Va apărea fereastra din figura 2.
  4. Pentru adaptoarele de rețea de rețea privată, viteza trebuie setată manual în loc de valoarea implicită. Specificați viteza rețelei dvs. în lista derulantă. Nu folosi valori „Sentiment automat” sau "Selectare automată" pentru a selecta viteza, deoarece unele adaptoare de rețea pot pierde pachete în timpul determinării vitezei de conectare. Pentru a seta viteza adaptorului de rețea, specificați valoarea reală pentru parametru Tipul conexiunii sau Viteză.

Figura 2: Setări avansate adaptor de rețea

Toate adaptoarele de rețea dintr-un cluster conectat la aceeași rețea trebuie să fie configurate în același mod și să utilizeze aceleași valori ale parametrilor modul duplex, Controlul debitului, Tipul conexiunii, etc. Chiar dacă noduri diferite utilizează echipamente de rețea diferite, valorile acestor parametri trebuie să fie aceleași.

  1. Selectați Protocol Internet (TCP/IP)în lista componentelor utilizate de conexiune.
  2. Faceți clic pe butonul Proprietăți.
  3. Setați comutatorul pe Utilizați următoarea adresă IPși introduceți adresa 10.1.1.1 . (Pentru al doilea nod, utilizați adresa 10.1.1.2 ).
  4. Setați masca de subrețea: 255.0.0.0 .
  5. Faceți clic pe butonul În plusși selectați fila CÂȘTIGE. Setați valoarea comutatorului în poziție Dezactivați NetBIOS prin TCP/IP. Clic Bine pentru a reveni la meniul anterior. Urmați acest pas numai pentru adaptorul de rețea privată.

Caseta de dialog ar trebui să arate ca în Figura 3.

Figura 3: Adresa IP a conexiunii la rețea privată

Configurarea unui adaptor de rețea publică

Notă: Dacă un server DHCP rulează pe o rețea publică, o adresă IP pentru adaptorul de rețea publică poate fi atribuită automat. Cu toate acestea, această metodă nu este recomandată pentru adaptoarele de noduri de cluster. Vă recomandăm insistent să atribuiți adrese IP permanente tuturor NIC-urilor gazdă publice și private. În caz contrar, dacă serverul DHCP eșuează, este posibil ca accesul la nodurile clusterului să nu fie posibil. Dacă sunteți forțat să utilizați DHCP pentru adaptoarele de rețea publice, utilizați termeni lungiînchiriere de adrese - acest lucru va asigura că adresa alocată dinamic rămâne valabilă chiar dacă serverul DHCP devine temporar indisponibil. Alocați întotdeauna adrese IP permanente adaptoarelor de rețea private. Rețineți că serviciul Cluster poate recunoaște doar o interfață de rețea per subrețea. Dacă aveți nevoie de ajutor pentru alocarea adreselor de rețea în Windows 2000, consultați ajutorul încorporat al sistemului de operare.

Redenumirea conexiunilor de rețea

Pentru claritate, vă recomandăm să schimbați numele conexiunilor de rețea. De exemplu, puteți schimba numele conexiunii Conexiune LAN 2 pe . Această metodă vă va ajuta să identificați mai ușor rețelele și să le atribuiți corect rolurile.

  1. Faceți clic dreapta pe pictogramă 2.
  2. În meniul contextual, selectați comanda Redenumiți.
  3. introduce Conectarea la o rețea privată de clusterîn câmpul de text și apăsați tasta INTRODUCE.
  4. Repetați pașii 1-3 și schimbați numele conexiunii conexiune LAN pe Conectare la o rețea publică.

Figura 4: Conexiuni de rețea redenumite

  1. Conexiunile de rețea redenumite ar trebui să arate ca în Figura 4. Închideți fereastra Rețea și Rețea Dial-Up. Noile nume de conexiuni de rețea sunt replicate automat la alte noduri de cluster atunci când sunt pornite.

Examinare conexiuni de reteași rezoluții de nume

Pentru a verifica dacă hardware-ul de rețea configurat funcționează, parcurgeți următorii pași pentru toate adaptoarele de rețea din fiecare gazdă. Pentru a face acest lucru, trebuie să cunoașteți adresele IP ale tuturor adaptoarelor de rețea din cluster. Puteți obține aceste informații rulând comanda ipconfig pe fiecare nod:

  1. Faceți clic pe butonul Start, selectați o echipă Alergași tastați comanda cmdîntr-o fereastră de text. Clic Bine.
  2. Formează o echipă ipconfig /allși apăsați tasta INTRODUCE. Veți vedea informații despre configurarea protocolului IP pentru fiecare adaptor de rețea pornit mașină locală.
  3. În cazul în care nu aveți încă o fereastră deschisă Linie de comanda, urmați pasul 1.
  4. Formează o echipă ping adresa de ipad Unde adresa IP este adresa IP a adaptorului de rețea corespunzător de pe cealaltă gazdă. Să presupunem, de exemplu, că adaptoarele de rețea au următoarele adrese IP:
Numărul nodului Numele conexiunii la rețea Adresa IP a adaptorului de rețea
1 Conexiune la rețea publică 172.16.12.12
1 Conectarea la o rețea privată de cluster 10.1.1.1
2 Conexiune la rețea publică 172.16.12.14
2 Conectarea la o rețea privată de cluster 10.1.1.2

În acest exemplu, trebuie să rulați comenzile ping 172.16.12.14Și ping 10.1.1.2 de la nodul 1 și executați comenzi ping 172.16.12.12Și ping 10.1.1.1 de la nodul 2.

Pentru a verifica rezoluția numelui, executați comanda ping, folosind numele computerului ca argument în loc de adresa sa IP. De exemplu, pentru a verifica rezoluția numelui pentru primul nod de cluster numit hq-res-dc01, rulați comanda ping hq-res-dc01 de pe orice computer client.

Verificarea apartenenței la domeniu

Toate nodurile din cluster trebuie să fie membri ai aceluiași domeniu și trebuie să poată face rețea cu controlerul de domeniu și serverul DNS. Nodurile pot fi configurate ca servere membre de domeniu sau ca controlori ai aceluiasi domeniu. Dacă decideți să faceți unul dintre noduri controler de domeniu, atunci toate celelalte noduri din cluster trebuie, de asemenea, configurate ca controlere de domeniu ale aceluiași domeniu. Acest ghid presupune că toate nodurile sunt controlere de domeniu.

Notă: Pentru link-uri către documentație suplimentară despre configurarea domeniilor, Servicii DNSși DHCP pe Windows 2000, vezi secțiunea Resurse conexe la finalul acestui document.

  1. Click dreapta Calculatorul meuși selectați comanda Proprietăți.
  2. Selectați fila Identificarea rețelei. În caseta de dialog Proprietățile sistemului Veți vedea computerul complet și numele domeniului. În exemplul nostru, domeniul este numit reskit.com.
  3. Dacă ați configurat nodul ca server membru, atunci îl puteți alătura domeniului în acest moment. Faceți clic pe butonul Proprietățiși urmați instrucțiunile pentru a conecta computerul la domeniu.
  4. închide geamurile Proprietățile sistemuluiȘi Calculatorul meu.

Creați un cont Cluster Service

Pentru serviciul cluster, trebuie să creați un cont de domeniu separat sub care va rula. Programul de instalare vă va cere să introduceți acreditările pentru serviciul Cluster, așa că trebuie creat un cont înainte ca serviciul să poată fi instalat. Contul nu trebuie să fie deținut de niciun utilizator de domeniu și trebuie utilizat exclusiv pentru rularea serviciului Cluster.

  1. Faceți clic pe butonul start, selectați o comandă Programe / Administrare, începe snap .
  2. Extindeți Categoria reskit.com dacă nu este deja implementat
  3. Selectați din listă Utilizatori.
  4. Faceți clic dreapta pe Utilizatori, selectați din meniul contextual Crea, Selectați Utilizator.
  5. Introduceți un nume pentru contul de serviciu cluster, așa cum se arată în Figura 5 și faceți clic Mai departe.

Figura 5: Adăugarea unui utilizator de cluster

  1. Bifați casetele Împiedicați utilizatorul să schimbe parolaȘi Parola nu expiră. Faceți clic pe butonul Mai departeși butonul Gata pentru a crea un utilizator.

Notă: Dacă politica de securitate administrativă nu permite utilizarea parolelor care nu expiră niciodată, va trebui să actualizați parola și să configurați serviciul Cluster pe fiecare nod înainte ca acesta să expire.

  1. Faceți clic dreapta pe utilizator Clusterîn bara de instrumente din dreapta Director activ– utilizatori și computere.
  2. În meniul contextual, selectați comanda Adăugați membri într-un grup.
  3. Alegeți un grup Administratoriiși apăsați Bine. Noul cont are acum privilegii de administrator activate calculator local.
  4. închidere clipă Utilizatori și computere Active Directory.

Configurarea unităților de stocare partajate

Avertizare: Asigurați-vă că cel puțin unul dintre nodurile cluster rulează Windows 2000 Advanced Server sau Windows 2000 Datacenter Server și că serviciul cluster este configurat și rulează. Abia atunci poți descărca sistem de operare Windows 2000 pe alte noduri. Dacă aceste condiții nu sunt îndeplinite, discurile cluster pot fi deteriorate.

Pentru a începe configurarea unităților de stocare partajate, dezactivați toate nodurile. După aceea, porniți dispozitivul de stocare partajat, apoi porniți nodul 1.

Discul cvorum

Discul de cvorum este folosit pentru a stoca punctele de control și pentru a restaura fișierele jurnal ale bazei de date a clusterului, oferind managementul clusterului. Facem următoarele recomandări pentru crearea unui disc de cvorum:

  • Creați o partiție mică (cel puțin 50 MB în dimensiune) pentru a o folosi ca disc de cvorum. În general, recomandăm crearea unui disc de cvorum de 500 MB.
  • Alocați un disc separat pentru resursa de cvorum. Deoarece întregul cluster va eșua dacă discul de cvorum eșuează, vă recomandăm insistent să utilizați o matrice RAID hardware.

În timpul instalării serviciului Cluster, va trebui să atribuiți o literă de unitate cvorumului. În exemplul nostru, vom folosi litera Q.

Configurarea unităților de stocare partajate

  1. Click dreapta Calculatorul meu, selectați o comandă Control. Extindeți categoria în fereastra care se deschide. dispozitive de stocare.
  2. Alege o echipă Managementul discurilor.
  3. Asigurați-vă că toate unitățile de stocare partajate sunt formatate cu NTFS și au starea De bază. Dacă conectați o unitate nouă, aceasta va porni automat Asistentul pentru semnare și actualizare pe disc. Când pornește expertul, faceți clic pe butonul Reîmprospăta, pentru a-și continua activitatea, după aceea discul va fi definit ca Dinamic. Pentru a converti un disc în format de bază, faceți clic dreapta pe Disc #(Unde # - numărul discului cu care lucrați) și selectați comanda Reveniți la discul de bază.

Zona de clic dreapta nealocate lângă discul corespunzător.

  1. Alege o echipă Creați secțiune
  2. o sa inceapa Partition Wizard. Faceți dublu clic pe butonul Mai departe.
  3. Introduceți dimensiunea dorită a partiției în megaocteți și faceți clic pe butonul Mai departe.
  4. Faceți clic pe butonul Mai departe, acceptând litera implicită de unitate
  5. Faceți clic pe butonul Mai departe pentru a formata și a crea o partiție.

Atribuiți litere de unitate

După ce magistrala de date, discurile și partițiile de stocare partajată sunt configurate, trebuie să atribuiți litere de unitate tuturor partițiilor de pe toate discurile din cluster.

Notă: Punctele de conectare sunt funcţionalitate sistem de fișiere care vă permite să setați Sistemul de fișiere, folosind directoarele existente, fără a atribui o literă de unitate. Punctele de montare nu sunt acceptate de clustere. Orice unitate externă, folosit ca resursă de cluster, trebuie să fie partiționat în partiții NTFS, iar acestor partiții trebuie să li se atribuie litere de unitate.

  1. Faceți clic dreapta pe partiția dorită și selectați comanda Schimbați litera și calea unității.
  2. Alegeți o nouă literă de unitate.
  3. Repetați pașii 1 și 2 pentru toate unitățile de stocare partajate.

Figura 6: Partiții de unitate cu litere atribuite

  1. La sfârșitul procedurii, fereastra snap Managementul calculatorului ar trebui să arate ca în Figura 6. Închideți clapa Managementul calculatorului.
  1. Faceți clic pe butonul start, Selectați Programe / Standardși rulați programul Caiet".
  2. Tastați câteva cuvinte și salvați fișierul cu un nume test.txt prin alegerea comenzii Salvează ca din meniu Fişier. închide Caiet.
  3. Faceți dublu clic pe pictogramă Documentele mele.
  4. Faceți clic dreapta pe fișier test.txt iar în meniul contextual selectați comanda Copie.
  5. Inchide geamul.
  6. deschis Calculatorul meu.
  7. Faceți dublu clic pe partiția de disc a dispozitivului de stocare partajat.
  8. Faceți clic dreapta și selectați comanda Introduce.
  9. O copie a fișierului ar trebui să apară pe unitatea de stocare partajată test.txt.
  10. Faceți dublu clic pe fișier test.txt pentru a-l deschide de pe o unitate de stocare partajată. Închideți fișierul.
  11. Evidențiați fișierul și apăsați tasta Del pentru a elimina fișierul de pe discul cluster.

Repetați procedura pentru toate discurile din cluster pentru a vă asigura că sunt accesibile de la primul nod.

Acum opriți primul nod, porniți al doilea nod și repetați pașii secțiunii Verificarea lucrărilor și acces public la discuri. Efectuați aceiași pași pe toate nodurile suplimentare. După ce ați verificat că toate nodurile pot citi și scrie informații pe discurile de stocare partajate, dezactivați toate, cu excepția primului nod, și treceți la secțiunea următoare.

Am construit primul meu „cluster” de computere cu o singură placă aproape imediat după ce microcomputerul Orange Pi PC a început să câștige popularitate. S-ar putea numi „cluster” cu o întindere mare, pentru că din punct de vedere formal a fost just reteaua locala din patru panouri care s-au „văzut” între ele și puteau accesa Internetul.

Dispozitivul a participat la proiect [email protected]și chiar a reușit să numere ceva. Dar, din păcate, nimeni nu a venit să mă ia de pe această planetă.
Totuși, tot timpul jocând cu fire, conectori și carduri microSD, am învățat multe. Așa că, de exemplu, am aflat că nu trebuie să aveți încredere în puterea declarată a sursei de alimentare, că ar fi bine să distribuiți sarcina în ceea ce privește consumul, iar secțiunea transversală a firului contează.

Și da, a trebuit să „exploatam în mod colectiv” sistemul de management al energiei, deoarece pornirea simultană a cinci single-boarders poate necesita un curent de pornire de ordinul 8-10A (5 * 2)! Este mult, mai ales pentru sursele de alimentare realizate la subsolurile țării, unde ne place atât de mult să comandăm tot felul de... gadgeturi interesante.

Probabil că voi începe cu ea. Sarcina a fost redusă la acțiuni relativ simple - după o anumită perioadă de timp, porniți 4 canale în serie, prin care sunt alimentați 5 volți. Cel mai simplu mod de a-ți implementa planul este cu Arduino (pe care fiecare tocilar care se respectă îl are din abundență) și iată o astfel de placă minune cu Ali cu 4 relee.

Și știi, chiar a funcționat.

Cu toate acestea, clicurile „în stilul frigiderului” la pornire au cauzat o oarecare respingere. În primul rând, la clic, un zgomot a trecut prin sursa de alimentare și a fost necesar să se instaleze condensatori, iar în al doilea rând, întreaga structură a fost destul de mare.

Așa că într-o zi tocmai am înlocuit cutia de relee cu comutatoare cu tranzistori bazate pe IRL520.

Acest lucru a rezolvat problema cu interferența, dar deoarece mosfetul controlează „zero”, a trebuit să abandonez picioarele de alamă din rack pentru a nu conecta accidental împământul plăcilor.

Și acum, soluția este perfect replicată și deja două clustere funcționează stabil, fără surprize. Exact așa cum a fost planificat.

Dar, înapoi la replicabilitate. De ce să cumpărați surse de alimentare pentru o sumă semnificativă când există multe ATX-uri la prețuri accesibile literalmente sub picioarele dvs.?
Mai mult, au toate tensiunile (5,12,3.3), inceputurile de autodiagnosticare si posibilitatea controlului programului.

Ei bine, aici nu voi crucifica în mod special - un articol despre controlul ATX prin Arduino.

Ei bine, se mănâncă toate pastilele, se lipesc și ștampilele? Este timpul să punem totul împreună.

Va exista un nod principal care se conectează la lumea exterioară prin WiFi și oferă „interneturi” clusterului. Acesta va fi alimentat de la tensiunea de așteptare ATX.

De fapt, TBNG este responsabil pentru distribuția internetului.
Deci, dacă se dorește, nodurile clusterului pot fi ascunse în spatele TOR.

De asemenea, va exista o placă dificilă conectată prin i2c la acest nod principal. Ea va putea porni și opri fiecare dintre cele 10 noduri de lucru. În plus, va putea controla trei ventilatoare de 12 V pentru a răci întregul sistem.

Scenariul este următorul - când ATX este pornit la 220v, pornește nodul principal. Când sistemul este gata de funcționare, pornește secvenţial toate cele 10 noduri și ventilatoare.
Când procesul de pornire este finalizat, nodul principal va ocoli fiecare nod de lucru și va întreba cum ne simțim, care ar trebui să fie temperatura. Dacă unul dintre rafturi este încălzit, măriți debitul de aer.
Ei bine, cu comanda de oprire, fiecare dintre noduri va fi stins și dezactivat cu grijă.

Am desenat singur diagrama tablei, așa că pare înfiorător. Cu toate acestea, o persoană bine pregătită a preluat trasarea și fabricarea, fapt pentru care îi mulțumesc mult.

Iată-l în proces de asamblare.

Iată una dintre primele schițe ale locației componentelor clusterului. Realizat pe o bucată de hârtie într-o cușcă și imortalizat prin Office Lens cu un telefon.

Întreaga structură este așezată pe o foaie de textolit, cumpărată pentru ocazie.

Așa arată dispunerea nodurilor din interior. Două rafturi de cinci scânduri.

Aici puteți vedea controlul Arduino. Este conectat la PC-ul principal Orange Pi prin i2c printr-un convertor de nivel.

Ei bine, aici este finala (versiunea actuală).

Deci, tot ce aveți nevoie este să scrieți câteva utilitare Python care să conducă toată această muzică - porniți-o, porniți-o, reglați viteza ventilatorului.

Nu te voi plictisi cu detaliile tehnice - arată cam așa:

1
2
3
4
5
6
7
8
#!/usr/bin/env sh

echo „Se pornește placa ATX...”
/home/zno/i2creobus/i2catx_tool.py --start
ecou „Setarea valorilor inițiale ale ventilatorului...”
/home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60

Deoarece avem deja până la 10 noduri, adoptăm Ansible, care va ajuta, de exemplu, la închiderea corectă a tuturor nodurilor. Sau rulați pe fiecare monitor de temperatură.

1
2
3
4
5
6
7
8
---

- gazde: muncitori
roluri:
- webmon_stop
-webmon_remove
- webmon_install
- webmon_start

Sunt adesea acuzat de un ton disprețuitor, spunând că aceasta este doar o rețea locală de plătitori unici (cum am menționat chiar la început). În general, nu-mi pasă de părerea altcuiva, dar poate vom adăuga un pic de farmec și vom organiza un grup de docker.
Sarcina este foarte simplă și durează mai puțin de 10 minute. Apoi rulăm o instanță de Portainer pe nodul principal și voila!

Acum poti într-adevăr scară sarcini. Da, in acest moment Minerul de criptomonede Verium Reserve rulează în cluster. Și destul de succes. Sper că cel mai apropiat nativ va plăti energia electrică consumată;) Ei bine, sau reduceți numărul de noduri implicate și mine altceva precum Turtle Coin.

Dacă doriți o sarcină utilă, puteți arunca Hadoop în cluster sau puteți aranja echilibrarea serverelor web. Există multe imagini gata făcute pe Internet și există suficient material de instruire. Ei bine, dacă imaginea (imaginea docker) lipsește, puteți oricând să vă construiți propria.

Ce m-a învățat? În general, „stiva” de tehnologii este foarte largă. Judecă-te singur - Docker, Ansible, Python, Arduino upgrade (Doamne iartă-mă, nu se va spune noaptea) și bineînțeles, coaja. La fel și KiCad și lucrează cu un antreprenor :).

Ce se poate face mai bine? Mult. În ceea ce privește software-ul, ar fi bine să rescrieți utilitățile de control în Go. Pe fier - fă-l mai steampunk - KDPV la început ridică perfect ștacheta. Deci este ceva de lucrat.

Roluri jucate:

  • Headend-ul este un PC Orange Pi cu usb wifi.
  • Noduri de lucru - Orange Pi PC2 x 10.
  • Rețea - 100 Mbps [email protected]
  • Brain - Clona Arduino bazată pe convertor de nivel Atmega8 +.
  • Inima este un controler de putere ATX cu o sursă de alimentare.
  • Soft (suflet) - Docker, Ansible, Python 3, un pic de coajă și un pic de lene.
  • Timpul petrecut este neprețuit.

În timpul experimentelor, câteva plăci Orange Pi PC2 au avut de suferit din cauza unei surse de alimentare amestecate (ard foarte frumos), un alt PC2 și-a pierdut Ethernetul (aceasta este o poveste separată în care nu înțeleg fizica procesului).

Asta pare să fie toată povestea „de sus”. Dacă cineva îl consideră interesant - pune întrebări în comentarii. Și votați acolo pentru întrebări (plus - fiecare comentariu are un buton pentru asta). Cele mai interesante întrebări vor fi acoperite în noi note.
Vă mulțumesc că ați citit până la capăt.

tBVPFBFSH DESPRE PDOK NBYE HCE OE NAPAP
YMY DEMBEN LMBUPET H DPNBYOYI HUMPCHYSI.

1. CHEDEOIE

NOPZYE Y ChBU YNEAF H MPLBMSHOPC UEFY OEULPMSHLP Linux NBYYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSHCHN RTPGEUUPTPN. fBLTSE NOPZYE UMSCHYBMY P UYUFENBI, CH LPFPTSCHI NBYYOSCH PVIEDEOSAPHUS CH PYO UHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLIE LURETYNEOFSHCH X UEVS DESPRE TBVPFE YMY DPNB. dBCHBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEPPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPCEFE TEBMSHOP HULPTYFSH CHSHCHRPMOOEOYE YUBUFY BDBYu. obrtynet LPNRYMSGYA YMY PDOCHTENEOOHA TBVPFKH OEULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFPC UFBFSH S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VE PUPVSCHI KHUYMYK PVYAEDEOYFSH NBYYOSCH UCHPEK MPLBMSHOPK UEFY CH EDYOSCHK LMBUFET DESPRE VBE MOSIX.

2. LBL, UFP Y ZDE.

MOSIX - LFP RBFYU DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHK RPCHPMSEF RTPGEUUBN U CHBYEK NBYYOSCH RETEIPDYFSH (NYZTYTPCHBFSH) DESPRE DTHZYE HHMSCH MPLBMSHOPK UEFY. CHЪSFSH EZP NPTsOP RP BDTEUKH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEPHUS DE CH YUIDDOSCHI LPDBI RPD MYGEOJEK GPL. RBFUY UHEEUFCHHAF DMS CHUEI SDETH YUUFBVMSHOPK CHEFLY Linux.

3. HUFBOPCHLB RTPZTBNNOPZP PVEUREYEOIS.

h OBYUBME HUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U HMB MOSIX OE FPMSHLP EZP, OP Y UPRKHFUFCHHAEYE HFYMYFSCH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOCHPUOSCHK ULTYRF mosix_install. OBVHDSHFA h PVSBFEMSHOPN RPTSDLE TBRBRBCHBFSh Yuipdosche LPDSh SDTB Ch /usr/SRC/Linux-*, Ozrtyn LBBM С-h /usr/src/linux-2.2.13 dbmhulbeph MosIns_install y. ENZTHFLISHЪB.*.* (ENZTHFLISHЪBED) L YUIPDOILBN SDTB Y KHTPCHOY BRHULP.
RTH OBUFTPCLE SDTB CHLMAYUFE PRHYY CONFIG_MOSIX, CONFIG_BINFMT_ELF ȘI CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCLE MOSIX.
HUFFBOCHYMY? oX UFP CE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOIE LPFPTPZP PYUEOSH VHDEF RPIPTS DESPRE mosix-2.2.13.

4. OBUFTPKLB

JOBYUBMSHOP HUFBOCHMEOOOSCHK MOSIX UCHETIEOOOP OE OBEF, LBLIE X CHBU NBYOSCH CH UEFY Y U LEN ENH UPEDEOSFUS. OH B OBUFTBYCHBEFUUS FFP PYUEOSH RTPUFP. eUMY CHS FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DYUFTYVHFICH - SuSE YMY RedHat - UPCNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. RTY RETCHPN ЪBRHULE FFPF ULTYRF RTPUYF CHBU OBUFTPYFSH MOSIX Y ЪBRHULBEF FELUFPCHSHCHK TEBLFPPT DMS UPDBOYS JBKMB /etc/mosix.map, CH LPFPTPN OBIPDIFUS URYUPL HIMPCH CHBYEZP. fHDB RTPRYUSCHCHBEN: CH UMHYUBE, EUMY H CHBU CHUEZP DCHE-FTY NBYYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

ZDE RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP HMB, CHFPTPK - IP BDTEU RETCHPZP HMB Y RPUMEDOYK - LPMYUEUFCHP HHMPCH U FELHEEPK. f.E. UEKYUBU X OBU H LMBUPETE PMHYUBEFUS RSFSH HHMPCH, IP BDTEUB LPFPTSCHK BLBOYUYCHBAFUS DESPRE 1, 2, 3, 4 Y 5.
yMY DTHZPK RTYNET:

OPNET HMB IP LPMYUEUFCHP HHMPH U FELHEESP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h FFK LPOJYZHTBGYY NS RPMHYUN UMEDHAEIK TBULMBD:
IP 1-PZP HMB 10.150.1.1
IP 2-PZP HMB 10.150.1.55
IP 3-PZP HMB 10.150.1.56
IP 4-PZP HMB 10.150.1.223
FERETSH OHTSOP DESPRE CHUEI NBYOBI VHDHEEZP LMBUFETB HUFBOPCHYFSH MOSIX Y UPDBFSH CHEDE PDYOBLPCHSCK LPOZHYZHTBGIPOOSCHK JBKM /etc/mosix.map .

FERETSh RPUME RETEBRHULB mosix CHBYB NBYOB HCE VKhDEF TBVPFBFSH H LMBUPETE, UFP NPTsOP HCHYDEFSH ЪBRHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSH HCHYDYFE CH NPOYFPTE FPMSHLP UCHPA NBYYOKH YMY CHPPVEE OE HCHYDYFE OILPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CBU PYVLB YNEOOP H /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. uFP dbmshye? b DBMSHYE PYUEOSH RTPUFP :-) - OHTSOP UPVTBFSH HFIMYFSCH DMS TBVPFSCH U YNEOEOOOSCHN /proc Ъ RBLEFB mproc. ч ЮБУФОПУФЙ Ч ЬФПН РБЛЕФЕ ЙДЕФ ОЕРМПИБС НПДЙЖЙЛБГЙС top - mtop, Ч ЛПФПТЩК ДПВБЧЙМЙ ЧПЪНПЦОПУФШ ПФПВТБЦЕОЙС ХЪМБ(node), УПТФЙТПЧЛЙ РП ХЪМБН, РЕТЕОПУБ РТПГЕУУБ У ФЕЛХЭЕЗП ХЪМБ ОБ ДТХЗПК Й ХУФБОПЧМЕОЙС НЙОЙНБМШОПК ЪБЗТХЪЛЙ РТПГЕУУПТБ ХЪМБ, РПУМЕ ЛПФПТПК РТПГЕУУЩ ОБЮЙОБАФ НЙЗТЙТПЧБФШ ОБ ДТХЗЙЕ MOSIX - ХЪМЩ .
ъБРХУЛБЕН mtop, ЧЩВЙТБЕН РПОТБЧЙЧЫЙКУС ОЕ УРСЭЙК РТПГЕУУ (ТЕЛПНЕОДХА ЪБРХУФЙФШ bzip) Й УНЕМП ДБЧЙН ЛМБЧЙЫХ "g" ОБ ЧБЫЕК ЛМБЧЙБФХТЕ, РПУМЕ ЮЕЗП ЧЧПДЙН ОБ ЪБРТПУ PID ЧЩВТБООПЗП Ч ЛБЮЕУФЧЕ ЦЕТФЧЩ РТПГЕУУБ Й ЪБФЕН - ОПНЕТ ХЪМБ, ЛХДБ НЩ ИПФЙН ЕЗП ПФРТБЧЙФШ. b XCE RPUME LFPZP CHOYNBFEMSHOP RPUNPFTYFE DESPRE TEEKHMSHFBFSCH, PFPVTTBTSBENSCHE LPNBODPK mon - FB NBYOB DPMTSOB OBYUBFSH VTBFSH DESPRE UEVS OBZTHЪLH CHSHCHVTBOOPZP RTPGEUUB.
b UWUFCHEOOP mtop - H RPME #N PFPVTBTSBFS OPNET HMB, AICI PE CHSCRPMOSEPHUS.
OP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPYUEFUS PFRTBCHMSFSH DESPRE DTHZYE HHMSCH RTPGEUUSCH CHTHYuOHA? NOU OE BIPFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUYTPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPCHPMSEF VPMEE-NEOE TBCHOPNETOP TBURTEDEMSFSH OBZTH'LH DESPRE CHUE KHMSCH. OH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. dms OBYUBMB S TBUULBTSH, LBL UDEMBFSH FPOLHA OBUFTPCLH (melodie) DMS DHHI HHMPH LMBUFETB? H RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPPUFSI RTPGEUUPTPCH Y UEFY:
BRPNOYFE TB Y OBCHUEZDB - reglați NPTsOP CHSHCHRPMOSFSH FPMSHLP Ch monomod. yOBYUE ChSCH MYVP RPMHYUFE OE UPCHUEN LPTTELFOSHCHK TEHMSHFBF, MYVP CHBYB NBYYOB NPCEF RTPUFP ЪBCHYUOHFSH.
yFBL, CHSHCHRPMOSEN melodie. rPUME RETECHPDB PRETBGYPOOPK UYUFENSCH H single - mode OBRTYNET LPNBODPK init 1 YMYY init S BRHULBEN ULTYRF prep_tune,LPFPTSCHK RPDOYNEF SEFECHSE
YOFETJEKUSCH Y BRHUFYF MOSIX. RBUMA ьFPZP despre PDOPK Yu NBOO KOBRCHULBEN TUNE, ChFPDYNEN ONH DTHZPZP HMB DMS Obtpkly Tsen Tehmshfbfb DPMCOSHDBTPU KHFDBOMA<ХЪЕМ>DESPRE DTHZPN HYME. uPVUFCHEOOP PRETBGYA RTYDEFUS RPCHFPTYFSH DESPRE DTHZPN HJME LPNBODPK melodie -a<ХЪЕМ>. rPUME RPDPVOPZP FAOIOZB CH CHBYEK UYUFENE DPMTSEO RPSCHIFUS ZHBKM /etc/overheads, UPDETTSBEIK YOZHPTNBGYA DMS MOSIX CH CHYDE OELLYI YUYUMPCHSHCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYUYOBN ton OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE Y FELHEESP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. fp RPNPCEF ;-).
rTY FAOOYOSE LMBUFETB Y VPMEE YUEN DCHHI NBYYO OHTSOP YURPMSHЪPCHBFSH HFYMYFH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPCHPMSEF
CHBN H VPMEE RTPUFPN Y RTCHSHCHUOPN CHYDE OBUFTPIFSH LMBUFET, PFCHEFYCH DESPRE OEULPMSHLP CHPRTPPUCH Y RTPCHEDS FAOIOZ U DCHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNKh PRSHCHFKH NPZKh ULBBFSH, UFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪBZTHTSBFSH UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE PREBMBSHGOPYCHOSCHE CHUE BLMSHGOPYCHOS.

5. hRTBCHMEOYE LMBUFETPN

dMS HRTBCHMEOYS HHMPN LMBUFETB UHEEUFCHHEF OEPPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mosctl - LPOFTPMSH OBD HIMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSHCH HMB - FBLIE, LBL blocare, rămânere, lstay, întârziere Y F.D
dBCHBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTCH LFPK HFYMYFSCH:
stau - RPCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH DESPRE DTHZYE HIMSCH U FELHEEK NBYOSCH. pFNEOSEFUS RBTBNEFTPN nostay YMY -stai
stau - BRTEEBEF FPMSHLP MPLBMSHOSHCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYYO NPZHF RTPDPMTSBFSH FFP DEMBFSH. pFNEOSEFUS RBTBNEFTPN nolstay YMYY -lstay.
bloc - BRTEEBEF HDBMEOOSHCHN / ZPUFECHSHCHN RTPGEUUBN CHSHCHRPMOSFUS DESPRE FFPN EL. pFNEOSEFUS RBTBNEFTPN noblock YMY -bloc.
aduce - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP HMB CHSHCHRPMOSENSCHE DESPRE DTHZYI NBYYOBI LMBUFETB. ffpf RBTBNEFT NPTSEF OE UTBVBFSHCHBFSH, RPLB NYZTYTPCHBCHYYK RTPGEUU OE RPMKHYUYF RTETSCHCHBOYE PF UYUFENSCH.
setdelay HUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBJOBEF NYZTYTPCHBFSH.
CHEDSH UZMBUIFEUSH - CH UMHYUBE, EUMY CHTENS CHSHCHRPMOEOIS RTPGEUUB NEOSHIE UELHODSCH UNSCHUM RETEOPUIFSH EZP DESPRE DTHZYE NBYYOSCH UEFY YUYUEBEF. yNEOOP FFP CHTENS Y CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET:
mosctl setdecay 1 500 200
HUFBOBCHMYCHBEF CHTENS RETEIPDB DESPRE DTHZYE HHMSCH 500 NYMMYUELHOD CH UMHYUBE, EUMY RTPGEUU BRHEEO LBL lent Y 200 NYMYUELHOD DMS rapid RTPGEUUPCH. pVTBFIFE CHOYNBOYE, UFP RBTBNEFT lent CHUEZDB DPMTSEO VSHFSH VPMSHIE YMI TBCHEO RBTBNEFTKh rapid.

mosrun - BRHULBEF RTYMPSEOYE CH LMBUPET. OBRTYNET mosrun -e -j5 make JBRHUFYF make OB 5-PN XHME LMBUFETB, RTY LFPN CHUE EZP DPUETOIE RTPGEUUSCH VHDHF FBLCE CHSHCHRPMOSFUS OB 5-PN XME. rTBCHDB ЪDEUSH EUFSH PYO OABOU, RTY YUEN DPCHPMSHOP UHEEUFCHEOOOSCHK:
CH UMHYUBE, EUMY DPUETOYE RTPGEUUSCH CHSHCHRPMOSAFUS VSHCHUFTEE YUEN HUFBOPCMEOOOBS HFYMYFPK mosctl ЪBDETSLB (întârziere) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH DESPRE DTHZYE HHMSCH LMBUFETB. X mosrun EEE DPCHPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTCH, OP RPDTPVOP HOBFSH
P OYI CHSCH UNPTSFE Y THLPCHPDUFCHB RP LFPK HFIYMYFE. (manmosrun)

lun - ЛБЛ НЩ ХЦЕ ЪОБЕН, ЬФП НПОЙФПТ ЛМБУФЕТБ, ЛПФПТЩК Ч РУЕЧДПЗТБЖЙЮЕУЛПН ЧЙДЕ ПФПВТБЦБЕФ ЪБЗТХЪЛХ ЛБЦДПЗП ТБВПЮЕЗП ХЪМБ ЧБЫЕЗП ЛМБУФЕТБ, ЛПМЙЮЕУФЧП УЧПВПДОПК Й ЪБОСФПК РБНСФЙ ХЪМПЧ Й ЧЩДБЕФ НОПЗП ДТХЗПК, ОЕ НЕОЕЕ ЙОФЕТЕУОПК ЙОЖПТНБГЙЙ.

mtop - NPDYZHYGYTPCHBOOBS DMS YURPMSH'CHBOYS OB HHMBI LMBUFETB CHETUYS LPNBODSCH de sus. pFPVTTBTSBEF DESPRE LTBOE DYOBNYUEULHA YOZHPTNBGYA P RTPGEUUBI, BRHEEOOSCHI DESPRE DBOOPN KHME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RPGEUUSCH.

mps - FPCE NPDYZHYGYTPCHBOOBS CHETUYS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET HMB, DESPRE LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF DESPRE NPK CHZMSD Y CHUE PUOPCHOSHE HFIMYFSHCH. DESPRE UBNPN DEME LPOEIOP NPTsOP PVPKFYUSH DBTSE VOYI. OBRTYNET JURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
fBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOKHA YOZHPTNBGYA P OBUFTPKLBI HMB, RTPGEUUBI BRHEOOOSCHI U DTHZYI HHMPCH Y F.D.,B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTCH.

6. LURETENEOFYTHEN.

l UPTSBMEOYA, NOE OE HDBMPUSH BUFBCHYFSH CHSHCHRPMOSFUS LBLLPK-FP PYO RTPGEUU PDOCHTENEOOP DESPRE OEULPMSHLYI HMBBI. nBLUYNKHN, YuEZP S DPUFYZ H RTPGEUUE LLURETYNEOPCH U LMBUFETPN-YURPMSHЪPCHBOYE DMS CHSHCHRPMOEOIS TEUKHTUPENLYI RTPGEUUPCH DESPRE DTHZPN KHME.
dBCHBKFE TBUUNPFTYN PYO Y RTYNETCH:
dPRHUFYN, UFP X OBU H LMBUPETE TBVPFBAF DCHE NBYOSCH (DCHB HMB), PYO Y LPFPTSHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). LURETYNEOPHYTPCHBFSH NSCH VKHDEN DESPRE 5-PN EL. 1-K HEM H FFP CHTENS RTPUFBYCHBM. ;-)
йФБЛ, ЪБРХУЛБЕН ОБ 5-Н ХЪМЕ ХФЙМЙФХ crark ДМС РПДВПТБ РБТПМС Л rar БТИЙЧХ.еУМЙ ЛФП ЙЪ ЧБУ РТПВПЧБМ ТБВПФБФШ У РПДПВОЩНЙ ХФЙМЙФБНЙ, ФП ПО ДПМЦЕО ЪОБФШ, ЮФП РТПГЕУУ РПДВПТБ РБТПМС "ЛХЫБЕФ" ДП 99 РТПГЕОФПЧ РТПГЕУУПТБ. oX UFP CE - RPUME BRHULB NSCH OBVMADBEN, UFP RTPGEUU PUFBEFUS DESPRE LFPN, 5-PN XHME. tBKHNOP - CHEDSH YNEOOP X FFPZP HMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K HEM RPYUFY H DCHB TBB.
dBMEE NSC RTPUFP ЪBRHUFYMY UVPTLH kde 2.0. unNPFTYN FBVMYGHH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM DESPRE 1-K HEM, PUCHPPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPPVPTSDBEFUS) DMS make. b LBL FPMSHLP face BLPOYUYM UCHPA TBVPPHH - crark CHETOHMUS PVTBFOP, DESPRE TPDOPC ENH 5-K HEM.
YOFETEWOSCHK JZHELF RPMHYUBEFUS, EUMY crark BRHUlbfsh DESPRE VPMEE NEDMEOOPN 1-N HYME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRMPTSOSCHK TEEKHMSHFBF - RTPGEUU UTBYH-TSE NYZTYTHEF OB 5-K, VPMEE VSHCHUFTSHCHK HEM. RTY LFPN PO CHPCHTBEBEFUS PVTBFOP, LPZDB IPSYO RSFPZP LPNRSHAFETTB OBYUYOBEF LBLIE-FP DECUFHYS U UYUFENPK.

7. YURPMSH'CHBOYE

dBCHBKFE CH LPOGE TBVETENUS, BYUEN Y LBL NSCH NPTSEN YURPMSHЪCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPC TSYOY.
дМС ОБЮБМБ ОХЦОП ТБЪ Й ОБЧУЕЗДБ ЪБРПНОЙФШ - ЛМБУФЕТ ЧЩЗПДЕО ФПМШЛП Ч ФПН УМХЮБЕ, ЛПЗДБ Ч ЧБЫЕК УЕФЙ ЕУФШ ЬООПЕ ЛПМЙЮЕУФЧП НБЫЙО, ЛПФПТЩЕ ЮБУФЕОШЛП РТПУФБЙЧБАФ Й ЧЩ ИПФЙФЕ ЙУРПМШЪПЧБФШ ЙИ ТЕУХТУЩ ОБРТЙНЕТ ДМС УВПТЛЙ KDE ЙМЙ ДМС МАВЩИ УЕТШЕЪОЩИ РТПГЕУУПЧ. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYYO NPTsOP PDOCHTENEOOP
LPNRYMYTPCHBFSH DP 10 FTSEMSHCHI RTPZTBNN DESPRE FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSh,
OE RTELTBEBS OY DESPRE UELHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHЪLY DESPRE CHBY LPNRSHAFET.
dB Y CHPPVEE - FFP RTPUFP YOFETEUOP ;-).

8. bblmayueoye

h BLMAYUEOYE IPYUKH ULBBFSH, YuFP Ch FFK UVBFSHOE OE TBUUNPFTEOSHCHUE ChPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTPPDPMTSEOIS. :-)


Top