Assemblare i computer in cluster. Cluster desktop. Configurazione delle impostazioni di rete

Oggi i processi aziendali di molte aziende sono completamente legati alle informazioni
tecnologie. Con la crescente dipendenza delle organizzazioni dal lavoro informatico
reti, la disponibilità dei servizi in qualsiasi momento e con qualsiasi carico gioca un ruolo importante
ruolo. Un computer può solo fornire Primo livello affidabilità e
scalabilità, il livello massimo può essere raggiunto combinando
un singolo sistema di due o più computer: un cluster.

Perché hai bisogno di un cluster?

I cluster vengono utilizzati nelle organizzazioni che necessitano di 24 ore su 24 e
disponibilità ininterrotta dei servizi e laddove eventuali interruzioni del lavoro siano indesiderabili e
inaccettabile. O nei casi in cui vi è un possibile aumento del carico, che potrebbe
il server principale non può farcela, quindi quelli aggiuntivi aiuteranno a compensare
host che di solito eseguono altre attività. Per server email, in lavorazione
decine e centinaia di migliaia di lettere al giorno o un server web in servizio
negozi online, l'uso dei cluster è altamente auspicabile. Per l'utente
un tale sistema rimane completamente trasparente: lo farà l'intero gruppo di computer
sembra un server. Utilizzando diversi, anche più economici,
i computer consentono di ottenere vantaggi molto significativi rispetto a un singolo
e un server veloce. Si tratta di una distribuzione uniforme delle richieste in arrivo,
maggiore tolleranza agli errori, poiché quando un elemento si guasta, il suo carico
raccolti da altri sistemi, scalabilità, manutenzione e sostituzione convenienti
nodi del cluster e molto altro ancora. Guasto di un nodo automaticamente
viene rilevato e il carico viene ridistribuito, tutto questo rimane al cliente
inosservato.

Funzionalità di Win2k3

In generale, alcuni cluster sono progettati per migliorare la disponibilità dei dati,
altri - per garantire massima performance. Nel contesto dell'articolo noi
sarà di interesse MPP (elaborazione parallela di massa)- grappoli, in
in cui applicazioni simili vengono eseguite su più computer, fornendo
scalabilità dei servizi. Esistono diverse tecnologie che lo consentono
distribuire il carico tra più server: reindirizzamento del traffico,
traduzione dell'indirizzo, Round Robin DNS, uso di speciali
programmi
, lavorando a livello applicativo, come gli acceleratori web. IN
Win2k3, a differenza di Win2k, inizialmente è incluso il supporto per il clustering
sono supportati due tipi di cluster, diversi per applicazioni e specifiche
dati:

1. Cluster NLB (bilanciamento del carico di rete).- fornire
scalabilità ed elevata disponibilità di servizi e applicazioni basati su protocolli TCP
e UDP, che combina fino a 32 server con lo stesso set di dati in un unico cluster, su
eseguire le stesse applicazioni. Ogni richiesta viene eseguita come
transazione separata. Utilizzato per lavorare con set che cambiano raramente
dati, come WWW, ISA, Terminal Services e altri servizi simili.

2. Cluster di server– possono unire fino a otto nodi, i loro principali
Il compito è garantire la disponibilità dell'applicazione in caso di guasto. È composto da attivo e
nodi passivi. Il nodo passivo rimane inattivo per la maggior parte del tempo, svolgendo un ruolo
riserva del nodo principale. Per le singole applicazioni è possibile configurare
diversi server attivi, distribuendo il carico tra di loro. Entrambi i nodi
collegato a un unico data warehouse. Per operare viene utilizzato un cluster di server
con grandi volumi di dati che cambiano frequentemente (posta, file e
server SQL). Inoltre, un tale cluster non può essere costituito da nodi in esecuzione
gestione di varie varianti di Win2k3: Enterprise o Datacenter (Web e
I cluster di server standard non sono supportati).

IN Centro applicazioni Microsoft 2000(e solo) ce n'era un altro tipo
grappolo - CLB (bilanciamento del carico dei componenti), offrendo l'opportunità
distribuire applicazioni COM+ su più server.

Cluster NLB

Quando si utilizza il bilanciamento del carico, a
un adattatore di rete virtuale con un proprio indirizzo IP e MAC indipendente da quello reale.
Questa interfaccia virtuale rappresenta il cluster come un singolo nodo, client
vi accedono proprio tramite il suo indirizzo virtuale. Tutte le richieste vengono ricevute da tutti
nodo del cluster, ma vengono elaborati da uno solo. Funziona su tutti i nodi
Servizio di bilanciamento del carico di rete
,
che, utilizzando uno speciale algoritmo che non richiede lo scambio di dati tra
nodi, decide se un particolare nodo deve elaborare una richiesta o
NO. Scambio di nodi messaggi di battito cardiaco mostrandoli
disponibilità. Se l'host smette di emettere heartbeat o viene visualizzato un nuovo nodo,
iniziano i restanti nodi processo di convergenza, Ancora
ridistribuire il carico. Il bilanciamento può essere implementato in due modi
modalità:

1) unicast– unicast quando invece di un MAC fisico
Viene utilizzato il MAC dell'adattatore cluster virtuale. In questo caso, i nodi del cluster non lo sono
possono scambiare dati tra loro utilizzando indirizzi MAC solo tramite IP
(o un secondo adattatore non associato al cluster);

È necessario utilizzare solo una di queste modalità all'interno di un singolo cluster.

Può essere personalizzato diversi cluster NLB su un adattatore di rete,
specificando regole specifiche per i porti. Tali cluster sono chiamati virtuali. Loro
applicazione consente di impostare per ciascuna applicazione, nodo o indirizzo IP
computer specifici nel cluster primario o bloccare il traffico per
alcune applicazioni senza influenzare il traffico per altri programmi in esecuzione
su questo nodo. Oppure, al contrario, un componente NLB può essere associato a più componenti
adattatori di rete, che ti permetteranno di configurare un numero di cluster indipendenti su ciascuno
nodo. Dovresti anche tenere presente che la configurazione di cluster di server e NLB sullo stesso nodo
non è possibile perché funzionano in modo diverso con i dispositivi di rete.

L'amministratore può creare una sorta di configurazione ibrida che abbia
vantaggi di entrambi i metodi, ad esempio creando un cluster NLB e impostando la replica
dati tra i nodi. Ma la replica non viene eseguita costantemente, ma di tanto in tanto,
pertanto, le informazioni sui diversi nodi differiranno per qualche tempo.

Concludiamo qui con la teoria, anche se possiamo parlare di creazione di cluster
per molto tempo, elencando le possibilità e i modi per costruire, donando varie
raccomandazioni e opzioni per l’attuazione specifica. Lasciamo tutte queste sottigliezze e sfumature
Per autodidatta e passiamo alla parte pratica.

Configurazione di un cluster NLB

Per organizzazione dei cluster NLB non è richiesto alcun software aggiuntivo, tutto qui
prodotto utilizzando gli strumenti Win2k3 disponibili. Creare, mantenere e monitorare
I cluster NLB utilizzano il componente "Gestore del bilanciamento del carico di rete"
(Gestore del bilanciamento del carico di rete)
, che si trova nella scheda
“Amministrazione” “Pannello di controllo” (comando NLBMgr). Dal momento che il componente
"Bilanciamento carico di rete" è installato come driver di rete Windows standard,
L'installazione NLB può essere eseguita anche utilizzando il componente "Connessioni di rete", in
dove è disponibile l'articolo corrispondente. Ma è meglio usare solo il primo
opzione, utilizzo simultaneo del gestore NLB e “Connessioni di rete”
potrebbe portare a risultati imprevedibili.

NLB Manager ti consente di configurare e gestire il lavoro da un unico posto contemporaneamente
diversi cluster e nodi.

È anche possibile installare un cluster NLB su un computer con una rete
adattatore associato al bilanciamento del carico di rete, ma questo
caso in modalità unicast, il gestore NLB su questo computer non può esserlo
utilizzato per controllare altri nodi e i nodi stessi non possono scambiarsi
informazioni tra loro.

Ora chiamiamo il dispatcher NLB. Non abbiamo ancora cluster, quindi cosa è apparso
la finestra non contiene alcuna informazione. Selezionare "Nuovo" dal menu "Cluster" e
Iniziamo a compilare i campi nella finestra “Parametri del cluster”. Nel campo "Impostazioni".
Parametri IP del cluster" inserire il valore dell'indirizzo IP virtuale del cluster, maschera
sottorete e nome completo. Il valore dell'indirizzo MAC virtuale è impostato
automaticamente. Subito sotto selezioniamo la modalità operativa del cluster: unicast o
multicast. Presta attenzione alla casella di controllo "Consenti controllo remoto" - in
In tutti i documenti Microsoft si consiglia vivamente di non utilizzarlo in
evitando problemi di sicurezza. Invece dovresti usare
spedizioniere o altro mezzo telecomando, ad esempio toolkit
Gestione Windows (WMI). Se viene presa la decisione di usarlo, dovresti
adottare tutte le misure adeguate per proteggere la rete, coprendo inoltre
porte UDP del firewall 1717 e 2504.

Dopo aver compilato tutti i campi, fare clic su “Avanti”. Nella finestra "Indirizzi IP del cluster", quando
se necessario, aggiungi ulteriori indirizzi IP virtuali
utilizzato da questo cluster. Nella successiva finestra “Regole del porto” puoi farlo
impostare il bilanciamento del carico per una o per un gruppo di porte di tutte o
IP selezionato tramite protocolli UDP o TCP, nonché bloccare l'accesso al cluster
porte specifiche (che il firewall non sostituisce). Cluster predefinito
elabora le richieste per tutte le porte (0–65365); È meglio limitare questo elenco,
aggiungendo solo ciò che è veramente necessario. Anche se, se non vuoi scherzare,
puoi lasciare tutto così com'è. A proposito, in Win2k per impostazione predefinita tutto il traffico
diretto al cluster, elaborava solo il nodo che aveva la priorità più alta,
i restanti nodi venivano collegati solo quando quello principale falliva.

Ad esempio, per IIS sarà necessario abilitare solo le porte 80 (http) e 443 (https).
Inoltre potete fare in modo che vengano elaborate, ad esempio, le connessioni protette
Solo alcuni server su cui è installato il certificato. Per aggiungere
nuova regola, fai clic su "Aggiungi", nella finestra di dialogo che appare, inserisci
Indirizzo IP dell'host o, se la regola si applica a tutti, lascia la casella di controllo
"Tutto". Nei campi “Da” e “A” dell’intervallo di porte impostiamo lo stesso valore –
80. Il campo chiave è "Modalità filtro" - qui
specifica chi elaborerà questa richiesta. Sono disponibili tre campi che definiscono la modalità
filtraggio: “Nodi multipli”, “Nodo singolo” e “Disabilita questo intervallo di porte”.
Selezionando "Nodo singolo" si intende che il traffico sarà diretto all'IP selezionato (computer
o cluster) con il numero di porta specificato verrà elaborato dal nodo attivo,
avere l'indicatore di priorità più basso (ne parleremo più avanti). Selezionando "Disabilita..."
significa che tale traffico verrà scartato da tutti i membri del cluster.

Nella modalità di filtraggio “Nodi multipli” è possibile inoltre specificare l'opzione
determinare l'affinità del client per indirizzare il traffico da un determinato client a
lo stesso nodo del cluster. Sono disponibili tre opzioni: “Nessuno”, “Uno” o “Classe”
C". Scegliere il primo significa che qualsiasi richiesta riceverà una risposta arbitraria
nodo Ma non dovresti usarlo se nella regola o è selezionato il protocollo UDP
"Entrambi". Quando si selezionano i punti rimanenti, la somiglianza dei clienti verrà determinata da
intervallo di rete IP o di classe C specifico.

Quindi, per la nostra regola con la porta 80, scegliamo l'opzione
"Nodi multipli - classe C." Compiliamo la regola per 443 allo stesso modo, ma usiamo
“Un nodo” in modo che al cliente risponda sempre il nodo principale con il più basso
priorità. Se il dispatcher rileva una regola incompatibile, verrà visualizzata
il messaggio di avviso verrà aggiunto al registro eventi di Windows
voce corrispondente.

Successivamente, connettiti al nodo del futuro cluster inserendo il suo nome o IP reale e
Determiniamo l'interfaccia che verrà connessa alla rete del cluster. Nella finestra Opzioni
nodo" selezionare la priorità dall'elenco, specificare impostazioni di rete, imposta l'iniziale
stato del nodo (in esecuzione, interrotto, in pausa). Priorità allo stesso tempo
è un identificatore univoco del nodo; più basso è il numero, maggiore è la priorità.
Il nodo con priorità 1 è il server master, principalmente ricevente
pacchetti e fungere da gestore del routing.

La casella di controllo "Salva stato dopo il riavvio del computer" ti consente di farlo
il guasto o il riavvio di questo nodo lo metterà automaticamente in funzione. Dopo aver cliccato
Su "Pronto", nella finestra Manager apparirà una voce sul nuovo cluster, in cui per ora
c'è un nodo.
Aggiungere il nodo successivo è altrettanto semplice. Seleziona “Aggiungi nodo” dal menu oppure
"Connetti a esistente", a seconda del computer
è in corso la connessione (fa già parte del cluster oppure no). Poi alla finestra
indicare il nome o l'indirizzo del computer, se i diritti di connessione sono sufficienti, nuovo
il nodo sarà connesso al cluster. Inizialmente lo sarà l'icona accanto al suo nome
diverso, ma una volta completato il processo di convergenza, sarà lo stesso
primo computer.

Poiché il dispatcher visualizza le proprietà dei nodi al momento della sua connessione, for
Per chiarire lo stato attuale, dovresti selezionare un cluster e menù contestuale paragrafo
"Aggiornamento". Il gestore si connetterà al cluster e mostrerà i dati aggiornati.

Dopo l'installazione Cluster NLB non dimenticare di cambiare il record DNS in
la risoluzione dei nomi ora mostrava l'IP del cluster.

Modifica del carico del server

In questa configurazione, tutti i server verranno caricati in modo uniforme (eccetto
opzione "Un nodo"). In alcuni casi è necessario ridistribuire il carico,
ponendo la maggior parte del lavoro su uno dei nodi (ad esempio, il più potente).
Per un cluster, le regole possono essere modificate dopo che sono state create selezionando
nel menu contestuale che appare cliccando sul nome, seleziona la voce “Proprietà Cluster”.
Tutte le impostazioni di cui abbiamo parlato sopra sono disponibili qui. Elemento del menu
"Proprietà nodo" fornisce leggermente più opzioni. In "Opzioni nodo"
è possibile modificare il valore di priorità per un nodo specifico. In "Regole
for ports" non è possibile aggiungere o eliminare una regola; questa è disponibile solo a livello
grappolo. Ma scegliendo di modificare una regola specifica, ne abbiamo l'opportunità
regolare alcune impostazioni. Quindi, con la modalità di filtraggio impostata
“Nodi multipli” diventa disponibile la voce “Stima del carico”, consentendo
ridistribuire il carico su un nodo specifico. L'impostazione predefinita è selezionata
“Uguale”, ma in “Stima del carico” è possibile specificare un valore di carico diverso per
nodo specifico, come percentuale del carico totale del cluster. Se la modalità è attivata
filtraggio “Nodo singolo”, in questa finestra appare nuovo parametro"Una priorità
in lavorazione." Usandolo, puoi indirizzare il traffico verso una porta specifica
verrà elaborato prima da un nodo del cluster e in un altro dagli altri
nodo.

Registrazione degli eventi

Come accennato in precedenza, il bilanciamento del carico di rete registra tutto
azioni del cluster e modifiche nel registro eventi di Windows. Vederli
selezionare "Visualizzatore eventi - Sistema", NLB include i messaggi WLBS (da
Servizio di bilanciamento del carico di Windows, come veniva chiamato questo servizio in NT). Inoltre, dentro
la finestra del dispatcher visualizza gli ultimi messaggi contenenti informazioni sugli errori
e su tutte le modifiche alla configurazione. Per impostazione predefinita, queste informazioni non lo sono
è salvato. Per scriverlo su un file, selezionare “Opzioni ->
Opzioni di registrazione", seleziona la casella di controllo "Abilita registrazione" e specifica un nome
file. Nuovo file verrà creato in una sottodirectory del tuo account in Documenti
e Impostazioni.

Configurazione di IIS con la replica

Un cluster è un cluster, ma senza un servizio non ha senso. Pertanto, aggiungiamo IIS (Internet
Servizi di informazione)
. Il server IIS è incluso in Win2k3, ma per riassumere
riduce al minimo la possibilità di attacchi al server; non è installato per impostazione predefinita.

Esistono due modi per installare IIS: tramite il Pannello di controllo o
procedura guidata per la gestione dei ruoli di questo server. Diamo un'occhiata al primo. Andiamo a
“Pannello di controllo - Aggiungi o rimuovi programmi”
Rimuovi programmi), seleziona "Installa componenti Windows" (Aggiungi/Rimuovi Windows
Componenti). Ora vai alla voce “Server applicazioni” e controlla in “Servizi”
IIS" è tutto ciò che serve. Per impostazione predefinita, la directory di lavoro del server è \Inetpub\wwwroot.
Una volta installato, IIS può produrre documenti statici.

introduzione

Un cluster di server è un gruppo di server indipendenti gestiti dal servizio Cluster che funzionano insieme come un unico sistema. I cluster di server vengono creati combinando più server Windows® 2000 Advanced Server e Windows 2000 Server del centro dati Per collaborazione, fornendo così elevati livelli di disponibilità, scalabilità e gestibilità per risorse e applicazioni.

Lo scopo di un cluster di server è garantire l'accesso continuo degli utenti alle applicazioni e alle risorse in caso di guasti hardware o software o di arresti programmati delle apparecchiature. Se uno dei server del cluster non è disponibile a causa di un errore o di un'interruzione dell'esecuzione Manutenzione, risorse informative e le applicazioni vengono ridistribuite tra i restanti nodi del cluster disponibili.

Per i sistemi cluster, l'uso del termine " alta disponibilità"è preferibile utilizzare il termine " tolleranza agli errori", poiché le tecnologie di tolleranza agli errori richiedono un livello più elevato di resistenza delle apparecchiature alle influenze esterne e ai meccanismi di ripristino. Di norma i server tolleranti agli errori utilizzano un elevato grado di ridondanza hardware e inoltre un software specializzato che consente un ripristino quasi immediato in caso di singolo software o guasto del software. hardware. Queste soluzioni sono significativamente più costose rispetto all'uso delle tecnologie cluster, poiché le organizzazioni sono costrette a pagare più del dovuto per l'hardware aggiuntivo, che rimane inattivo per la maggior parte del tempo e viene utilizzato solo in caso di guasti. I server con tolleranza agli errori vengono utilizzati per applicazioni che gestiscono volumi elevati di transazioni di alto valore in aree quali centri di elaborazione dei pagamenti, sportelli bancomat o borse valori.

Sebbene il servizio cluster non garantisca tempi di attività, fornisce un livello elevato di disponibilità sufficiente per eseguire la maggior parte delle applicazioni cruciali. Il servizio Cluster è in grado di monitorare le prestazioni delle applicazioni e delle risorse, riconoscendo automaticamente le condizioni di errore e ripristinando il sistema quando vengono risolte. Ciò fornisce una gestione più flessibile del carico di lavoro all'interno del cluster e aumenta la disponibilità del sistema nel suo complesso.

I principali vantaggi ottenuti utilizzando il servizio Cluster sono:

  • Alta disponibilità. Se un nodo si guasta, il servizio cluster trasferisce il controllo di risorse come ad es. dischi rigidi e gli indirizzi di rete del nodo del cluster attivo. Quando si verifica un guasto software o hardware, il software del cluster riavvia l'applicazione guasta sul nodo funzionante oppure sposta l'intero carico del nodo guasto sui restanti nodi funzionanti. Tuttavia, gli utenti potrebbero notare solo un breve ritardo nel servizio.
  • Rimborso dopo rifiuto. Il Servizio cluster ridistribuisce automaticamente il carico di lavoro nel cluster quando un nodo guasto diventa nuovamente disponibile.
  • Controllabilità. Amministrazione cluster è uno snap-in che puoi utilizzare per gestire il tuo cluster sistema unificato, nonché per la gestione delle applicazioni. L'Amministrazione cluster fornisce una visione trasparente del modo in cui le applicazioni vengono eseguite come se fossero in esecuzione sullo stesso server. È possibile spostare le applicazioni su server diversi all'interno di un cluster trascinando e rilasciando gli oggetti del cluster con il mouse. Puoi spostare i dati allo stesso modo. Questo metodo può essere utilizzato per distribuire manualmente il carico di lavoro dei server, nonché per scaricare il server e quindi arrestarlo per la manutenzione programmata. Inoltre, l'Amministratore del Cluster consente di monitorare da remoto lo stato del cluster, tutti i suoi nodi e risorse.
  • Scalabilità. Per garantire che le prestazioni del cluster possano sempre tenere il passo con le crescenti richieste, il servizio cluster dispone di funzionalità di scalabilità. Se le prestazioni complessive del cluster diventano insufficienti per gestire il carico generato dalle applicazioni del cluster, è possibile aggiungere ulteriori nodi al cluster.

Questo documento contiene le istruzioni per l'installazione del servizio Cluster sui server in esecuzione Controllo di Windows 2000 Advanced Server e Windows 2000 Datacenter Server e descrive il processo di installazione del Servizio cluster sui server dei nodi cluster. Questa guida non descrive l'installazione e la configurazione delle applicazioni in cluster, ma illustra solo l'intero processo di installazione di un semplice cluster a due nodi.

Requisiti di sistema per la creazione di un cluster di server

I seguenti elenchi di controllo aiuteranno a prepararsi per l'installazione. Istruzioni passo passo Le istruzioni di installazione verranno presentate sotto questi elenchi.

Requisiti software

  • sala operatoria Sistema Microsoft Windows 2000 Advanced Server o Windows 2000 Datacenter Server installato su tutti i server del cluster.
  • Un servizio di risoluzione dei nomi installato come Denominazione dei domini System (DNS), Windows Internet Naming System (WINS), HOST, ecc.
  • Terminal server per l'amministrazione remota del cluster. Questo requisito non è obbligatorio, ma è consigliato solo per garantire una facile gestione del cluster.

Requisiti hardware

  • I requisiti hardware del nodo cluster sono uguali a quelli per l'installazione dei sistemi operativi Windows 2000 Advanced Server o Windows 2000 Datacenter Server. Questi requisiti possono essere trovati nella pagina di ricerca Elenco Microsoft.
  • L'hardware del cluster deve essere certificato ed elencato nell'elenco di compatibilità hardware Microsoft (HCL) per il servizio cluster. Ultima versione questo elenco può essere trovato nella pagina di ricerca Elenco di compatibilità hardware di Windows 2000 Directory Microsoft selezionando la categoria di ricerca "Cluster".

Due computer conformi a HCL, ciascuno con:

  • HDD con una partizione di sistema avviabile e il sistema operativo Windows 2000 Advanced Server o Windows 2000 Datacenter Server installato. Questa unità non deve essere connessa al bus di archiviazione condiviso, discusso di seguito.
  • Controller del dispositivo PCI Fibre Channel o SCSI separato per il collegamento di un dispositivo di archiviazione condiviso esterno. Questo controller deve essere presente in aggiunta al controller disco di avvio.
  • Due adattatori PCI di rete installati su ciascun computer del cluster.
  • Un dispositivo di archiviazione su disco esterno elencato nell'elenco HCL connesso a tutti i nodi del cluster. Agirà come un disco cluster. Si consiglia la configurazione utilizzando array RAID hardware.
  • Cavi per collegare un dispositivo di archiviazione comune a tutti i computer. Fare riferimento alla documentazione del produttore per istruzioni sulla configurazione dei dispositivi di archiviazione. Se la connessione viene effettuata al bus SCSI, fare riferimento all'Appendice A per Informazioni aggiuntive.
  • Tutte le apparecchiature sui computer del cluster devono essere completamente identiche. Ciò semplificherà il processo di configurazione ed eliminerà potenziali problemi di compatibilità.

Requisiti per l'impostazione della configurazione di rete

  • Un nome NetBIOS univoco per il cluster.
  • Cinque indirizzi IP statici univoci: due indirizzi per le schede di rete private, due per le schede di rete pubbliche e un indirizzo per il cluster.
  • Dominio Account per il Servizio cluster (tutti i nodi del cluster devono essere membri dello stesso dominio)
  • Ogni nodo deve avere due adattatori di rete: uno per la connessione alla rete pubblica, l'altro per la comunicazione dei nodi all'interno del cluster. La configurazione che utilizza un singolo adattatore di rete per connettersi contemporaneamente a una rete pubblica e privata non è supportata. Per soddisfare i requisiti HCL è necessario disporre di un adattatore di rete separato per la rete privata.

Requisiti del disco di archiviazione condiviso

  • Tutti i dischi di archiviazione condivisi, incluso il disco quorum, devono essere fisicamente collegati al bus condiviso.
  • Tutti i dischi collegati al bus condiviso devono essere accessibili da ciascun nodo. Questo può essere verificato durante l'installazione e la configurazione dell'adattatore host. Per istruzioni dettagliate Fare riferimento alla documentazione del produttore dell'adattatore.
  • Ai dispositivi SCSI devono essere assegnati numeri ID SCSI univoci di destinazione e i terminatori devono essere installati correttamente sul bus SCSI, secondo le istruzioni del produttore. 1
  • Tutti i dischi di archiviazione condivisi devono essere configurati come dischi di base (non dinamici)
  • Tutte le partizioni del disco del dispositivo di archiviazione condiviso devono essere formattate come formato file. Sistema NTFS.

Si consiglia vivamente di combinare tutte le unità di archiviazione condivise in array RAID hardware. Sebbene non sia obbligatorio, la creazione di configurazioni RAID con tolleranza agli errori è fondamentale per la protezione dai guasti del disco.

Installazione del cluster

Panoramica generale dell'installazione

Durante il processo di installazione, alcuni nodi verranno spenti e altri verranno riavviati. Ciò è necessario per garantire l'integrità dei dati presenti sui dischi collegati al bus comune del dispositivo di archiviazione esterno. Il danneggiamento dei dati può verificarsi quando più nodi tentano contemporaneamente di scrivere sullo stesso disco non protetto dal software del cluster.

La Tabella 1 ti aiuterà a determinare quali nodi e dispositivi di archiviazione devono essere abilitati in ogni fase dell'installazione.

Questa guida descrive come creare un cluster a due nodi. Tuttavia, se stai configurando un cluster con più di due nodi, puoi utilizzare il valore della colonna "Nodo 2" per determinare lo stato dei restanti nodi.

Tabella 1. Sequenza di accensione dei dispositivi durante l'installazione di un cluster

Fare un passo Nodo 1 Nodo 2 Dispositivo di archiviazione Un commento
Impostazione delle impostazioni di rete SU SU Spento Assicurarsi che tutti i dispositivi di archiviazione collegati al bus comune siano spenti. Accendi tutti i nodi.
Configurazione dei Drive condivisi SU Spento SU Spegni tutti i nodi. Accendere il dispositivo di archiviazione condiviso, quindi accendere il primo nodo.
Verifica della configurazione dei Drive condivisi Spento SU SU Spegni il primo nodo, accendi il secondo nodo. Se necessario, ripetere per i nodi 3 e 4.
Configurazione del primo nodo SU Spento SU Spegni tutti i nodi; accendere il primo nodo.
Configurazione del secondo nodo SU SU SU Dopo aver configurato correttamente il primo nodo, accendere il secondo nodo. Se necessario, ripetere per i nodi 3 e 4.
Completamento dell'installazione SU SU SU A questo punto, tutti i nodi dovrebbero essere accesi.

Prima dell'installazione Software cluster è necessario eseguire i seguenti passaggi:

  • Installare un sistema operativo su ogni computer del cluster Sistema Windows 2000 Advanced Server o Windows 2000 Datacenter Server.
  • Configura le impostazioni di rete.
  • Configura unità di archiviazione condivise.

Completare questi passaggi su ciascun nodo del cluster prima di installare il Servizio cluster sul primo nodo.

Per configurare il Servizio cluster su un server Windows 2000, l'account deve disporre dei diritti di amministratore su ciascun nodo. Tutti i nodi del cluster devono essere server membri o controller dello stesso dominio. L'uso misto di server membri e controller di dominio in un cluster non è accettabile.

Installazione del sistema operativo Windows 2000

Per Installazioni di Windows 2000 su ciascun nodo del cluster, fare riferimento alla documentazione ricevuta con il sistema operativo.

Questo documento utilizza la struttura dei nomi del manuale "Guida dettagliata per un'infrastruttura comune per la distribuzione di Windows 2000 Server". È tuttavia possibile utilizzare qualsiasi nome.

Prima di iniziare l'installazione del servizio cluster, è necessario accedere come amministratore.

Configurazione delle impostazioni di rete

Nota: A questo punto dell'installazione, spegnere tutti i dispositivi di archiviazione condivisi, quindi accendere tutti i nodi. È necessario impedire a più nodi di accedere contemporaneamente a un dispositivo di archiviazione condiviso finché il servizio cluster non viene installato su almeno un nodo e tale nodo non viene acceso.

Su ogni nodo devono essere installati almeno due adattatori di rete: uno per connettersi alla rete pubblica e uno per connettersi alla rete privata composta da nodi del cluster.

L'adattatore di rete privata fornisce comunicazione tra nodi, reporting dello stato corrente del cluster e gestione del cluster. La scheda di rete pubblica di ciascun nodo connette il cluster alla rete pubblica composta da computer client.

Assicurati che tutti gli adattatori di rete siano fisicamente collegati correttamente: gli adattatori di rete privata sono collegati solo ad altri adattatori di rete privata e gli adattatori di rete pubblica sono collegati a switch di rete pubblica. Lo schema di connessione è mostrato nella Figura 1. Eseguire questo test su ciascun nodo del cluster prima di procedere con la configurazione dei dischi di archiviazione condivisi.

Figura 1: esempio di cluster a due nodi

Configurazione di un adattatore di rete privata

Completa questi passaggi sul primo nodo del tuo cluster.

  1. Il mio ambiente di rete e seleziona una squadra Proprietà.
  2. Fare clic con il tasto destro sull'icona.

Nota: Quale adattatore di rete servirà una rete privata e quale quella pubblica dipende dalla connessione fisica dei cavi di rete. IN questo documento Assumeremo che il primo adattatore (Connessione locale) sia connesso alla rete pubblica e il secondo adattatore (Connessione locale 2) sia connesso alla rete privata del cluster. Nel tuo caso potrebbe non essere così.

  1. Stato. Finestra Stato connessione LAN 2 mostra lo stato della connessione e la sua velocità. Se la connessione è disconnessa, controllare i cavi e le connessioni. Risolvi il problema prima di continuare. Fare clic sul pulsante Vicino.
  2. Fare nuovamente clic con il tasto destro sull'icona Connessione LAN2, seleziona un comando Proprietà e premere il pulsante Sintonizzare.
  3. Seleziona una scheda Inoltre. Apparirà la finestra mostrata in Figura 2.
  4. Per gli adattatori di rete di rete privata, la velocità deve essere impostata manualmente anziché il valore predefinito. Specifica la velocità della tua rete nell'elenco a discesa. Non utilizzare valori "Rilevamento automatico" O "Auto selezione" per selezionare la velocità, poiché alcuni adattatori di rete potrebbero eliminare i pacchetti mentre determinano la velocità di connessione. Per impostare la velocità dell'adattatore di rete, specificare il valore effettivo del parametro Tipo di connessione O Velocità.

Figura 2: impostazioni aggiuntive della scheda di rete

Tutti gli adattatori di rete del cluster connessi alla stessa rete devono essere configurati in modo identico e utilizzare gli stessi valori dei parametri Modalità fronte-retro, Controllo del flusso, Tipo di connessione, ecc. Anche se vengono utilizzate apparecchiature di rete diverse su nodi diversi, i valori di questi parametri devono essere gli stessi.

  1. Selezionare Protocollo Internet (TCP/IP) nell'elenco dei componenti utilizzati dalla connessione.
  2. Fare clic sul pulsante Proprietà.
  3. Impostare l'interruttore in posizione Utilizzare il seguente indirizzo IP e inserisci l'indirizzo 10.1.1.1 . (Per il secondo nodo, utilizzare l'indirizzo 10.1.1.2 ).
  4. Imposta la maschera di sottorete: 255.0.0.0 .
  5. Fare clic sul pulsante Inoltre e seleziona una scheda VINCE. Impostare il valore dell'interruttore su posizione Disabilitare NetBIOS su TCP/IP. Clic OK per tornare al menu precedente. Eseguire questo passaggio solo per la scheda di rete privata.

La finestra di dialogo dovrebbe essere simile alla Figura 3.

Figura 3: indirizzo IP della connessione di rete privata

Configurazione di un adattatore di rete pubblica

Nota: Se su una rete pubblica è in esecuzione un server DHCP, l'indirizzo IP dell'adattatore di rete sulla rete pubblica può essere assegnato automaticamente. Tuttavia, questo metodo non è consigliato per gli adattatori dei nodi cluster. Consigliamo vivamente di assegnare indirizzi IP permanenti a tutti gli adattatori di rete host pubblici e privati. Altrimenti, se il server DHCP fallisce, l'accesso ai nodi del cluster potrebbe essere impossibile. Se sei costretto a utilizzare DHCP per gli adattatori di rete su una rete pubblica, utilizza lunghi termini lease dell'indirizzo: ciò garantirà che l'indirizzo assegnato dinamicamente rimarrà valido anche se il server DHCP è temporaneamente non disponibile. Assegna sempre indirizzi IP permanenti agli adattatori di rete privati. Ricordare che il servizio cluster può riconoscere solo un'interfaccia di rete per sottorete. Se hai bisogno di aiuto per assegnare gli indirizzi di rete in Windows 2000, fai riferimento alla Guida integrata del sistema operativo.

Rinominare le connessioni di rete

Per chiarezza, ti consigliamo di modificare i nomi delle tue connessioni di rete. Ad esempio, puoi modificare il nome della connessione Connessione LAN2 SU . Questo metodo ti aiuterà a identificare più facilmente le reti e ad assegnare correttamente i loro ruoli.

  1. Fare clic con il tasto destro sull'icona 2.
  2. Nel menu contestuale, selezionare il comando Rinominare.
  3. accedere Connettiti alla rete privata del cluster nel campo di testo e premere il tasto ACCEDERE.
  4. Ripetere i passaggi 1-3 e modificare il nome della connessione connessione LAN SU Connettersi a una rete pubblica.

Figura 4: connessioni di rete rinominate

  1. Le connessioni di rete rinominate dovrebbero assomigliare a Figura 4. Chiudere la finestra Rete e accesso remoto alla rete. I nuovi nomi di connessione di rete vengono replicati automaticamente su altri nodi nel cluster quando vengono attivati.

Visita medica le connessioni di rete e risoluzione dei nomi

Per testare il funzionamento dell'apparecchiatura di rete configurata, eseguire i seguenti passaggi per tutti gli adattatori di rete su ciascun nodo. Per fare ciò, devi conoscere gli indirizzi IP di tutti gli adattatori di rete nel cluster. È possibile ottenere queste informazioni eseguendo il comando ipconfig su ciascun nodo:

  1. Fare clic sul pulsante Inizio, selezionare squadra Eseguire e digitare il comando cmq nella finestra di testo. Clic OK.
  2. Digita il comando ipconfig/all e premere il tasto ACCEDERE. Verranno visualizzate le informazioni sulla configurazione del protocollo IP per ciascun adattatore di rete su macchina locale.
  3. Nel caso in cui la tua finestra non sia ancora aperta riga di comando, seguire il passaggio 1.
  4. Digita il comando ping indirizzo IP Dove indirizzo IPè l'indirizzo IP dell'adattatore di rete corrispondente su un altro nodo. Ad esempio, supponiamo che gli adattatori di rete abbiano i seguenti indirizzi IP:
Numero di nodo Nome della connessione di rete Indirizzo IP dell'adattatore di rete
1 Connessione a una rete pubblica 172.16.12.12
1 Connettiti alla rete privata del cluster 10.1.1.1
2 Connessione a una rete pubblica 172.16.12.14
2 Connettiti alla rete privata del cluster 10.1.1.2

In questo esempio è necessario eseguire i comandi ping 172.16.12.14 E ping 10.1.1.2 dal nodo 1 ed eseguire i comandi ping 172.16.12.12 E ping 10.1.1.1 dal nodo 2.

Per verificare la risoluzione dei nomi, esegui il comando ping, utilizzando il nome del computer come argomento anziché l'indirizzo IP. Ad esempio, per verificare la risoluzione dei nomi per il primo nodo del cluster denominato hq-res-dc01, esegui il comando ping hq-res-dc01 da qualsiasi computer client.

Verifica dell'appartenenza al dominio

Tutti i nodi del cluster devono essere membri dello stesso dominio e disporre di funzionalità di rete con un controller di dominio e un server DNS. I nodi possono essere configurati come server di dominio membri o come controller dello stesso dominio. Se si decide di rendere uno dei nodi un controller di dominio, anche tutti gli altri nodi nel cluster devono essere configurati come controller di dominio dello stesso dominio. Questa guida presuppone che tutti gli host siano controller di dominio.

Nota: Per collegamenti a documentazione aggiuntiva sulla configurazione dei domini, Servizi DNS e DHCP in Windows 2000, vedere la sezione Risorse correlate alla fine di questo documento.

  1. Fare clic con il tasto destro Il mio computer e seleziona una squadra Proprietà.
  2. Seleziona una scheda Identificazione della rete. Nella finestra di dialogo Proprietà del sistema Vedrai il computer completo e il nome del dominio. Nel nostro esempio il dominio viene chiamato reskit.com.
  3. Se hai configurato il nodo come server membro, in questa fase puoi unirlo al dominio. Fare clic sul pulsante Proprietà e seguire le istruzioni per unire il computer al dominio.
  4. Chiudi le finestre Proprietà del sistema E Il mio computer.

Creare un account del servizio cluster

Per il servizio cluster è necessario creare un account di dominio separato con il quale verrà avviato. Il programma di installazione richiederà di inserire le credenziali per il servizio Cluster, quindi è necessario creare un account prima di installare il servizio. L'account non deve essere di proprietà di alcun utente del dominio e deve essere utilizzato esclusivamente per l'esecuzione del servizio Cluster.

  1. Fare clic sul pulsante Inizio, seleziona un comando Programmi/Amministrazione, eseguire lo snap-in.
  2. Espandi categoria reskit.com, se non è stato ancora distribuito
  3. Seleziona dall'elenco Utenti.
  4. Fare clic con il tasto destro su Utenti, selezionare dal menu contestuale Creare, Selezionare Utente.
  5. Immettere un nome per l'account del servizio cluster come mostrato nella Figura 5 e fare clic su Ulteriore.

Figura 5: aggiunta di un utente al cluster

  1. Seleziona le caselle Impedisci all'utente di modificare la password E La password non ha data di scadenza. Fare clic sul pulsante Ulteriore e un pulsante Pronto per creare un utente.

Nota: Se la politica di sicurezza amministrativa non consente password che non scadono mai, sarà necessario aggiornare la password e configurare il Servizio cluster su ciascun nodo prima della scadenza.

  1. Fare clic con il tasto destro sull'utente Grappolo nella barra degli strumenti di destra Directory attiva– utenti e computer.
  2. Nel menu contestuale, selezionare il comando Aggiungi membri a un gruppo.
  3. Seleziona gruppo Amministratori e premere OK. Il nuovo account ora ha i privilegi di amministratore computer locale.
  4. Chiudi lo snap Active Directory: utenti e computer.

Configurazione di unità di archiviazione condivise

Avvertimento: Assicurarsi che almeno uno dei nodi del cluster esegua il sistema operativo Windows 2000 Advanced Server o Windows 2000 Datacenter Server e che il servizio cluster sia configurato e in esecuzione. Solo dopo potrai effettuare il download sistema operativo Windows 2000 su altri nodi. Se queste condizioni non vengono soddisfatte, i dischi del cluster potrebbero danneggiarsi.

Per iniziare a configurare le unità di archiviazione condivise, disattiva tutti i nodi. Successivamente, accendi il dispositivo di archiviazione condiviso, quindi attiva il nodo 1.

Disco del quorum

Il disco quorum viene utilizzato per archiviare checkpoint e file di registro di ripristino del database del cluster, fornendo la gestione del cluster. Forniamo i seguenti consigli per la creazione di un disco quorum:

  • Creare una piccola partizione (di almeno 50 MB) da utilizzare come disco quorum. In genere consigliamo di creare un disco quorum di 500 MB.
  • Dedicare un disco separato per la risorsa quorum. Poiché se un disco quorum si guasta, anche l'intero cluster fallirà, consigliamo vivamente di utilizzare un array RAID di dischi hardware.

Durante il processo di installazione del servizio cluster, ti verrà richiesto di assegnare una lettera all'unità quorum. Nel nostro esempio useremo la lettera Q.

Configurazione di unità di archiviazione condivise

  1. Fare clic con il tasto destro Il mio computer, seleziona un comando Controllo. Nella finestra che si apre, espandi la categoria Dispositivi di memoria.
  2. Seleziona una squadra Gestione del disco.
  3. Assicurati che tutte le unità di archiviazione condivise siano formattate come NTFS e abbiano lo stato Di base. Se colleghi una nuova unità, si avvierà automaticamente Procedura guidata per la firma e l'aggiornamento del disco. All'avvio della procedura guidata, fare clic sul pulsante Aggiornamento, per continuare il suo funzionamento, dopodiché il disco verrà identificato come Dinamico. Per convertire il disco in disco base, fare clic con il tasto destro su Disco n.(Dove # – numero del disco su cui stai lavorando) e seleziona il comando Ripristina il disco di base.

Area del tasto destro Non distribuito accanto al disco corrispondente.

  1. Seleziona una squadra Crea una sezione
  2. Inizierà Procedura guidata per la creazione della partizione. Premere il pulsante due volte Ulteriore.
  3. Immettere la dimensione della partizione desiderata in megabyte e fare clic sul pulsante Ulteriore.
  4. Fare clic sul pulsante Ulteriore, accettando la lettera di unità predefinita suggerita
  5. Fare clic sul pulsante Ulteriore per formattare e creare una partizione.

Assegnazione di lettere di unità

Dopo aver configurato il bus dati, i dischi e le partizioni di archiviazione condivisa, è necessario assegnare le lettere di unità a tutte le partizioni su tutti i dischi nel cluster.

Nota: I punti di connessione lo sono funzionalità file system che consente l'installazione file system utilizzando le directory esistenti, senza assegnare una lettera di unità. I punti di montaggio non sono supportati dai cluster. Qualunque unità esterna utilizzata come risorsa cluster deve essere partizionata in partizioni NTFS e a queste partizioni devono essere assegnate lettere di unità.

  1. Fare clic con il tasto destro sulla partizione desiderata e selezionare Modifica della lettera e del percorso dell'unità.
  2. Seleziona una nuova lettera di unità.
  3. Ripetere i passaggi 1 e 2 per tutte le unità di archiviazione condivise.

Figura 6: partizioni del disco con lettere assegnate

  1. Al termine della procedura verrà visualizzata la finestra snap Gestione informatica dovrebbe apparire come nella Figura 6. Chiudere lo snap-in Gestione informatica.
  1. Fare clic sul pulsante Inizio, Selezionare Programmi / Standard ed esegui il programma " Taccuino".
  2. Digita alcune parole e salva il file con il nome prova.txt selezionando il comando Salva come dal menù File. Vicino Taccuino.
  3. Fare doppio clic sull'icona I miei documenti.
  4. Fare clic con il tasto destro sul file prova.txt e nel menu contestuale selezionare il comando copia.
  5. Chiudi la finestra.
  6. Aprire Il mio computer.
  7. Fare doppio clic sulla partizione dell'unità di archiviazione condivisa.
  8. Fare clic con il tasto destro e selezionare il comando Inserire.
  9. Una copia del file dovrebbe essere visualizzata sull'unità di archiviazione condivisa prova.txt.
  10. Fare doppio clic sul file prova.txt per aprirlo da un'unità di archiviazione condivisa. Chiudi il file.
  11. Selezionare il file e premere il tasto Del per eliminare un file dal disco del cluster.

Ripeti la procedura per tutti i dischi nel cluster per assicurarti che siano accessibili dal primo nodo.

Ora spegni il primo nodo, accendi il secondo nodo e ripeti i passaggi nella sezione Controllo del funzionamento e accesso pubblico ai dischi. Segui gli stessi passaggi su tutti i nodi aggiuntivi. Una volta che sei sicuro che tutti i nodi possano leggere e scrivere informazioni sulle unità di archiviazione condivise, spegni tutti i nodi tranne il primo e continua con la sezione successiva.

Ho costruito il mio primo "cluster" di computer a scheda singola quasi immediatamente dopo che il microcomputer PC Orange Pi ha iniziato a guadagnare popolarità. Si potrebbe definire un “cluster” con grande allungamento, perché dal punto di vista formale lo era la rete locale di quattro tavole che si “vedevano” e potevano accedere a Internet.

Il dispositivo ha partecipato al progetto SETI@home ed è riuscito anche a contare qualcosa. Ma sfortunatamente nessuno è venuto a prendermi da questo pianeta.
Tuttavia, durante tutto questo tempo armeggiando con cavi, connettori e schede microSD, ho imparato molto. Quindi, ad esempio, ho scoperto che non bisogna fidarsi della potenza dichiarata dell'alimentatore, che sarebbe bello distribuire il carico in termini di consumo e che la sezione del filo conta.

E sì, abbiamo dovuto "coltivare collettivamente" il sistema di gestione dell'energia, perché l'avvio simultaneo di cinque dispositivi a scheda singola può richiedere una corrente di avviamento dell'ordine di 8-10 A (5*2)! Sono tanti, soprattutto per gli alimentatori realizzati negli scantinati delle campagne, dove amiamo ordinare ogni sorta di... gadget interessanti.

Probabilmente inizierò con lei. Il compito si riduceva ad azioni relativamente semplici: dopo un dato periodo di tempo, accendere in sequenza 4 canali attraverso i quali vengono forniti 5 volt. Il modo più semplice per realizzare il tuo piano è Arduino (di cui ogni smanettone che si rispetti ne ha in abbondanza) e questa scheda miracolosa della Ali con 4 relè.

E sai, ha anche funzionato.

Tuttavia, i clic "in stile frigorifero" all'avvio hanno causato qualche disagio. In primo luogo, quando si è verificato un clic, l'interferenza ha attraversato l'alimentatore ed è stato necessario installare condensatori e, in secondo luogo, l'intera struttura era piuttosto grande.

Così un giorno ho semplicemente sostituito il blocco relè con interruttori a transistor basati su IRL520.

Ciò ha risolto il problema delle interferenze, ma poiché il mosfet controlla lo “zero”, ho dovuto abbandonare le gambe in ottone nel rack per non collegare accidentalmente la massa delle schede.

E ora la soluzione viene replicata perfettamente e due cluster funzionano già stabilmente senza sorprese. Proprio come pianificato.

Ma torniamo alla replica. Perché acquistare alimentatori per una notevole quantità di denaro quando ci sono molti ATX convenienti letteralmente sotto i tuoi piedi?
Inoltre hanno tutte le tensioni (5,12,3.3), gli inizi di autodiagnosi e la possibilità di controllo del programma.

Bene, non entrerò troppo nei dettagli qui: un articolo sul controllo dell'ATX tramite Arduino.

Ebbene, tutte le pillole sono state mangiate e anche i francobolli sono attaccati? E' il momento di mettere tutto insieme.

Ci sarà un nodo principale che si connetterà al mondo esterno tramite WiFi e invierà "Internet" al cluster. Sarà alimentato dalla tensione di standby ATX.

In effetti, TBNG è responsabile della distribuzione di Internet.
Quindi, se lo si desidera, i nodi del cluster possono essere nascosti dietro TOR.

Inoltre, ci sarà una scheda complicata collegata tramite i2c a questo nodo principale. Sarà in grado di accendere/spegnere ciascuno dei 10 nodi di lavoro. Inoltre, sarà in grado di controllare tre ventole da 12 V per raffreddare l'intero sistema.

Lo scenario operativo è il seguente: quando l'ATX viene acceso a 220V si avvia il nodo di testa. Quando il sistema è pronto per il funzionamento, accende in sequenza tutti i 10 nodi e le ventole.
Una volta completato il processo di commutazione, il nodo principale girerà attorno a ciascun nodo funzionante e chiederà come ci sentiamo, qual è la temperatura. Se uno dei rack si surriscalda, aumentare il flusso d'aria.
Bene, con un comando di spegnimento, ciascuno dei nodi verrà accuratamente spento e diseccitato.

Ho disegnato io stesso il diagramma della scheda, quindi sembra inquietante. Tuttavia, una persona ben addestrata si è occupata della tracciabilità e della produzione, per la quale lo ringraziamo sentitamente.

Eccolo in fase di assemblaggio

Ecco uno dei primi schizzi della posizione dei componenti del cluster. Realizzato su un pezzo di carta a quadretti e immortalato tramite Office Lens dal telefono.

L'intera struttura è appoggiata su un foglio di textolite acquistato per l'occasione.

Questo è approssimativamente l'aspetto della posizione dei nodi all'interno. Due mazzi da cinque carte ciascuno.

Qui puoi vedere il controllo di Arduino. È collegato alla testa Orange Pi Pc tramite i2c tramite un convertitore di livello.

Bene, ecco la versione finale (attuale).

Quindi, tutto ciò che serve è scrivere diverse utilità in Python che conducano tutta questa musica: accendila, accendila e regola la velocità della ventola.

Non ti annoierò con i dettagli tecnici: assomiglia a questo:

1
2
3
4
5
6
7
8
#!/usr/bin/envsh

echo "Avvio scheda ATX..."
/home/zno/i2creobus/i2catx_tool.py --start
eco "Impostazione dei valori iniziali del ventilatore..."
/home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60

Poiché abbiamo già fino a 10 nodi, utilizziamo Ansible, che aiuterà, ad esempio, a disattivare correttamente tutti i nodi. Oppure esegui un monitoraggio della temperatura su ciascuno.

1
2
3
4
5
6
7
8
---

- ospitanti: lavoratori
ruoli:
- webmon_stop
- webmon_remove
- webmon_install
- webmon_start

Spesso vengo accusato in tono sprezzante, dicendo che si tratta solo di una rete locale a targa unica (come ho già detto all'inizio). In generale, non me ne frega niente delle opinioni degli altri, ma forse aggiungeremo un po’ di glamour e organizzeremo un ammasso di sciami di docker.
L'attività è molto semplice e può essere completata in meno di 10 minuti. Quindi lanciamo un'istanza di Portainer sul nodo head e voilà!

Ora puoi Veramente compiti su scala. Quindi, dentro questo momento Il cluster esegue il minatore di criptovaluta Verium Reserve. E con successo. Spero che il nativo più vicino recuperi l'elettricità consumata;) Bene, oppure riduci il numero di nodi coinvolti ed estrai qualcos'altro come Turtle Coin.

Se desideri un carico utile, puoi inserire Hadoop nel cluster o organizzare il bilanciamento dei server web. Ci sono molte immagini già pronte su Internet e c'è abbastanza materiale di formazione. Bene, se manca l'immagine (immagine docker), puoi sempre crearne una tua.

Cosa mi ha insegnato questo? In generale, lo “stack” tecnologico è molto ampio. Giudicate voi stessi: Docker, Ansible, Python, aggiornamento di Arduino (Dio mi perdoni, non lo dirò di notte) e la shell, ovviamente. E anche KiCad e lavorare con un appaltatore :).

Cosa si può fare meglio? Tanto. Dal punto di vista software, sarebbe bello riscrivere le utilità di controllo in Go. A proposito, rendilo più steampunk: KDPV all'inizio alza perfettamente l'asticella. Quindi c’è qualcosa su cui lavorare.

Ruoli svolti da:

  • Nodo principale - PC Orange Pi con wifi USB.
  • Nodi di lavoro - Orange Pi PC2 x 10.
  • Rete: collegamento TP da 100 Mbit a 16 porte.
  • Brain - Clone di Arduino basato su Atmega8 + convertitore di livello.
  • Il cuore è un controller di potenza ATX con alimentatore.
  • Software (anima) - Docker, Ansible, Python 3, un po' di shell e un po' di pigrizia.
  • Il tempo trascorso non ha prezzo.

Durante gli esperimenti, un paio di schede Orange Pi PC2 sono state danneggiate a causa di un alimentatore scambiato (bruciano molto bene), un'altra PC2 ha perso Ethernet (questa è una storia a parte in cui non capisco la fisica del processo) .

Questa sembra essere l’intera storia “da cima a fondo”. Se qualcuno lo trova interessante, faccia domande nei commenti. E vota per le domande lì (voto positivo: ogni commento ha un pulsante per questo). Le domande più interessanti saranno trattate in nuove note.
Grazie per aver letto fino alla fine.

TBVPFBFSH INFORMAZIONI SU PDOPK NBYYOE HCE OE NPDP
YMY DEMBEN LMBUFET CH DPNBOYI HUMPCHYSI.

1. hCHEDEOYE

noPZYE Y CHBU YNEAF CH MPLBMSHOPK UEFY OUEULPMSHLP Linux NBIYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSCHN RTPGEUUPTPN. fBLCE NOPZIE UMSHCHYBMY P UYUFENBI, CH LPFPTSCHI NBYOSCH PVAEDEOSAFUS CH PDYO UKHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLYE LURETYNEOFSHCH UEWS INFORMAZIONI SU TBVPFE YMY DPNB. dBChBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEVPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPTSEFE TEBMSHOP HULPTYFSH CHSHRPMOEOYE YUBUFY ЪBDBU. OBRTYNET LPNRYMSGYA YMY PDOPCHTENEOOHA TBVPFKH OULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFK UFBFSHE S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VEY PUPVSHCHI HUIMYK PVAEDEOYFSH NBYOSHCH UCHPEK MPLBMSHOPK UEFFY CH EDYOSCHK LMBUFET INFORMAZIONI SU VBJE MOSIX.

2. lBL, UFP Y QUI.

MOSIX - LFP RBFYu DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHCHK RPJCHPMSEF RTPGEUUBN U CHBYEK NBYOSCH RETEIPDIFSH (NYZTYTPCHBFSH) INFORMAZIONI SU DTHZIE HOMSH MPLBMSHOPK UEFI. chЪSFSH EZP NPTsOP RP BDTEUH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEFUS ON CH YUIPDOSCHI LPBI RPD MYGEOYEK GPL. rBFYUY UKHEEUFCHHAF DMS CHUEI SDT YJ UFBVYMSHOPK CHEFLY Linux.

3. hUFBOPCHLB RTPZTBNNOPZP PVEUREYUEOOYS.

h OBYUBME KHUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U KHMB MOSIX OE FPMSHLP EZP, OP Y UPRHFUFCHHAEYE KHFYMYFSH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOPCHPYuOSCHK ULTYRF mosix_install. OE ЪБВХДШФЭ Х ПВСЪБ FEMSHOPN RPTSDL TBURBLLPCHBFSH YUIPDOSHE LPDSCH SDTB CH /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - CH /usr/src/linux-2.2.13 DBMEE ЪBRHULBEFE mosix_install Y PFCHEYUBEFE INFORMAZIONI SU CHUE EZP CHPRPTUSCH, KHLBIBCH ENKH UCHPK NEOEDTSET ЪБЗТХЪЛй (LILO), RХФШ Л YUIPDOILBN SDTB Y KHTPCHOY ЪBRХУЛБ.
rTY OBUFTPKLE SDTB CHLMAYUYFE PRGYY CONFIG_MOSIX, CONFIG_BINFMT_ELF Y CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP KHUFBOPCHLE MOSIX.
HUFBOPCHIMIA? OH YFP TSE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOYE LFPTPZP PUEOSH VHDEF RPIPTSE INFORMAZIONI su mosix-2.2.13.

4. su BUFTPKLB

yЪOBYUBMSHOP KHUFBOPCHMEOOSHCHK MOSIX UPCHETYEOOOP OE OBEF, LBLYE X CHBU NBYOSCH CH UEFI Y U LENE ENKH UPEDEOSFUS. OH B OBUFTBYCHBEFUS LFP PYUEOSH RTPUFP. eUMY CHCH FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DIUFTYVHFYCH - SuSE YMY RedHat - UPCHNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE LPNBODH mosix start. rTY RETCHPN ЪBRHULE LFPF ULTYRF RTPUIF CHBU OBUFTPIFS MOSIX ЪBRKHULBEF FELUFPCHSHCHK TEDBLFPT DMS UPЪDBOYS ZhBKMB /etc/mosix.map, Ch LPFPTPN OBIPDFYFUS URYUPL HЪMPCH Ch BYEZP LMBUFETB. fKhDB RTPRYUSCHBEN: CH UMKHYUBE, EUMY KH CHBU CHUEZP DCHE-FTY NBYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

qui RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP KHMB, CHFPTPK - IP BDTEU RETCHPZP KHMB Y RPUMEDOYK - LPMYUEUFChP KHMPCH U FELHEZP. f.E. UEKYBU KH OBUC H LMBUFETE PMKHYUBEFUS RSFSH KHMPCH, IP BDTEUB LPFPTSHCHK BLBOYUYCHBAFUS OB 1, 2, 3, 4 Y 5.
YMY DTHZPK RTYNET:

oPNET KHMB IP LPMYUEUFChP KHMPCH U FELHEZP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h LFPC LPOZHYZHTBGYY NSCH RPMKHYYN UMEDHAEIK TBULMBD:
IP 1-ПЗП ХЪМБ 10.150.1.1
IP 2-ПЗП ХЪМБ 10.150.1.55
IP 3-ПЗП ХЪМБ 10.150.1.56
IP 4-ПЗП ХЪМБ 10.150.1.223
FERETSH OHTSOP INFORMAZIONI SU CHUEI NBYOBI VKHDHEEZP LMBUFETB KHUFBOPCHYFSH MOSIX Y UPJDBFSH CHEDE PDOBLPCCHCHK LPOZHYZHTBGYPOOSCHK ZHBKM /etc/mosix.map .

FERTSH RPUME RETEBRKHULB mosix CHBYB NNYYOB KhCE VKhDEF TBVPFBFSH CH LMBUFETE, YuFP NPTsOP KHCHYDEFSH ЪBRKHUFYCH NPOYFPT LPNBODPK mon. h UMHYUBE, EUMY CHSHCHHCHYDYFE H NPOYFPTE FPMSHLP UCHPA NBYOKH YMY CHPPVEE OE KHCHYDYFE OYLPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CHBU PYYVLB YNEOOP CH /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. YuFP DBMSHYE? b DBMSHYE PYUEOSH RTPUFP:-) - OHTsOP UPVTBFSH KhFYMYFSH DMS TBVPFSH U YÚNEOOOSCHN /proc YÚ RBLEFB mproc. h YUBUFOPUFY h LFPN RBBLFE YDEF OERMPIBS NPDYZHYLBGYS top - mtop, h LPFPTSCHK DPVBCHYMY CHPTNPTSOPUFSH PFPVTBTTSEOYS KHMB(nodo), UPTFYTPCHLY RP KHMBN, RETEOPUB RTPGEUUB U FELHEEZP KHMB INFORMAZIONI SU DTHZPK Y KHUFBOPCHMEOYS NYOINBMSHOPK ЪBZTHYLY RTPGEUUPTB KHMB, RPUME LPFPTPK RTPGEUUSH OBUYOBAF NYZTYTPCHBFSH INFORMAZIONI SU DTHZYE MOSIX - KHMSHCH .
ъBRKHULBEN mtop, CHSHCHVYTBEN RPOTBCHYCHYYKUS OE URSEIK RTPGEUU (TELPNEODHA ЪBRKHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" INFORMAZIONI SU CHBYEK LMBCHYBFKHTE, RPUM YuEZP CHCHPDYN INFORMAZIONI SU ЪБРТПУ PID CH CHVTBO OPZP CH LBUEUFCH TSETFCHSH RTPGEUUB Y ЪBFEN - OPNET KHMB, LHDB NSCH IFYN EZP PFRTBCHYFSH. b HCE RPUME bFPZP CHOINBFEMSHOP RPUNPFTYFE INFORMAZIONI SU TEKHMSHFBFSCH, PFPVTBTSBENSHCHE LPNBODPK lun - FB NBYOB DPMTSOB OBYUBFSH VTBFSH INFORMAZIONI SU UEVS OBZTHLKH CHSHVTBOOPZP RTPGEUUB.
b UPVUFCHOOOP mtop - CH RPME #N PFPVTBTSBFSH OPNET KHMB, QUI SU CHSHRPMOSEFUS.
oP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPUEFUS PFRTBCHMSFSH INFORMAZIONI SU DTHZIE KHMSCH RTPGEUUSCH CHTHYUOHA? nooe BIFFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUITPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPJCHPMSEF VPMEE-NEOEE TBCHOPNETOP TBURTEDEMSFSH OBZTKHLH INFORMAZIONI SU CHUE KHMSHCH. oKH B CHPF ÚDEUSH OBN RTYDEFUS RPFTHDYFUS. DMS OBYUBMB S TBUULBTsKH, LBL UDEMBFSH FPOLHA OBUFTPKLH (sintonizzazione) DMS DCHHI KHMPC LMBUFETB? CH RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPUFSI RTPGEUUPTPCH Y UEFI:
úBRPNOYFE TB Y OCHUEZDB - sintonizza NPTsOP CHSHCHRPMOSFSH FPMSHLP CH monomodale. YOBYUE CHSC MYVP RPMKHUYFE OE UPCHUEN LPTTELFOSCHK TEKHMSHFBF, MYVP CHBYB NBYOB NPTSEF RTPUFP ЪBCHYUOKHFSH.
yFBL, CHSHRPMOSEN sintonizzazione. rPUME RETECHPDB PRTBGYPOOPK UYUFENSCH CH modalità singola OBRTYNET LPNBODPK init 1 YMY init S ЪBRKHULBEN ULTYRF prep_tune, LPFPTSCHK RPDOINEF cEFECHSCHE
YOFETZHEKUSHY ЪBRHUFYF MOSIX. rPUME LFPPZP INFORMAZIONI SU PDOPK YNBYO ЪBRKHULBEN tune, ChCHPDYN ENKH OPNET DTHZPZP KHMB DMS OBUFTPKLY Y TsDEN TEKHMSHFBFB - KhFYMYFB DPMTSOB CHSHCHDBFSH ЪBRTPU INFORMAZIONI SU CHChPD YEUFY YUYUEM, RPM HYUEOOSCHI PF CHSHRPMOEEOS LPNBODS Sintonizzazione CH -a<ХЪЕМ>INFORMAZIONI SU DTHZPN HYME. uPVUFCHOOOP PRETBGYA RTYDEFUS RPCHFPTYFSH INFORMAZIONI DTHZPN KHME LPNBODPK tune -a<ХЪЕМ>, B TEЪHMSHFBF YЪ YEUFY YUYUEM CHCHEUFY INFORMAZIONI SU RETCHSHCHK HYEM. rPUME RPDPVOPZP FAIOZB CH CHBYEK UYUFEN DPMTSEO RPSCHYFUS ZhBKM /etc/overheads, UPDETSBEIK YOZHPTNBGYA DMS MOSIX CHYDE OELYI YUYUMPCHSCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE YJ FELHEEZP LBFBMPZB ZHBKM mosix.cost H /etc/overheads. bFP RPNPTSEF;-).
rTY FAOYOSE LMBUFETB YY VPMEE YUEN DCHHI NBYO OHTSOP YURPMSHЪPCHBFSH KhFYMYFKH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPÚCHPMSEF
CHBN CH VPMEE RTPUFPN Y RTYCHSHYUOPN CHYDE OBUFTPYFSH LMBUFET, PFCHEFYCH INFORMAZIONI SU OEULPMSHLP CHPRTPUPCH Y RTPCHEDS FAOIOZ U DCHHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNH PRSHCHFKH NPZH ULBUBFSH, YuFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪБЗТХЦБФШ UEFSH, B OBPVPTPF - RTYPUFBOPCHYFSH CHUE BLFYCHOSHE PRETBGYY CH MPLBMSHOPK UEFI.

5. hrTBCHMEOYE LMBUFETPN

dMS KHRTBCHMEOYS KHMPN LMBUFETB UKHEEUFCHHEF OEVPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mostctl - LPOFTPMSHOBD KHMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSCH KHMB - FBLYE, blocco LBL, soggiorno, lstay, ritardo Y F.D
dBChBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTPCH LFPC KHFYMYFSCH:
rimanere - RPЪCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH INFORMAZIONI SU DTHZIE KHMSHCH U FELHEEK NBYOSCH. pFNEOSEPHUS RBTBNEFTPN nostay YMY -resta
Resta - ЪBRTEEBEF FPMSHLP MPLBMSHOSCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYO NPZHF RTDDPMTsBFSH LFP DEMBFSH. pFNEOSEPHUS RBTBNEFTPN nolstay YMY -lstay.
bloccare - ЪBRTEEBEF KHDBMEOOSCHN/ZPUFECHSHCHN RTPGEUUBN CHSHPRPMOSPHUS INFORMAZIONI SU LFPN KHM. pFNEOSEPHUS RBTBNEFTPN noblocco YMY -blocco.
Portare - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP KHMB CHSHPRPMOSENSHCHE INFORMAZIONI SU DTHZYI NBIYOBI LMBUFETB. ьФПФ RBTБNEFT NPTSEF OE UTBVBFSCHBFSH, RPLB NYZTYTPCHBCHYK RTPGEUU OE RPMKHYUIF RTETSCHCHBOIE PF UYUFENSCH.
setdelay KHUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBUYOBEF NYZTYTPCHBFSH.
CHEDSH UPZMBUYFEUSH - CH UMKHYUBE, EUMY CHTENS CHSHRPMOEOYS RTPGEUUB NEOSHYE UELKHODSCH UNSHUM RETEOPUYFSH ESP INFORMAZIONI SU DTHZIE NBYOSCH UEFI YUYUEBEF. yNEOOOP LFP READING CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN setdecay. rTYNET:
mosctl setdecay 1 500 200
KHUFBOBCHMYCHBEF CHTENS RETEIPDB ABOUT DTHZIE KHMSH 500 NYMMYUELKHOD CH UMHYUBE, EUMY RTPGEUU ЪBRHEEO LBL lento Y 200 NYMYUELKHOD VMS veloce RTPGEUUPCH. pVTBFYFE CHOYNBOYE, UFP RBTBNEFT lento CHUEZDB DPMTSEO VShchFSH VPMSHYE YMY TBCHEO RBTBNEFTH veloce.

mosrun -ЪBRKHULBEF RTYMPTSEOYE CH LMBUFETE. OBRTYNET mosrun -e -j5 make ЪBRKHUFYF make ABOUT 5-PN HЪME LMBUFETB, RTY LFPN CHUE EZP DPYUETOYE RTPGEUUSCH VHDHF FBLCE CHSHHRPMOSPHUS ABOUT 5-PN HЪME. rTBCHDB ЪDEUSH EUFSH PDYO OABOU, RTY YUEN DPChPMSHOP UKHEEUFCHEOOSCHK:
CH UMHYUBE, EUMY DPYUETOYE RTPGEUUSCHCHSHRPMOSAFUS VSHCHUFTEE YUEN KHUFBOPCHMEOOBS HFYMYFPK mosctl ЪBDETTSLB (ritardo) FP RTPGEUU OE VHDEF NYZTYTPCHBFSH INFORMAZIONI SU DTHZIE KHMSHCH LMBUFETB. Х mosrun EEE DPChPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTPCH, OP RPDTPVOP KHOBFSH
P OYI CHSHCH UNPTSEFE YÚ THLPCHPDUFCHB RP LFPC KHFYMYFE. (uomo mosrun)

lun - LBL NSCH HTSE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCHK CH RUECHDPZTBZHYUEULPN CHYDE PFPVTBTSBEF ЪBZTHYLH LBTSDPZP TBVPYUEZP KHMB ChBYEZP LMBUFETB, LPMYUEUFCH P UCHPVPDOPK Y ЪBOSFPK RBNSFY KHMPCH Y CH SHCHDBEF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHTNBGYY.

mtop - NPDYZHYYTPCHBOOBS DMS YURPMSHЪPCHBOYS INFORMAZIONI SU KHMBI LMBUFETB CHETUIS LPNBODSCH top. pFPVTBTSBEF INFORMAZIONI SU LTBOE DYOBNYUUEULHA YOZHTTNBGYA P RTPGEUUBI, ЪBRHEEOOSCHI INFORMAZIONI SU DBOOPN KHOME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RTPGEUUSCH.

mp - FPTSE NPDYZHYYTPCHBOOBS CHETUIS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET KHMB, INFORMAZIONI SU LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF INFORMAZIONI SU NPK CHZMSD Y CHUE PUOPCHOSHE KHFYMYFSHCH. INFORMAZIONI SU UBNPN DEME LPOEYOP NPTsOP PVPKFYUSH DBTSE VEЪ OI. OBRTYNET YURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
FBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOHA YOZHPTNBGYA P OBUFTPKLBI KHMB, RTPGEUUBI ЪBRHEOOOSCHI U DTHZYI KHMPCH Y F.D., B FBLCE RPNEOSFSH YUBUFSH RBTBNEFTPCH.

6. lURETENEOFTHEN.

l UPTSBMEOYA, NOE OE KHDBMPUSH ЪBUFBCHYFSH CHSHRPMOSPHUS LBLPK-FP PDYO RTPGEUU PDOPCHTENEOOOP INFORMAZIONI SU OEULPMSHLYI KHMBI. nBUINKHN, YuEZP S DPUFYZ CH RTPGEUUE LURETYNEOFPCH U LMBUFETPN-YURPMSHJPCHBOIE DMS CHSHRPMOEOYS TEUKHTUPENLYI RTPGEUUPCH INFORMAZIONI SU DTHZPN KHME.
dBChBKFE TBUUNPFTYN PDYO YJ RTYNETPCH:
dPRKHUFYN, YUFP KH OBU CH LMBUFETE TBVPFBAF DCHE NBYOSCH (DCHB KHMB), PDYO YI LPFPTSCHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). ьLURETYNEOFYTPCHBFSH NSCH VKhDEN CIRCA 5-MON IMO. 1-K HYEM CH LFP CHTENS RTPUFBYCHBM. ;-)
yFBL, ЪBRKHULBEN ABOUT 5-N KHME KHFYMYFKH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP YЪ CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSHNY KHFYMYFBNY, FP ON DPMTSEO ЪOBFSH, YuFP RT PGEUU RPDVPTB RBTPMS "LKHYBEF" DP99 RTPGEOFPCH RTPGEUUPTB. OH YFP TSE - RPUME ЪBRKHULB NSCH OBVMADBEN, YuFP RTPGEUU PUFBEFUS SU LFPN, 5-PN KHJME. tBKHNOP - CHEDSH YNEOOP KH LFPPZP KHMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K KHYEM RPYUFY CH DCHB TBBB.
dBMEE NSCH RTPUFP ЪBRKHUFYMY UVPTLH kde 2.0. uNPFTYN FBVMYGH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM ABOUT 1-K HYEM, PUCHPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPVPTSDBEFUS) Marca DMS. b LBL FPMSHLP marca ЪBLPOYUM UCHPA TBVPFKH - crark CHETOHMUS PVTBFOP, INFORMAZIONI SU TPDOPK ENKH 5-K KHYEM.
YoFETEEUOSCHK YZHZHELF RPMKHYUBEFUS, EUMY crark ЪBRKHULBFSH INFORMAZIONI SU VPMEE NEDMEOOPN 1-N KHJME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRPMPTSOSHCHK TEKHMSHFBF - RTPGEUU UTBH-CE NYZTYTHEF CIRCA 5-K, VPMEE VSHCHUFTSHCHK HYEM. rTY LFPN ON CHPTBEBEFUS PVTBFOP, LPZDB IPЪSIO RSFPZP LPNRSHAFETB OBUYOBEF LBLYE-FP DEKUFCHYS U UYUFENPK.

7. yURPMSHЪPCHBOIE

dBChBKFE CH LPOGE TBVETENUS, ЪBUEN Y LBL NSCH NPTsEN YURPMSHЪPCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPK TSYYOY.
dMS OBYUBMB OHTSOP TBY OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSHCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH LOOPE LPMYUEUFChP NBYO, LPFPTSCHE YUBUFEOSHLP RTPUFBYCHBAF Y CHSH IPFYFE YURPMSHЪPCHBFSH YI TE UKHTUSH OBRTYNET DMS UVPTLY KDE YMY DMS MAVSHI UETSHESHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYO NPTsOP PDOPCHTEENOOOP
LPNRYMYTCHBFS DP 10 FSTSEMSCHI RTPZTBNN INFORMAZIONI SU FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSH,
OE RTELTBEBS OH INFORMAZIONI SU UELKHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHYLY INFORMAZIONI SU CHBY LPNRSHAFET.
dB Y CHPPVEE - LFP RTPUFP YOFETEUOP;-).

8. ъBLMAYUEOOYE

h ЪBLMAYUEOYE IPUKH ULBUBFSH, YuFP h LFPK UFBFSHE OE TBUUNPFTEOSCH CHUE CHPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTDPDPMTSEOYS. :-)


Superiore