Sammansättning av datorer i kluster. Skrivbordskluster. Konfigurera nätverksinställningar

Idag är många företags affärsprocesser helt bundna till information
tekniker. Med organisationers växande beroende av datorarbetet
nätverk spelar tillgängligheten av tjänster när som helst och under vilken belastning som helst en stor roll
roll. En dator kan bara tillhandahålla Första nivån tillförlitlighet och
skalbarhet, kan den maximala nivån uppnås genom att kombinera
ett enda system med två eller flera datorer - ett kluster.

Varför behöver du ett kluster?

Kluster används i organisationer som behöver dygnet runt och
oavbruten tillgänglighet av tjänster och där eventuella avbrott i arbetet är oönskade och
oacceptabel. Eller i de fall det finns en möjlig belastningshöjning, som kan
huvudservern klarar sig inte, då kommer ytterligare att hjälpa till att kompensera
värdar som vanligtvis utför andra uppgifter. För Mejl server, bearbetning
tiotals och hundratusentals brev per dag, eller en webbserver som serverar
nätbutiker är användningen av kluster mycket önskvärd. För användaren
ett sådant system förblir helt transparent - hela gruppen av datorer kommer att göra det
ser ut som en server. Använder flera, ännu billigare,
datorer kan du få mycket betydande fördelar jämfört med en singel
och en snabb server. Detta är en enhetlig fördelning av inkommande förfrågningar,
ökad feltolerans, eftersom när ett element går sönder, dess belastning
plockas upp av andra system, skalbarhet, bekvämt underhåll och utbyte
klusternoder och mycket mer. Fel på en nod automatiskt
upptäcks och belastningen omfördelas, allt detta återstår för klienten
obemärkt.

Win2k3 funktioner

Generellt sett är vissa kluster utformade för att förbättra datatillgängligheten,
andra - att säkerställa maximal prestanda. I samband med artikeln vi
kommer att vara av intresse MPP (Massive Parallel Processing)- kluster, in
där liknande applikationer körs på flera datorer, tillhandahållande
skalbarhet av tjänster. Det finns flera tekniker som tillåter
fördela belastningen mellan flera servrar: trafikomdirigering,
adressöversättning, DNS Round Robin, användning av speciella
program
, som arbetar på applikationsnivå, som webbacceleratorer. I
Win2k3, till skillnad från Win2k, ingår stöd för klustring initialt och
två typer av kluster stöds, olika i applikationer och specifikationer
data:

1. NLB (Network Load Balancing)-kluster- ge
skalbarhet och hög tillgänglighet för tjänster och applikationer baserade på TCP-protokoll
och UDP, som kombinerar upp till 32 servrar med samma datauppsättning i ett kluster, på
kör samma applikationer. Varje begäran exekveras som
separat transaktion. Används för att arbeta med uppsättningar som sällan förändras
data, såsom WWW, ISA, Terminal Services och andra liknande tjänster.

2. Serverkluster– kan förena upp till åtta noder, deras huvudsakliga
Uppgiften är att säkerställa applikationens tillgänglighet i händelse av fel. Består av aktiva och
passiva noder. Den passiva noden är inaktiv för det mesta och spelar en roll
huvudnodsreserv. För enskilda applikationer är det möjligt att konfigurera
flera aktiva servrar som fördelar belastningen mellan dem. Båda noderna
ansluten till ett enda datalager. Ett serverkluster används för att fungera
med stora mängder data som ändras ofta (post, fil och
SQL-servrar). Dessutom kan ett sådant kluster inte bestå av noder som körs under
hantering av olika Win2k3-varianter: Enterprise eller Datacenter (webb och
Standardserverkluster stöds inte).

I Microsoft Application Center 2000(och bara) det fanns ytterligare en sort
kluster - CLB (Component Load Balancing) ger möjlighet
distribuera COM+-applikationer över flera servrar.

NLB-kluster

Vid användning av lastbalansering, a
en virtuell nätverksadapter med sin egen IP- och MAC-adress oberoende av den riktiga.
Detta virtuella gränssnitt representerar klustret som en enda nod, klienter
de kommer åt den exakt genom dess virtuella adress. Alla förfrågningar tas emot av alla
klusternod, men bearbetas av endast en. Körs på alla noder
Nätverkslastbalanseringstjänst
,
som använder en speciell algoritm som inte kräver datautbyte mellan
noder, bestämmer om en viss nod behöver behandla en begäran eller
Nej. Noder utbyte hjärtslagsmeddelanden visar dem
tillgänglighet. Om värden slutar ge hjärtslag eller en ny nod visas,
de återstående noderna startar konvergensprocess, igen
omfördelning av lasten. Balansering kan genomföras på ett av två sätt
lägen:

1) unicast– unicast när istället för en fysisk MAC
MAC för den virtuella klusteradaptern används. I det här fallet är det inte klusternoderna
kan utbyta data med varandra med hjälp av MAC-adresser endast via IP
(eller en andra adapter som inte är associerad med klustret);

Endast ett av dessa lägen bör användas inom ett enda kluster.

Kan anpassas flera NLB-kluster på en nätverksadapter,
specificera särskilda regler för hamnar. Sådana kluster kallas virtuella. Deras
applikation gör det möjligt att ställa in för varje applikation, nod eller IP-adress
specifika datorer i det primära klustret, eller blockera trafik för
vissa program utan att påverka trafiken för andra program som körs
på denna nod. Eller omvänt, en NLB-komponent kan vara bunden till flera
nätverkskort, som gör att du kan konfigurera ett antal oberoende kluster på varje
nod. Du bör också vara medveten om att sätta upp serverkluster och NLB på samma nod
är inte möjligt eftersom de fungerar annorlunda med nätverksenheter.

Administratören kan göra någon form av hybridkonfiguration som har
fördelar med båda metoderna, till exempel genom att skapa ett NLB-kluster och ställa in replikering
data mellan noder. Men replikering utförs inte konstant, utan då och då,
därför kommer informationen om olika noder att skilja sig åt under en tid.

Låt oss avsluta med teorin här, även om vi kan prata om att bygga kluster
under lång tid, listning av möjligheter och sätt att bygga upp, vilket ger olika
rekommendationer och alternativ för specifik implementering. Låt oss lämna alla dessa subtiliteter och nyanser
För Självstudie och låt oss gå vidare till den praktiska delen.

Konfigurera ett NLB-kluster

För organisera NLB-kluster ingen extra programvara krävs, det är allt
produceras med de tillgängliga Win2k3-verktygen. Att skapa, underhålla och övervaka
NLB-kluster använder komponenten "Network Load Balancing Manager"
(Network Load Balancing Manager)
, som finns på fliken
"Administration" "Kontrollpanelen" (NLBMgr-kommando). Eftersom komponenten
"Network Load Balancing" är installerad som en standard Windows-nätverksdrivrutin,
NLB-installation kan också utföras med komponenten "Nätverksanslutningar", i
där motsvarande artikel finns tillgänglig. Men det är bättre att bara använda den första
alternativ, samtidig användning av NLB-hanteraren och "Nätverksanslutningar"
kan leda till oförutsägbara resultat.

NLB Manager låter dig konfigurera och hantera arbete från en plats samtidigt
flera kluster och noder.

Det är också möjligt att installera ett NLB-kluster på en dator med ett nätverk
adapter associerad med nätverksbelastningsbalansering, men detta
i unicast-läge kan NLB-hanteraren på den här datorn inte vara det
används för att styra andra noder, och själva noderna kan inte utbyta
information med varandra.

Nu ringer vi NLB-sändaren. Vi har inga kluster än, så vad har dykt upp
fönstret innehåller ingen information. Välj "Ny" från "Kluster"-menyn och
Vi börjar fylla i fälten i fönstret "Klusterparametrar". I fältet "Inställningar".
Cluster IP-parametrar" ange värdet på den virtuella IP-adressen för klustret, mask
subnät och fullständigt namn. Värdet på den virtuella MAC-adressen är inställt
automatiskt. Precis nedan väljer vi klustrets driftläge: unicast eller
multicast. Var uppmärksam på kryssrutan "Tillåt fjärrkontroll" - in
I alla Microsoft-dokument rekommenderas det starkt att inte använda det i
undvika säkerhetsproblem. Istället bör du använda
avsändare eller på annat sätt fjärrkontroll, till exempel verktygslåda
Windows Management (WMI). Om beslutet att använda det fattas bör du göra det
vidta alla lämpliga åtgärder för att skydda nätverket, täcker dessutom
brandväggs UDP-portar 1717 och 2504.

När du har fyllt i alla fält klickar du på "Nästa". I fönstret "Kluster IP-adresser", när
om det behövs, lägg till ytterligare virtuella IP-adresser som gör det
används av detta kluster. I nästa "Portregler"-fönster kan du
ställ in lastbalansering för en eller för en grupp av hamnar av alla eller
vald IP via UDP- eller TCP-protokoll, samt blockera åtkomst till klustret
specifika portar (som brandväggen inte ersätter). Standardkluster
behandlar förfrågningar för alla portar (0–65365); Det är bättre att begränsa denna lista,
lägger bara till det som verkligen är nödvändigt. Även om du inte vill bråka,
du kan lämna allt som det är. Förresten, i Win2k som standard all trafik
riktad till klustret, bearbetade endast den nod som hade högst prioritet,
de återstående noderna var anslutna endast när den huvudsakliga misslyckades.

Till exempel, för IIS behöver du bara aktivera portarna 80 (http) och 443 (https).
Dessutom kan du göra det så att till exempel skyddade anslutningar bearbetas
Endast vissa servrar på vilka certifikatet är installerat. För att lägga till
ny regel, klicka på "Lägg till", skriv in i dialogrutan som visas
Värd IP-adress, eller om regeln gäller för alla, lämna då kryssrutan
"Allt". I fälten "Från" och "Till" i portintervallet ställer vi in ​​samma värde -
80. Nyckelfältet är "Filtreringsläge" - här
anger vem som ska behandla denna begäran. Det finns tre tillgängliga fält som definierar läget
filtrering: "Flera noder", "Enskild nod" och "Inaktivera detta portintervall".
Att välja "Single Node" betyder att trafik dirigeras till den valda IP-adressen (dator
eller kluster) med det angivna portnumret kommer att behandlas av den aktiva noden,
har den lägsta prioritetsindikatorn (mer om det nedan). Välj "Inaktivera..."
innebär att sådan trafik kommer att kasseras av alla klustermedlemmar.

I filtreringsläget "Flera noder" kan du dessutom ange alternativet
bestämma klientaffinitet för att dirigera trafik från en given klient till
samma klusternod. Det finns tre alternativ: "Ingen", "En" eller "Klass"
C". Att välja den första innebär att varje begäran kommer att besvaras av en godtycklig
nod Men du bör inte använda det om UDP-protokollet är valt i regeln eller
"Både". När du väljer de återstående poängen kommer likheten mellan klienter att bestämmas av
specifikt IP- eller klass C-nätverksområde.

Så, för vår regel med port 80, låt oss välja alternativet
"Flera noder - klass C." Vi fyller i regeln för 443 på samma sätt, men använder
"En nod" så att klienten alltid besvaras av huvudnoden med den lägsta
prioritet. Om avsändaren upptäcker en inkompatibel regel visas den
varningsmeddelande kommer att läggas till i Windows-händelseloggen
motsvarande post.

Anslut sedan till noden för det framtida klustret genom att ange dess namn eller riktiga IP, och
Vi bestämmer vilket gränssnitt som ska kopplas till klusternätverket. I fönstret Alternativ
nod" välj prioritet från listan, ange nätverksinställningar, ställ in initialen
nodtillstånd (kör, stoppad, pausad). Prioritet samtidigt
är en unik nodidentifierare; ju lägre siffra, desto högre prioritet.
Noden med prioritet 1 är huvudservern, i första hand mottagande
paket och fungerar som routinghanterare.

Kryssrutan "Spara tillstånd efter omstart av datorn" låter dig
fel eller omstart av denna nod kommer automatiskt att aktivera den. Efter att ha klickat
På "Ready", kommer en post om det nya klustret att visas i Manager-fönstret, där för nu
det finns en nod.
Att lägga till nästa nod är lika enkelt. Välj "Lägg till nod" från menyn eller
"Anslut till befintlig", beroende på vilken dator
anslutning görs (den är redan en del av klustret eller inte). Sedan i fönstret
ange datorns namn eller adress, om rättigheterna att ansluta är tillräckliga, ny
noden kommer att kopplas till klustret. Till en början kommer ikonen bredvid hans namn att vara
annorlunda, men när konvergensprocessen är klar kommer den att vara densamma som
första datorn.

Eftersom avsändaren visar egenskaperna för noderna vid tidpunkten för dess anslutning, för
För att förtydliga det aktuella tillståndet bör du välja ett kluster och innehållsmeny paragraf
"Uppdatering". Hanteraren kommer att ansluta till klustret och visa uppdaterad data.

Efter installation NLB-kluster glöm inte att ändra DNS-posten till
namnupplösning visade nu klustrets IP.

Ändrar serverbelastning

I den här konfigurationen kommer alla servrar att laddas jämnt (förutom
alternativet "En nod"). I vissa fall är det nödvändigt att omfördela lasten,
placera det mesta av arbetet på en av noderna (till exempel den mest kraftfulla).
För ett kluster kan regler ändras efter att de har skapats genom att välja
i snabbmenyn som visas när du klickar på namnet, välj alternativet "Klusteregenskaper".
Alla inställningar som vi pratade om ovan är tillgängliga här. Menyalternativ
"Node Properties" ger lite fler alternativ. I "Nodalternativ"
du kan ändra prioritetsvärdet för en specifik nod. I "Regler
för portar" kan du inte lägga till eller ta bort en regel; detta är endast tillgängligt på nivån
klunga. Men genom att välja att redigera en specifik regel får vi möjligheten
justera vissa inställningar. Så, med filtreringsläget inställt
"Flera noder" objektet "Ladduppskattning" blir tillgängligt, vilket tillåter
omfördela belastningen till en specifik nod. Standardinställningen är markerad
"Lika", men i "Load Estimation" kan du ange ett annat lastvärde för
specifik nod, i procent av den totala klusterbelastningen. Om läget är aktiverat
filtrering "Enskild nod", i detta fönster visas ny parameter"En prioritet
bearbetning." Med den kan du skapa trafik till en specifik port
kommer att bearbetas först av en nod i klustret och till en annan av andra
Knut.

Händelseloggning

Som nämnts tidigare registrerar nätverksbelastningsbalansering alla
klusteråtgärder och ändringar i Windows-händelseloggen. Att se dem
välj "Event Viewer – System", NLB inkluderar WLBS-meddelanden (från
Windows Load Balancing Service, som denna tjänst hette i NT). Dessutom i
avsändarfönstret visar de senaste meddelandena som innehåller information om fel
och om alla konfigurationsändringar. Som standard är denna information inte
är sparad. För att den ska skrivas till en fil, välj "Alternativ ->
Loggningsalternativ", markera kryssrutan "Aktivera loggning" och ange ett namn
fil. Ny fil kommer att skapas i en underkatalog till ditt konto i Dokument
och Inställningar.

Konfigurera IIS med replikering

Ett kluster är ett kluster, men utan en tjänst är det ingen mening. Låt oss därför lägga till IIS (Internet
Informationstjänster)
. IIS-servern ingår i Win2k3, men att koka ner det till
minimerar risken för attacker på servern, den är inte installerad som standard.

Det finns två sätt att installera IIS: via kontrollpanelen eller
rollhanteringsguiden av denna server. Låt oss titta på den första. Låt oss gå till
"Kontrollpanelen - Lägg till eller ta bort program"
Ta bort program), välj "Installera Windows-komponenter" (Lägg till/ta bort Windows
Komponenter). Gå nu till "Application Server" -objektet och kolla in "Tjänster"
IIS" är allt som behövs. Som standard är serverns arbetskatalog \Inetpub\wwwroot.
När det är installerat kan IIS mata ut statiska dokument.

Introduktion

Ett serverkluster är en grupp oberoende servrar som hanteras av Cluster-tjänsten som arbetar tillsammans som ett enda system. Serverkluster skapas genom att kombinera flera Windows® 2000 Advanced Server och Windows 2000-servrar Datacenterserver För samarbete, vilket ger höga nivåer av tillgänglighet, skalbarhet och hanterbarhet för resurser och applikationer.

Syftet med ett serverkluster är att säkerställa kontinuerlig användaråtkomst till applikationer och resurser i fall av hårdvaru- eller mjukvarufel eller planerade utrustningsavstängningar. Om en av klusterservrarna är otillgänglig på grund av ett fel eller avbrott för exekvering Underhåll, informationsresurser och applikationer omfördelas mellan de återstående tillgängliga klusternoderna.

För klustersystem används termen " hög tillgänglighet"är att föredra framför att använda termen " feltolerans", eftersom feltoleransteknologier kräver en högre nivå av utrustningens motståndskraft mot yttre påverkan och återställningsmekanismer. Feltoleranta servrar använder som regel en hög grad av hårdvaruredundans, plus dessutom specialiserad programvara som möjliggör nästan omedelbar återställning i händelse av ett enskilt program- eller mjukvarufel. hårdvara. Dessa lösningar är betydligt dyrare jämfört med användningen av klusterteknologier, eftersom organisationer tvingas betala för mycket för ytterligare hårdvara, som är inaktiv för det mesta och endast används vid fel. Feltoleranta servrar används för applikationer som hanterar stora volymer av värdefulla transaktioner inom områden som betalningscentraler, uttagsautomater eller börser.

Även om Cluster-tjänsten inte garanterar drifttid, ger den en hög tillgänglighet som är tillräcklig för att köra de flesta verksamhetskritiska applikationer. Cluster-tjänsten kan övervaka prestandan för applikationer och resurser, automatiskt känna igen feltillstånd och återställa systemet när de är lösta. Detta ger en mer flexibel arbetsbelastningshantering inom klustret och ökar tillgängligheten för systemet som helhet.

De huvudsakliga fördelarna med att använda Cluster-tjänsten är:

  • Hög tillgänglighet. Om någon nod misslyckas överför Cluster-tjänsten kontroll över resurser som t.ex. hårddiskar och nätverksadresser för den aktiva klusternoden. När ett mjukvaru- eller hårdvarufel inträffar startar klusterprogramvaran om den misslyckade applikationen på den fungerande noden, eller flyttar hela belastningen av den misslyckade noden till de återstående fungerande noderna. Användare kanske bara märker en kort fördröjning i tjänsten.
  • Återbetalning efter avslag. Cluster-tjänsten omfördelar automatiskt arbetsbelastningen i klustret när en misslyckad nod blir tillgänglig igen.
  • Styrbarhet. Cluster Administrator är en snap-in som du kan använda för att hantera ditt kluster som enhetligt system, såväl som för applikationshantering. Klusteradministratören ger en transparent bild av hur applikationer körs som om de kördes på samma server. Du kan flytta applikationer till olika servrar inom ett kluster genom att dra och släppa klusterobjekt med musen. Du kan flytta data på samma sätt. Den här metoden kan användas för att manuellt fördela arbetsbelastningen på servrar, samt för att ladda ner servern och sedan stoppa den för schemalagt underhåll. Dessutom låter klusteradministratören dig fjärrövervaka klustrets tillstånd, alla dess noder och resurser.
  • Skalbarhet. För att säkerställa att klusterprestanda alltid kan hålla jämna steg med ökande krav, har Cluster-tjänsten skalningsmöjligheter. Om den övergripande klustrets prestanda blir otillräcklig för att hantera belastningen som genereras av klustrade applikationer, kan ytterligare noder läggas till i klustret.

Det här dokumentet innehåller instruktioner för installation av Cluster-tjänsten på servrar som körs Windows kontroll 2000 Advanced Server och Windows 2000 Datacenter Server, och beskriver processen för att installera klustertjänsten på klusternodservrar. Den här guiden beskriver inte hur du installerar och konfigurerar klustrade applikationer, utan går bara igenom hela processen med att installera ett enkelt tvånodskluster.

Systemkrav för att skapa ett serverkluster

Följande checklistor hjälper dig att förbereda dig för installationen. Steg för steg instruktioner Installationsanvisningar kommer att presenteras under dessa listor.

Programvarukrav

  • Operations rum Microsoft system Windows 2000 Advanced Server eller Windows 2000 Datacenter Server installerad på alla servrar i klustret.
  • En installerad namnupplösningstjänst som t.ex Domännamn System (DNS), Windows Internet Naming System (WINS), HOSTS, etc.
  • Terminalserver för fjärradministration av kluster. Detta krav är inte obligatoriskt, utan rekommenderas endast för att säkerställa enkel klusterhantering.

Hårdvarukrav

  • Hårdvarukraven för klusternoden är desamma som för installation av operativsystemen Windows 2000 Advanced Server eller Windows 2000 Datacenter Server. Dessa krav finns på söksidan Microsoft katalog.
  • Klusterhårdvaran måste vara certifierad och listad på Microsoft Hardware Compatibility List (HCL) för klustertjänsten. Senaste versionen denna lista finns på söksidan Lista över maskinvarukompatibilitet för Windows 2000 Microsoft-katalogen genom att välja sökkategorin "Kluster".

Två HCL-kompatibla datorer, var och en med:

  • HDD med en startbar systempartition och operativsystemet Windows 2000 Advanced Server eller Windows 2000 Datacenter Server installerat. Denna enhet bör inte anslutas till den delade lagringsbussen, som diskuteras nedan.
  • Separat PCI Fibre Channel- eller SCSI-enhetskontroll för anslutning av en extern delad lagringsenhet. Denna regulator måste finnas förutom regulatorn startdiskett.
  • Två nätverks-PCI-adaptrar installerade på varje dator i klustret.
  • En HCL-listad extern disklagringsenhet som är ansluten till alla noder i klustret. Den kommer att fungera som en klusterdisk. Konfiguration med hårdvaru-RAID-arrayer rekommenderas.
  • Kablar för att ansluta en gemensam lagringsenhet till alla datorer. Se tillverkarens dokumentation för instruktioner om hur du konfigurerar lagringsenheter. Om anslutningen görs till SCSI-bussen kan du referera till Bilaga A för ytterligare information.
  • All utrustning på klusterdatorerna måste vara helt identisk. Detta kommer att förenkla konfigurationsprocessen och eliminera potentiella kompatibilitetsproblem.

Krav för att ställa in nätverkskonfiguration

  • Ett unikt NetBIOS-namn för klustret.
  • Fem unika statiska IP-adresser: två adresser för privata nätverkskort, två för offentliga nätverkskort och en adress för klustret.
  • Domän konto för klustertjänsten (alla klusternoder måste vara medlemmar av samma domän)
  • Varje nod måste ha två nätverksadaptrar - en för anslutning till det offentliga nätverket, en för intra-klusterkommunikation av noder. Konfiguration med en enda nätverksadapter för att ansluta till både ett offentligt och privat nätverk samtidigt stöds inte. Att ha en separat nätverksadapter för det privata nätverket krävs för att uppfylla HCL-kraven.

Krav på delad lagringsdisk

  • Alla delade lagringsdiskar, inklusive kvorumdisken, måste vara fysiskt anslutna till den delade bussen.
  • Alla diskar som är anslutna till den delade bussen måste vara åtkomliga för varje nod. Detta kan kontrolleras under installationen och konfigurationen av värdadaptern. För detaljerade instruktioner Se adapterns tillverkares dokumentation.
  • SCSI-enheter måste tilldelas unika SCSI-ID-nummer och terminatorer måste installeras korrekt på SCSI-bussen, enligt tillverkarens instruktioner. 1
  • Alla delade lagringsdiskar måste konfigureras som grundläggande diskar (inte dynamiska)
  • Alla diskpartitioner för delad lagringsenhet måste formateras som filformat. NTFS-system.

Det rekommenderas starkt att kombinera alla delade lagringsenheter till hårdvaru-RAID-arrayer. Även om det inte krävs, är att skapa feltoleranta RAID-konfigurationer nyckeln till att skydda mot diskfel.

Klusterinstallation

Allmän installationsöversikt

Under installationsprocessen kommer vissa noder att stängas av och vissa kommer att startas om. Detta är nödvändigt för att säkerställa integriteten hos data som finns på diskar anslutna till den externa lagringsenhetens gemensamma buss. Datakorruption kan uppstå när flera noder samtidigt försöker skriva till samma disk som inte är skyddad av klusterprogramvaran.

Tabell 1 hjälper dig att avgöra vilka noder och lagringsenheter som ska aktiveras vid varje installationssteg.

Den här guiden beskriver hur man skapar ett kluster med två noder. Men om du ställer in ett kluster med fler än två noder kan du använda kolumnvärdet "Nod 2" för att bestämma tillståndet för de återstående noderna.

Tabell 1. Sekvens för att slå på enheter vid installation av ett kluster

Steg Nod 1 Nod 2 Lagringsenhet En kommentar
Ställa in nätverksinställningar Av Se till att alla lagringsenheter som är anslutna till den gemensamma bussen är avstängda. Slå på alla noder.
Konfigurera delade enheter Av Stäng av alla noder. Slå på den delade lagringsenheten och slå sedan på den första noden.
Kontrollerar konfigurationen av delade enheter Av Stäng av den första noden, slå på den andra. Upprepa för nod 3 och 4 om det behövs.
Konfigurera den första noden Av Stäng av alla noder; slå på den första noden.
Konfigurera den andra noden Efter att ha konfigurerat den första noden, slå på den andra noden. Upprepa för nod 3 och 4 om det behövs.
Slutför installationen Vid denna tidpunkt bör alla noder vara påslagna.

Före installation programvara kluster du behöver för att utföra följande steg:

  • Installera ett operativsystem på varje dator i klustret Windows-system 2000 Advanced Server eller Windows 2000 Datacenter Server.
  • Konfigurera nätverksinställningar.
  • Konfigurera delade lagringsenheter.

Slutför dessa steg på varje nod i klustret innan du installerar Cluster-tjänsten på den första noden.

För att konfigurera klustertjänsten på en Windows 2000-server måste ditt konto ha administratörsrättigheter på varje nod. Alla klusternoder måste vara antingen medlemsservrar eller kontroller av samma domän. Blandad användning av medlemsservrar och domänkontrollanter i ett kluster är oacceptabelt.

Installation av operativsystemet Windows 2000

För Windows installationer 2000 på varje klusternod, se dokumentationen som du fick med ditt operativsystem.

Detta dokument använder namnstrukturen från manualen "Steg-för-steg-guide till en gemensam infrastruktur för Windows 2000 Server-distribution". Du kan dock använda vilka namn som helst.

Innan du börjar installera Cluster-tjänsten måste du logga in som administratör.

Konfigurera nätverksinställningar

Notera: Vid denna tidpunkt i installationen, stäng av alla delade lagringsenheter och slå sedan på alla noder. Du måste förhindra att flera noder får åtkomst till en delad lagringsenhet samtidigt tills klustertjänsten är installerad på minst en nod och den noden är påslagen.

Varje nod måste ha minst två nätverkskort installerade - en för att ansluta till det offentliga nätverket och en för att ansluta till det privata nätverket som består av klusternoder.

Den privata nätverksadaptern tillhandahåller kommunikation mellan noder, rapportering av klustrets aktuella tillstånd och hantering av klustret. Varje nods offentliga nätverksadapter ansluter klustret till det publika nätverket som består av klientdatorer.

Se till att alla nätverkskort är fysiskt anslutna korrekt: privata nätverkskort är anslutna endast till andra privata nätverkskort och offentliga nätverkskort är anslutna till offentliga nätverksväxlar. Anslutningsschemat visas i figur 1. Utför detta test på varje klusternod innan du fortsätter att konfigurera de delade lagringsdiskarna.

Figur 1: Exempel på ett kluster med två noder

Konfigurera en privat nätverksadapter

Slutför dessa steg på den första noden i ditt kluster.

  1. Min nätverksmiljö och välj ett lag Egenskaper.
  2. Högerklicka på ikonen.

Notera: Vilken nätverksadapter som ska betjäna ett privat nätverk och vilket offentligt beror på nätverkskablarnas fysiska anslutning. I det här dokumentet Vi antar att den första adaptern (Local Connection) är ansluten till det offentliga nätverket och den andra adaptern (Local Connection 2) är ansluten till klustrets privata nätverk. I ditt fall kanske detta inte är fallet.

  1. Stat. Fönster Status LAN-anslutning 2 visar anslutningsstatus och dess hastighet. Om anslutningen är i frånkopplat tillstånd, kontrollera kablarna och anslutningarna. Åtgärda problemet innan du fortsätter. Klicka på knappen Stänga.
  2. Högerklicka på ikonen igen LAN-anslutning 2, välj ett kommando Egenskaper och tryck på knappen Ställa in.
  3. Välj en flik Dessutom. Fönstret som visas i figur 2 kommer att visas.
  4. För nätverkskort för privata nätverk måste hastigheten ställas in manuellt istället för standardvärdet. Ange din nätverkshastighet i rullgardinsmenyn. Använd inte värden "Auto Sense" eller "Välj automatiskt" för att välja hastighet, eftersom vissa nätverkskort kan tappa paket medan anslutningshastigheten bestäms. För att ställa in nätverksadapterns hastighet, ange det faktiska värdet för parametern Kopplingstyp eller Fart.

Figur 2: Ytterligare nätverkskortinställningar

Alla klusternätverksadaptrar som är anslutna till samma nätverk måste konfigureras identiskt och använda samma parametervärden Duplexläge, Flödeskontroll, Kopplingstyp, etc. Även om olika nätverksutrustning används på olika noder, måste värdena för dessa parametrar vara desamma.

  1. Välj Internetprotokoll (TCP/IP) i listan över komponenter som används av anslutningen.
  2. Klicka på knappen Egenskaper.
  3. Ställ omkopplaren i läge Använd följande IP-adress och ange adressen 10.1.1.1 . (För den andra noden, använd adressen 10.1.1.2 ).
  4. Ställ in subnätmasken: 255.0.0.0 .
  5. Klicka på knappen Dessutom och välj en flik VINNER. Ställ omkopplarvärdet i position Inaktivera NetBIOS över TCP/IP. Klick OK för att återgå till föregående meny. Utför detta steg endast för den privata nätverksadaptern.

Din dialogruta bör se ut som figur 3.

Figur 3: IP-adress för privat nätverksanslutning

Konfigurera en offentlig nätverksadapter

Notera: Om en DHCP-server körs på ett offentligt nätverk kan IP-adressen för nätverksadaptern på det offentliga nätverket tilldelas automatiskt. Den här metoden rekommenderas dock inte för klusternodadaptrar. Vi rekommenderar starkt att du tilldelar permanenta IP-adresser till alla offentliga och privata värdnätverkskort. Annars, om DHCP-servern misslyckas, kan åtkomst till klusternoderna vara omöjlig. Om du tvingas använda DHCP för nätverkskort i ett offentligt nätverk, använd långa villkor adressleasing - detta säkerställer att den dynamiskt tilldelade adressen förblir giltig även om DHCP-servern är tillfälligt otillgänglig. Tilldela alltid permanenta IP-adresser till privata nätverkskort. Kom ihåg att klustertjänsten bara kan känna igen ett nätverksgränssnitt per subnät. Om du behöver hjälp med att tilldela nätverksadresser i Windows 2000, se operativsystemets inbyggda hjälp.

Byta namn på nätverksanslutningar

För tydlighetens skull rekommenderar vi att du ändrar namnen på dina nätverksanslutningar. Du kan till exempel ändra namnet på anslutningen LAN-anslutning 2. Den här metoden hjälper dig att lättare identifiera nätverk och korrekt tilldela deras roller.

  1. Högerklicka på ikonen 2.
  2. Välj kommandot i snabbmenyn Döp om.
  3. Stiga på Anslut till klustrets privata nätverk i textfältet och tryck på knappen STIGA PÅ.
  4. Upprepa steg 1-3 och ändra anslutningens namn Lan-anslutningAnslut till ett offentligt nätverk.

Figur 4: Omdöpta nätverksanslutningar

  1. De omdöpta nätverksanslutningarna ska se ut som i figur 4. Stäng fönstret Nätverk och Fjärranslutning till nätverket. Nya nätverksanslutningsnamn replikeras automatiskt till andra noder i klustret när de slås på.

Undersökning nätverkskopplingar och namnupplösning

För att testa funktionen för den konfigurerade nätverksutrustningen, utför följande steg för alla nätverkskort på varje nod. För att göra detta måste du känna till IP-adresserna för alla nätverkskort i klustret. Du kan få denna information genom att köra kommandot ipconfig på varje nod:

  1. Klicka på knappen Start, Välj lag Kör och skriv kommandot cmd i textfönstret. Klick OK.
  2. Skriv kommandot ipconfig /all och tryck på knappen STIGA PÅ. Du kommer att se IP-prför varje nätverkskort på lokal maskin.
  3. Om ditt fönster ännu inte är öppet kommandorad, följ steg 1.
  4. Skriv kommandot ping ipaddress Var IP-adressär IP-adressen för motsvarande nätverksadapter på en annan nod. Anta till exempel att nätverksadaptrarna har följande IP-adresser:
Nodnummer Nätverksanslutningens namn Nätverksadapterns IP-adress
1 Ansluter till ett offentligt nätverk 172.16.12.12
1 Anslut till klustrets privata nätverk 10.1.1.1
2 Ansluter till ett offentligt nätverk 172.16.12.14
2 Anslut till klustrets privata nätverk 10.1.1.2

I det här exemplet måste du köra kommandona ping 172.16.12.14 Och ping 10.1.1.2 från nod 1 och kör kommandona ping 172.16.12.12 Och ping 10.1.1.1 från nod 2.

För att kontrollera namnupplösning, kör kommandot ping, med datorns namn som argument istället för dess IP-adress. För att till exempel kontrollera namnupplösningen för den första klusternoden med namnet hq-res-dc01, kör kommandot ping hq-res-dc01 från vilken klientdator som helst.

Kontrollerar domänmedlemskap

Alla klusternoder måste vara medlemmar av samma domän och ha nätverkskapacitet med en domänkontrollant och DNS-server. Noder kan konfigureras som medlemsdomänservrar eller som kontroller för samma domän. Om du bestämmer dig för att göra en av noderna till en domänkontrollant, måste alla andra noder i klustret också konfigureras som domänkontrollanter för samma domän. Den här guiden förutsätter att alla värdar är domänkontrollanter.

Notera: För länkar till ytterligare dokumentation om hur du konfigurerar domäner, DNS-tjänster och DHCP i Windows 2000, se avsnitt Relaterade resurser i slutet av detta dokument.

  1. Högerklicka Min dator och välj ett lag Egenskaper.
  2. Välj en flik Nätverksidentifiering. I dialogrutan Systemets egenskaper Du kommer att se hela datorn och domännamnet. I vårt exempel kallas domänen reskit.com.
  3. Om du har konfigurerat noden som en medlemsserver kan du i detta skede ansluta den till domänen. Klicka på knappen Egenskaper och följ instruktionerna för att ansluta datorn till domänen.
  4. Stäng fönstrerna Systemets egenskaper Och Min dator.

Skapa ett klustertjänstkonto

För Cluster-tjänsten måste du skapa ett separat domänkonto under vilket det kommer att lanseras. Installationsprogrammet kräver att du anger autentiseringsuppgifter för Cluster-tjänsten, så ett konto måste skapas innan du installerar tjänsten. Kontot får inte ägas av någon domänanvändare och får endast användas för att köra klustertjänsten.

  1. Klicka på knappen Start, välj ett kommando Program / Administration, kör snapin-modulen.
  2. Utöka kategori reskit.com, om den ännu inte har distribuerats
  3. Välj från listan Användare.
  4. Högerklicka på Användare, välj från snabbmenyn Skapa, Välj Användare.
  5. Ange ett namn för klustertjänstkontot som visas i figur 5 och klicka Ytterligare.

Figur 5: Lägga till en klusteranvändare

  1. Markera rutorna Förhindra användaren från att ändra lösenord Och Lösenordet har inget utgångsdatum. Klicka på knappen Ytterligare och en knapp Redo för att skapa en användare.

Notera: Om din administrativa säkerhetspolicy inte tillåter lösenord som aldrig upphör att gälla, måste du uppdatera lösenordet och konfigurera Cluster-tjänsten på varje nod innan den löper ut.

  1. Högerklicka på användaren Klunga i det högra verktygsfältet Active Directory– användare och datorer.
  2. Välj kommandot i snabbmenyn Lägg till medlemmar i en grupp.
  3. Välj grupp Administratörer och tryck OK. Det nya kontot har nu administratörsbehörighet på lokal dator.
  4. Stäng snäppet Active Directory - användare och datorer.

Konfigurera delade lagringsenheter

Varning: Se till att minst en av klusternoderna kör operativsystemet Windows 2000 Advanced Server eller Windows 2000 Datacenter Server och att klustertjänsten är konfigurerad och körs. Först efter detta kan du ladda ner operativ system Windows 2000 på andra noder. Om dessa villkor inte uppfylls kan klusterskivorna skadas.

För att börja konfigurera delade lagringsenheter, stäng av alla noder. Slå sedan på den delade lagringsenheten och slå sedan på nod 1.

Quorum disk

Kvorumdisken används för att lagra kontrollpunkter och återställningsloggfiler för klusterdatabasen, vilket ger klusterhantering. Vi ger följande rekommendationer för att skapa en kvorumskiva:

  • Skapa en liten partition (minst 50 MB stor) att använda som en kvorumdisk. Vi rekommenderar generellt att du skapar en kvorumdisk med en storlek på 500 MB.
  • Dedikera en separat skiva för kvorumresursen. Eftersom om en kvorumdisk misslyckas kommer hela klustret att misslyckas, vi rekommenderar starkt att du använder en hårdvarudisk RAID-array.

Under installationen av klustertjänsten kommer du att behöva tilldela en bokstav till kvorumenheten. I vårt exempel kommer vi att använda bokstaven F.

Konfigurera delade lagringsenheter

  1. Högerklicka Min dator, välj ett kommando Kontrollera. Expandera kategorin i fönstret som öppnas Lagringsenheter.
  2. Välj ett lag Diskhantering.
  3. Se till att alla delade lagringsenheter är formaterade som NTFS och har statusen Grundläggande. Om du ansluter en ny enhet startar den automatiskt Disksignering och uppdateringsguide. När guiden startar, klicka på knappen Uppdatering, för att fortsätta sin funktion, efter detta kommer disken att identifieras som Dynamisk. För att konvertera disken till basic, högerklicka på Disk #(Var # – nummer på disken du arbetar med) och välj kommandot Återgå till grunddisken.

Högerklicka område Ej utdelat bredvid motsvarande skiva.

  1. Välj ett lag Skapa ett avsnitt
  2. Kommer att starta Guiden för att skapa partitioner. Tryck på knappen två gånger Ytterligare.
  3. Ange önskad partitionsstorlek i megabyte och klicka på knappen Ytterligare.
  4. Klicka på knappen Ytterligare, accepterar den föreslagna standardenhetsbeteckningen
  5. Klicka på knappen Ytterligare för att formatera och skapa en partition.

Tilldela enhetsbokstäver

Efter att databussen, diskarna och delade lagringspartitionerna har konfigurerats måste du tilldela enhetsbeteckningar till alla partitioner på alla diskar i klustret.

Notera: Anslutningspunkter är funktionalitet filsystem som låter dig installera filsystem använda befintliga kataloger, utan att tilldela en enhetsbeteckning. Monteringspunkter stöds inte av kluster. Några extern enhet som används som en klusterresurs måste partitioneras i NTFS-partitioner, och dessa partitioner måste tilldelas enhetsbeteckningar.

  1. Högerklicka på önskad partition och välj Ändra enhetsbokstav och enhetssökväg.
  2. Välj en ny enhetsbeteckning.
  3. Upprepa steg 1 och 2 för alla delade lagringsenheter.

Figur 6: Diskpartitioner med tilldelade bokstäver

  1. I slutet av proceduren, snap-fönstret Datorhantering ska se ut som i figur 6. Stäng snap-in Datorhantering.
  1. Klicka på knappen Start, Välj Program / Standard, och kör programmet " Anteckningsbok".
  2. Skriv några ord och spara filen under namnet test.txt genom att välja kommandot Spara som från menyn Fil. Stänga Anteckningsbok.
  3. Dubbelklicka på ikonen Mina dokument.
  4. Högerklicka på filen test.txt och välj kommandot i snabbmenyn Kopiera.
  5. Stäng fönstret.
  6. Öppen Min dator.
  7. Dubbelklicka på partitionen för delade lagringsenheter.
  8. Högerklicka och välj kommando Föra in.
  9. En kopia av filen bör visas på den delade lagringsenheten test.txt.
  10. Dubbelklicka på filen test.txt för att öppna den från en delad lagringsenhet. Stäng filen.
  11. Välj filen och tryck på knappen Del för att ta bort en fil från klusterdisken.

Upprepa proceduren för alla diskar i klustret för att säkerställa att de är tillgängliga från den första noden.

Stäng nu av den första noden, slå på den andra noden och upprepa stegen i avsnitt Kontroll av drift och allmänhetens tillgång till diskar. Följ samma steg på alla ytterligare noder. När du är säker på att alla noder kan läsa och skriva information till de delade lagringsenheterna, stäng av alla noder utom den första och fortsätt till nästa avsnitt.

Jag byggde mitt första "kluster" av enkortsdatorer nästan omedelbart efter att Orange Pi PC-mikrodatorn började bli populär. Det skulle kunna kallas ett "kluster" med stor sträckning, för från en formell synvinkel var det bara det lokala nätverket av fyra kort som "såg" varandra och kunde komma åt Internet.

Enheten deltog i SETI@home-projektet och lyckades till och med räkna något. Men tyvärr kom ingen för att hämta mig från den här planeten.
Men under all denna tid som jag pysslade med sladdar, kontakter och microSD-kort lärde jag mig mycket. Så, till exempel, fick jag reda på att du inte borde lita på den deklarerade kraften från strömförsörjningen, att det skulle vara trevligt att fördela belastningen i termer av förbrukning, och trådens tvärsnitt spelar roll.

Och ja, vi var tvungna att "kollektivt bruka" energihanteringssystemet, eftersom den samtidiga starten av fem enkelkortsenheter kan kräva en startström i storleksordningen 8-10A (5*2)! Detta är mycket, speciellt för strömförsörjning tillverkade i landets källare, där vi älskar att beställa alla möjliga... intressanta prylar.

Jag ska nog börja med henne. Uppgiften kom ner till relativt enkla åtgärder - efter en given tidsperiod, slå på 4 kanaler i sekvens genom vilka 5 volt tillförs. Det enklaste sättet att implementera din plan är Arduino (som varje nörd med självrespekt har ett överflöd av) och denna mirakelbräda från Ali med 4 reläer.

Och du vet, det fungerade till och med.

Men klicken i "kylskåpsstil" vid start orsakade visst obehag. För det första, när det fanns ett klick, rann störningar genom strömförsörjningen och det var nödvändigt att installera kondensatorer, och för det andra var hela strukturen ganska stor.

Så en dag bytte jag helt enkelt ut reläblocket mot transistoromkopplare baserade på IRL520.

Detta löste problemet med störningar, men eftersom mosfet kontrollerar "nollan", var jag tvungen att överge mässingsbenen i racket för att inte av misstag ansluta brädornas jord.

Och nu replikeras lösningen perfekt och två kluster fungerar redan stabilt utan några överraskningar. Precis som planerat.

Men låt oss återgå till replikeringen. Varför köpa nätaggregat för en betydande summa pengar när det finns många prisvärda ATX bokstavligen under dina fötter?
Dessutom har de alla spänningar (5,12,3.3), början av självdiagnos och möjligheten till programkontroll.

Tja, jag ska inte gå in för mycket i detalj här - en artikel om att kontrollera ATX via Arduino.

Nåväl, är alla piller uppätna, och frimärkena sitter också fast på? Det är dags att få ihop allt.

Det kommer att finnas en huvudnod som ansluter till omvärlden via WiFi och skickar "Internet" till klustret. Den kommer att drivas av ATX standby-spänning.

Faktum är att TBNG ansvarar för distributionen av Internet.
Så om så önskas kan klusternoder döljas bakom TOR.

Det kommer också att finnas ett knepigt kort kopplat via i2c till denna huvudnod. Den kommer att kunna slå på/stänga av var och en av de 10 arbetarnoderna. Dessutom kommer den att kunna styra tre 12V-fläktar för att kyla hela systemet.

Driftsscenariot är som följer: när ATX slås på vid 220V startar huvudnoden. När systemet är klart för drift, slår det på alla 10 noder och fläktar sekventiellt.
När växlingsprocessen är klar kommer huvudnoden att gå runt varje fungerande nod och fråga hur vi mår, vad är temperaturen. Om ett av ställen blir varmt, öka luftflödet.
Tja, med ett avstängningskommando kommer var och en av noderna att vara försiktigt avstängda och strömlösa.

Jag ritade tavlan själv, så det ser läskigt ut. En välutbildad person tog dock på sig spårningen och tillverkningen, vilket vi tackar honom så mycket för.

Här håller den på att monteras

Här är en av de första skisserna av klusterkomponenternas placering. Gjord på ett rutigt papper och förevigat via Office Lens vid telefonen.

Hela strukturen är placerad på ett ark textolit som köpts för tillfället.

Ungefär så ser placeringen av noderna inuti ut. Två rack med fem kort vardera.

Här kan du se Arduino-kontrollen. Den är ansluten till huvudet Orange Pi Pc via i2c via en nivåomvandlare.

Tja, här är den sista (nuvarande versionen).

Så allt du behöver är att skriva flera verktyg i Python som skulle leda all denna musik - slå på den, slå på den och reglera fläkthastigheten.

Jag ska inte tråka ut dig med tekniska detaljer - det ser ut ungefär så här:

1
2
3
4
5
6
7
8
#!/usr/bin/env sh

echo "Startar ATX-kort..."
/home/zno/i2creobus/i2catx_tool.py --start
eko "Ställer in initiala fläktvärden..."
/home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60
/home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60

Eftersom vi redan har så många som 10 noder använder vi Ansible, vilket hjälper till att till exempel stänga av alla noder korrekt. Eller kör en temperaturvakt på varje.

1
2
3
4
5
6
7
8
---

- värdar: arbetare
roller:
- webmon_stop
- webmon_remove
- webmon_install
- webmon_start

Jag anklagas ofta i en avvisande ton och säger att det här bara är ett lokalt nätverk med en platta (som jag redan nämnde i början). I allmänhet bryr jag mig inte ett dugg om andras åsikter, men vi kanske lägger till lite glamour och organiserar ett hamnarsvärmkluster.
Uppgiften är mycket enkel och kan utföras på mindre än 10 minuter. Sedan lanserar vi en instans av Portainer på huvudnoden, och voila!

Nu kan du verkligen skala uppgifter. Så, in det här ögonblicket Klustret driver Verium Reserves kryptovalutaminer. Och ganska framgångsrikt. Jag hoppas att den närmaste personen kommer att få tillbaka den förbrukade elen;) Tja, eller minska antalet involverade noder och bryta något annat som Turtle Coin.

Om du vill ha en nyttolast kan du slänga in Hadoop i klustret eller ordna balansering av webbservrar. Det finns många färdiga bilder på Internet, och det finns tillräckligt med utbildningsmaterial. Tja, om bilden (dockarbilden) saknas kan du alltid bygga din egen.

Vad lärde detta mig? I allmänhet är tekniken "stacken" mycket bred. Döm själv - Docker, Ansible, Python, uppgradering av Arduino (Gud förlåt mig, det kommer inte att sägas på natten) och skalet, förstås. Och även KiCad och att arbeta med en entreprenör :).

Vad kan göras bättre? Mycket. På mjukvarusidan skulle det vara trevligt att skriva om kontrollverktyg i Go. Förresten - gör det mer steampunkish - KDPV i början höjer ribban perfekt. Så det finns något att jobba på.

Roller utförda av:

  • Head node - Orange Pi PC med usb wifi.
  • Fungerande noder - Orange Pi PC2 x 10.
  • Nätverk - 100 Mbit TP-link@16ports.
  • Brain - Arduino-klon baserad på Atmega8 + nivåomvandlare.
  • Hjärtat är en ATX-strömkontroller med strömförsörjning.
  • Programvara (själ) - Docker, Ansible, Python 3, lite skal och lite lättja.
  • Tiden som spenderas är ovärderlig.

Under experimenten skadades ett par Orange Pi PC2-kort på grund av en blandad strömförsörjning (de brinner väldigt vackert), en annan PC2 tappade Ethernet (detta är en separat historia där jag inte förstår fysiken i processen) .

Det verkar vara hela historien "från topp till botten." Om någon tycker att det är intressant, ställ frågor i kommentarerna. Och rösta på frågor där (rösta upp - varje kommentar har en knapp för detta). De mest intressanta frågorna kommer att behandlas i nya anteckningar.
Tack för att du läste till slutet.

TBVPFBFSH OM PDOPK NBYYOE HCE OE NPDP
YMY DEMBEN LMBUFET CH DPNBOYI HUMPCHYSI.

1. hCHEDEOYE

noPZYE Y CHBU YNEAF CH MPLBMSHOPK UEFY OUEULPMSHLP Linux NBIYO, U RTBLFYUEULY CHUEZDB UCHPVPDOSCHN RTPGEUUPTPN. fBLCE NOPZIE UMSHCHYBMY P UYUFENBI, CH LPFPTSCHI NBYOSCH PVAEDEOSAFUS CH PDYO UKHRETLPNRSHAFET. OP TEBMSHOP NBMP LFP RTPVPCHBM RTPCHPDYFSH FBLYE LURETYNEOFSHCH UEWS OM TBVPFE YMY DPNB. dBChBKFE RPRTPVKHEN CHNEUFE UPVTBFSH OEVPMSHYPK LMBUFET. rPUFTPYCH LMBUFET CHSC UNPTSEFE TEBMSHOP HULPTYFSH CHSHRPMOEOYE YUBUFY ЪBDBU. OBRTYNET LPNRYMSGYA YMY PDOPCHTENEOOHA TBVPFKH OULPMSHLYI TEUKHTUPENLYI RTPGEUUPCH. h LFK UFBFSHE S RPUFBTBAUSH TBUULBBFSH CHBN LBL NPTsOP VEY PUPVSHCHI HUIMYK PVAEDEOYFSH NBYOSHCH UCHPEK MPLBMSHOPK UEFFY CH EDYOSCHK LMBUFET OM VBJE MOSIX.

2. lBL, UFP Y HÄR.

MOSIX - LFP RBFYu DMS SDTB Linux U LPNRMELFPN HFYMYF, LPFPTSHCHK RPJCHPMSEF RTPGEUUBN U CHBYEK NBYOSCH RETEIPDIFSH (NYZTYTPCHBFSH) OM DTHZIE HOMSH MPLBMSHOPK UEFI. chЪSFSH EZP NPTsOP RP BDTEUH HTTP://www.mosix.cs.huji.ac.il B TBURTPUFTBOSEFUS PÅ CH YUIPDOSCHI LPBI RPD MYGEOYEK GPL. rBFYUY UKHEEUFCHHAF DMS CHUEI SDT YJ UFBVYMSHOPK CHEFLY Linux.

3. hUFBOPCHLB RTPZTBNNOPZP PVEUREYUEOOYS.

h OBYUBME KHUFBOPCHLY IPYUH RPTELPNEODPCHBFSH CHBN ЪBVYTBFSH U KHMB MOSIX OE FPMSHLP EZP, OP Y UPRHFUFCHHAEYE KHFYMYFSH - mproc, mexec Y DT.
h BTIYCHE MOSIX EUFSH HUFBOPCHPYuOSCHK ULTYRF mosix_install. OE ЪБВХДШФЭ Х ПВСЪБ FEMSHOPN RPTSDLE TBURBLLPCHBFSH YUIPDOSHE LPDSCH SDTB CH /usr/src/linux-*.*.*, OBRTYNET LBL UDEMBM S - CH/linBR3/sr. installera Y PFCHEYUBEFE OM CHUE EZP CHPRPTUSCH, KHLBIBCH ENKH UCHPK NEOEDTSET ЪБЗТХЪЛй (LILO), RХФШ Л YUIPDOILBN SDTB Y KHTPCHOY ЪBRХУЛБ.
rTY OBUFTPKLE SDTB CHLMAYUYFE PRGYY CONFIG_MOSIX, CONFIG_BINFMT_ELF Y CONFIG_PROC_FS. CHUE LFY PRGYY RPDTPVOP PRYUBOSCH CH THLPCHPDUFCHE RP HUFBOPCHL MOSIX.
HUFBOPCHYMY? OH YFP TSE - RETEZTHTSBKFE CHBY Linux U OPCHSHCHN SDTPN, OBCHBOYE LFPTPZP PUEOSH VHDEF RPIPTSE OM mosix-2.2.13.

4. om BUFTPKLB

yЪOBYUBMSHOP KHUFBOPCHMEOOSHCHK MOSIX UPCHETYEOOOP OE OBEF, LBLYE X CHBU NBYOSCH CH UEFI Y U LENE ENKH UPEDEOSFUS. OH B OBUFTBYCHBEFUS LFP PYUEOSH RTPUFP. eUMY CHCH FPMSHLP RPUFBCHYMY mosix Y EUMY CHBY DIUFTYVHFYCH - SuSE YMY RedHat - UPCHNEUFYNSCHK, FP ЪBIPDYFE CH LBFBMPZ /etc/rc.d/init.d Y DBCHBKFE start LPNBODH mosix. rTY RETCHPN ЪBRHULE LFPF ULTYRF RTPUIF CHBU OBUFTPIFS MOSIX Y ЪBRKHULBEF FELUFPCHSHCHK TEDBLFPT DMS UPЪDBOYS ZhBKMB /etc/mosix.map, Ch LPFPTPN OBIPDFYFUS URYUPL CHLMFEEZ. fKhDB RTPRYUSCHBEN: CH UMKHYUBE, EUMY KH CHBU CHUEZP DCHE-FTY NBYOSCH Y YI IP-BDTEUB UMEDHAF
DTHZ ЪB DTHZPN RP OPNETBGYY RYYEN FBL:



1 10.152.1.1 5

här RETCHSHCHK RBTBNEFT PVPOBYUBEF OPNET OBYUBMSHOPZP KHMB, CHFPTPK - IP BDTEU RETCHPZP KHMB Y RPUMEDOYK - LPMYUEUFChP KHMPCH U FELHEZP. f.E. UEKYBU KH OBUC H LMBUFETE PMKHYUBEFUS RSFSH KHMPCH, IP BDTEUB LPFPTSHCHK BLBOYUYCHBAFUS OB 1, 2, 3, 4 Y 5.
YMY DTHZPK RTYNET:

oPNET KHMB IP LPMYUEUFChP KHMPCH U FELHEZP
______________________________________
1 10.152.1.1 1
2 10.150.1.55 2
4 10.150.1.223 1

h LFK LPOZHYZHTBGYY NSCH RPMKHYUN UMEDHAEIK TBULMBD:
IP 1-ПЗП ХЪМБ 10.150.1.1
IP 2-ПЗП ХЪМБ 10.150.1.55
IP 3-ПЗП ХЪМБ 10.150.1.56
IP 4-ПЗП ХЪМБ 10.150.1.223
FERETSH OHTSOP OM CHUEI NBYOBI VKHDHEEZP LMBUFETB KHUFBOPCHYFSH MOSIX Y UPJDBFSH CHEDE PDOBLPCCHCHK LPOZHYZHTBGYPOOSCHK ZHBKM /etc/mosix.map .

FERETSH RPUME RETEBRKHULB mosix CHBYB NBYOB KhCE VKhDEF TBVPFBFSH CH LMBUFETE, YuFP NPTsOP KHCHYDEFSH ЪBRKHUFYCH NPOYFPT LPNBODPK mån. h UMHYUBE, EUMY CHSHCHHCHYDYFE H NPOYFPTE FPMSHLP UCHPA NBYOKH YMY CHPPVEE OE KHCHYDYFE OYLPZP, FP, LBL ZPCHPTYFUS - OBDP TSCHFSH. ULPTEE CHUEZP X CHBU PYYVLB YNEOOP CH /etc/mosix.map.
OH CHPF, HCHYDYMY, OP OE RPVEDYMY. YuFP DBMSHYE? b DBMSHYE PYUEOSH RTPUFP:-) - OHTsOP UPVTBFSH KhFYMYFSH DMS TBVPFSH U YЪNEOOOSCHN /proc YЪ RBLEFB mproc. hög YS NYOINBMSHOPK ЪBZTHYLY RTPGEUUPTB KHMB, RPUME LPFPTPK RTPGEUUSH OBUYOBAF NYZTYTPCHBFSH OM DTHZYE MOSIX - KHMSHCH .
ъBRKHULBEN mtop, CHSHCHVYTBEN RPOTBCHYCHYYKUS OE URSEIK RTPGEUU (TELPNEODHA ЪBRKHUFYFSH bzip) Y UNEMP DBCHYN LMBCHYYKH "g" OM CHBYEK LMBCHYBFKHTE, RPUM CHPUZB BUCHP ZUPP PUZZYP PUZZJ EUFCHES TSETFCHSH RTPGEUUB Y ЪBFEN - OPNET KHMB, LHDB NSCH IFYN EZP PFRTBCHYFSH. b HCE RPUME bFPZP CHOINBFEMSHOP RPUNPFTYFE OM TEKHMSHFBFSCH, PFPVTBTSBENSHCHE LPNBODPK mån - FB NBYOB DPMTSOB OBYUBFSH VTBFSH OM UEVS OBZTHLKH CHSHVTBOOPZP RTPGEUUB.
b UPVUFCHOOOP mtop - CH RPME #N PFPVTBTSBFSH OPNET KHMB, HÄR PÅ CHSHHRPMOSEFUS.
oP LFP EEE OE CHUE - CHEDSH CHBN RTBCHDB OE IPUEFUS PFRTBCHMSFSH OM DTHZIE KHMSCH RTPGEUUSCH CHTHYUOHA? noe oe BIFFEMPUSH. x MOSIX EUFSH OERMPIBS CHUFTPEOOBS VBMBOUITPCHLB CHOKHFTY LMBUFETB, LPFPTBS RPJCHPMSEF VPMEE-NEOEE TBCHOPNETOP TBURTEDEMSFSH OBZTKHLH OM CHUE KHMSHCH. oKH B CHPF ЪDEUSH OBN RTYDEFUS RPFTHDYFUS. DMS OBYUBMB S TBUULBTsKH, LBL UDEMBFSH FPOLHA OBUFTPKLH (låt) DMS DCHHI KHMPC LMBUFETB? CH RTPGEUUE LPFPTPK MOSIX RPMHYUBEF YOZHPTNBGYA P ULPTPUFSI RTPGEUUPTPCH Y UEFI:
ъBRPNOYFE TB Y OCHUEZDB - ställ in NPTsOP CHSHCHRPMOSFSH FPMSHLP CH enkelläge. YOBYUE CHSC MYVP RPMKHUYFE OE UPCHUEN LPTTELFOSCHK TEKHMSHFBF, MYVP CHBYB NBYOB NPTSEF RTPUFP ЪBCHYUOKHFSH.
yFBL, CHSHRPMOSEN låt. rPUME RETECHPDB PRTBGYPOOPK UYUFENSCH CH singelläge OBRTYNET LPNBODPK init 1 YMY init S ЪBRKHULBEN ULTYRF prep_tune, LPFPTSCHK RPDOINEF cEFECHSCHE
YOFETZHEKUSHY ЪBRHUFYF MOSIX. RPUME LFPPZP OM PDOPK YNBYO ЪBRKHULBEN låt, ChCHPDYN ENKH OPNET DTHZPZP KHMB DMS OBUFTPKLY Y TsDEN TEKHMSHFBFB - KhFYMYFB DPMTSOB CHSHCHDBFSH ЪBRTEUFOOFY CHRPHUPDY CHUPFYEMY OCH LPNBODSCH låt -a<ХЪЕМ>OM DTHZPN HYME. uPVUFCHOOOP PRETBGYA RTYDEFUS RPCHFPTYFSH OM DTHZPN KHME LPNBODPK låt -a<ХЪЕМ>, B TEЪHMSHFBF YЪ YEUFY YUYUEM CHCHEUFY OM RETCHSHCK HYEM. rPUME RPDPVOPZP FAIOZB CH CHBYEK UYUFEN DPMTSEO RPSCHYFUS ZhBKM /etc/overheads, UPDETSBEIK YOZHPTNBGYA DMS MOSIX CHYDE OELYI YUYUMPCHSCHI DBOOSCHI. h UMHYUBE, EUMY RP LBLYN-FP RTYYUYOBN tune OE UNPZ UDEMBFSH EZP, RTPUFP ULPRYTHKFE YJ FELHEEZP LBFBMPZB ZhBKM mosix.cost H /etc/overheads. bFP RPNPTSEF;-).
rTY FAOYOSE LMBUFETB YY VPMEE YUEN DCHHI NBYO OHTSOP YURPMSHЪPCHBFSH KhFYMYFKH, LPFPTBS FBLCE RPUFBCHMSEFUS U MOSIX - tune_kernel. dBOOBS HFYMYFB RPЪCHPMSEF
CHBN CH VPMEE RTPUFPN Y RTYCHSHYUOPN CHYDE OBUFTPYFSH LMBUFET, PFCHEFYCH OM OEULPMSHLP CHPRTPUPCH Y RTPCHEDS FAOIOZ U DCHHNS NBYOBNY LMBUFETB.
LUFBFY, RP UPVUFCHEOOPNH PRSHCHFKH NPZH ULBUBFSH, YuFP RTY OBUFTPKLE LMBUFETB S TELPNEODHA CHBN OE ЪБЗТХЦБФШ UEFSH, B OBPVPTPPF - RTYPUFBOPPHUE PRETFFCHY FI.

5. hRTBCHMEOYE LMBUFETPN

dMS KHRTBCHMEOYS KHMPN LMBUFETB UKHEEUFCHHEF OEVPMSHYPK OBVPT LPNBOD, UTEDY LPFPTSCHI:

mosctl - LPOFTPMSH OBD KHMPN. rPCHPMSEF YЪNEOSFSH RBTBNEFTSCH KHMB - FBLYE, LBL block, stay, lstay, delay Y F.D
dBChBKFE TBUUNPFTYN OEULPMSHLP RBTBNEFTPCH LFPC KHFYMYFSCH:
stanna kvar - RPЪCHPMSEF PUFBOBCHMYCHBFSH NYZTBGYA RTPGEUUPCH OM DTHZIE KHMSHCH U FELHEEK NBYOSCH. pFNEOSEPHUS RBTBNEFTPN nostay YMY -stay
stanna kvar - ЪBRTEEBEF FPMSHLP MPLBMSHOSCHN RTPGEUUBN NYZTBGYA, B RTPGEUUSCH U DTHZYI NBYO NPZHF RTDDPMTsBFSH LFP DEMBFSH. pFNEOSEPHUS RBTBNEFTPN nolstay YMY -lstay.
blockera - ЪBRTEEBEF KHDBMEOOSCHN/ZPUFECHSHCHN RTPGEUUBN CHSHPRPMOSPHUS OM LFPN KHM. pFNEOSEPHUS RBTBNEFTPN noblock YMY -block.
föra - CHPCHTBEBEF PVTBFOP CHUE RTPGEUUSCH U FELHEEZP KHMB CHSHPRPMOSENSHCHE OM DTHZYI NBIYOBI LMBUFETB. ьФПФ RBTБNEFT NPTSEF OE UTBVBFSCHBFSH, RPLB NYZTYTPCHBCHYK RTPGEUU OE RPMKHYUIF RTETSCHCHBOIE PF UYUFENSCH.
sätt fördröjning KHUFBOBCHMYCHBEF CHTENS, RPUME LPFPTPZP RTPGEUU OBUYOBEF NYZTYTPCHBFSH.
CHEDSH UPZMBUYFEUSH - CH UMKHYUBE, EUMY CHTENS CHSHRPMOEOYS RTPGEUUB NEOSHYE UELKHODSCH UNSHUM RETEOPUYFSH EZP OM DTHZIE NBYOSCH UEFI YUYUEBEF. yNEOOOP LFP-LÄSNING CHCHUFBCHMSEFUS HFYMYFPK mosctl U RBTBNEFTPN förfaller. rTYNET:
mosctl setdecay 1 500 200
KHUFBOBCHMYCHBEF CHTENS RETEIPDB OM DTHZIE KHMSH 500 NYMMYUELKHOD CH UMHYUBE, EUMY RTPGEUU ЪBRHEEO LBL långsam Y 200 NYMYUELKHOD VMS snabb RTPGEUUPCH. pVTBFYFE CHOYNBOYE, UFP RBTBNEFT långsam CHUEZDB DPMTSEO VshchFSH VPMSHYE YMY TBCHEO RBTBNEFTH snabb.

mosrun - ЪBRKHULBEF RTYMPTSEOYE CH LMBUFETE. OBRTYNET mosrun -e -j5 gör ЪBRKHUFYF gör OM 5-PN KHME LMBUFETB, RTY LFPN CHUE EZP DPYUETOYE RTPGEUUSCH VHDHF FBLCE CHSHRPMOSFUS OM 5-PN KHJME. rTBCHDB ЪDEUSH EUFSH PDYO OABOU, RTY YUEN DPChPMSHOP UKHEEUFCHEOOSCHK:
CH UMHYUBE, EUMY DPYUETOYE RTPGEUUSCHCHSHRMOSAFUS VSHCHUFTEE YUEN KHUFBOPCHMEOOBS HFYMYFPK mosctl ЪBDETTSLB (fördröjning) FP RTPGEUU OE VHDEF NYZTYTPCHBFLM OM KFEHMSHKHZIE. Х mosrun EEE DPChPMSHOP NOPZP TBMYUOSCHI YOFETEUOSCHI RBTBNEFTPCH, OP RPDTPVOP KHOBFSH
P OYI CHSHCH UNPTSEFE YЪ THLPCHPDUFCHB RP LFPC KHFYMYFE. (man mosrun)

mån - LBL NSCH HTSE OBEN, LFP NPOYFPT LMBUFETB, LPFPTSCHK CH RUECHDPZTBZHYUEULPN CHYDE PFPVTBTSBEF ЪBZTHYLH LBTSDPZP TBVPYUEZP KHMB ChBYEZP LMBUFEPDTB, KPMYUPDBOSFCH YMPYUOPSFCHY SHCHDBEF NOPZP DTHZPK, OE NEOEE YOFETEUOPK YOZHTNBGYY.

mtop - NPDYZHYYTPCHBOOBS DMS YURPMSHЪPCHBOYS OM KHMBI LMBUFETB CHETUIS LPNBODSCH topp. pFPVTBTSBEF OM LTBOE DYOBNYUUEULHA YOZHTTNBGYA P RTPGEUUBI, ЪBRHEEOOSCHI OM DBOOPN KHOME, Y KHMBI, LHDB NYZTYTPCHBMY CHBY RTPGEUUSCH.

mps - FPTSE NPDYZHYYTPCHBOOBS CHETUIS LPNBODSCH ps. dPVBCHMEOP EEE PDOP RPME - OPNET KHMB, OM LPFPTSCHK NYZTYTPCHBM RTPGEUU.

CHPF OM NPK CHZMSD Y CHUE PUOPCHOSHE KHFYMYFSHCH. OM UBNPN DEME LPOEYOP NPTsOP PVPKFYUSH DBTSE VEЪ OI. OBRTYNET YURPMSHJHS DMS LPOFTPMS OBD LMBUFETPN /proc/mosix.
FBN LTPNE FPZP, YuFP NPTsOP OBKFY PUOPCHOHA YOZHPTNBGYA P OBUFTPKLBI KHMB, RTPGEUUBI ЪBRHEOOOSCHI U DTHZYI KHMPCH Y F.D., B FBLCE RPNEOSFSH YUBUFSH.RBTBNEFT

6. LURETENE VID DÅ.

l UPTSBMEOYA, NOE OE KHDBMPUSH ЪBUFBCHYFSH CHSHRMOSPHUS LBLPK-FP PDYO RTPGEUU PDOPCHTENEOOOP OM OEULPMSHLYI KHMBI. nBLUINKHN, YuEZP S DPUFYZ CH RTPGEUUE LURETYNEOFPCH U LMBUFETPN-YURPMSHJPCHBOIE DMS CHSHRPMOEOYS TEUKHTUPENLYI RTPGEUUPCH OM DTHZPN KHME.
dBChBKFE TBUUNPFTYN PDYO YJ RTYNETPCH:
dPRKHUFYN, YUFP KH OBU CH LMBUFETE TBVPFBAF DCHE NBYOSCH (DCHB KHMB), PDYO YI LPFPTSCHI U OPNETPN 1 (366 Celeron), DTHZPK - U OPNETPN 5 (PIII450). ьLURETYNEOFYTPCHBFSH NSCH VKhDEN OM 5-MÅNAR HYME. 1-K HYEM CH LFP CHTENS RTPUFBYCHBM. ;-)
yFBL, ЪBRKHULBEN OM 5-N HYME KHFYMYFKH crark DMS RPDVPTB RBTPMS L rar BTIYCHH.eUMY LFP YЪ CHBU RTPVPCHBM TBVPFBFSH U RPDPVOSHNY KHFYMYFBNY, "FPOBLKKEUTSH, RBVPDEUTSEOO F" DP 99 RTPGEOFPCH RTPGEUUPTB. OH YFP TSE - RPUME ЪBRKHULB NSCH OBVMADBEN, YuFP RTPGEUU PUFBEFUS OM LFPN, 5-PN KHJME. tBKHNOP - CHEDSH YNEOOP KH LFPPZP KHMB RTPYCHPDYFEMSHOPUFSH RTECHSHCHYBEF 1-K KHYEM RPYUFY CH DCHB TBBB.
dBMEE NSCH RTPUFP ЪBRKHUFYMY UVPTLH kde 2.0. uNPFTYN FBVMYGH RTPGEUUPCH Y CHYDYN, UFP crark HUREYOP NYZTYTPCHBM OM 1-K HYEM, PUCHPVPDYCH RTPGEUUPT Y RBNSFSH (DB, DB - RBNSFSH FPYuOP FBLCE PUCHPVPTsDBEFUS) DMS-fabrikat. b LBL FPMSHLP fabrikat ЪBLPOYUM UCHPA TBVPFKH - crark CHETOHMUS PVTBFOP, OM TPDOPK ENKH 5-K KHYEM.
YoFETEUOSCHK YZHZHELF RPMKHYUBEFUS, EUMY crark ЪBRKHULBFSH OM VPMEE NEDMEOOPN 1-N KHJME.
fBN NSCH OBVMADBEN RTBLFYUEULY RTPFYCHPRPMPTSOSHCHK TEKHMSHFBF - RTPGEUU UTBH-CE NYZTYTHEF OM 5-K, VPMEE VSHCHUFTSHCHK HYEM. rTY LFPN PÅ CHPTBEBEFUS PVTBFOP, LPZDB IPЪSIO RSFPZP LPNRSHAFETB OBUYOBEF LBLYE-FP DEKUFCHYS U UYUFENPK.

7. yURPMSHЪPCHBOIE

dBChBKFE CH LPOGE TBVETENUS, OBYUEN Y LBL NSCH NPTsEN YURPMSHЪPCHBFSH LMBUFET CH UCHPEK RPCHUEDOECHOPK TSYYOY.
dMS OBYUBMB OHTSOP TBY OBCHUEZDB ЪBRPNOYFSH - LMBUFET CHSHCHZPDEO FPMSHLP CH FPN UMHYUBE, LPZDB CH CHBYEK UEFY EUFSH LOOPE LPMYUEUFCHP NBYO, LPFPTSCHE YUBUFEOSHLP YUBUFEOSHLP YUBUFEOSHLP RTPUCHBYSHY YCHPSHF UKHTUSH OBRTYNET DMS UVPTLY KDE YMY DMS MAVSHHI UETSHESHI RTPGEUUPCH. CHEDSH VMBZPDBTS LMBUFETH YЪ 10 NBYO NPTsOP PDOPCHTEENOOOP
LPNRYMYTCHBFS DP 10 FSTSEMSCHI RTPZTBNN OM FPN-CE C++. yMY RPDVYTBFSH LBLPK-FP RBTPMSH,
OE RTELTBEBS OH OM UELKHODH LFPZP RTPGEUUB OEBCHYUYNP PF OBZTHYLY OM CHBY LPNRSHAFET.
dB Y CHPPVEE - LFP RTPUFP YOFETEUOP;-).

8. ъBLMAYUEOOYE

h ЪBLMAYUEOYE IPUKH ULBUBFSH, YuFP h LFPK UFBFSHE OE TBUUNPFTEOSCH CHUE CHPNPTSOPUFY MOSIX, F.L. S RTPUFP DP OYI EEE OE DPVTBMUS. eUMY DPVETHUSH - TsDYFE RTDPDPMTSEOYS. :-)


Topp