Hvordan synkronisere klyngekonfigurasjon og bekrefte failover-oppsett i noder - del 4


Hei folkens. Først av alt, beklager forsinkelsen av siste del av denne klyngeserien. La oss begynne å jobbe uten å bli mer forsinket.

Ettersom vi mange av dere har fullført alle de tre foregående delene, vil jeg orientere dere om hva vi har fullført så langt. Nå har vi allerede nok kunnskap til å installere og konfigurere klyngepakker for to noder og aktivere skjerming og failover i et klynget miljø.

Du kan referere til mine tidligere deler hvis du ikke husker siden det tok litt lengre tid å legge ut den siste delen.

Introduksjon til Linux-klynger og fordeler/ulemper ved klynger – del 1

Hvordan installere og konfigurere klynge med to noder i Linux – del 2

Fekting og tilføyelse av en failover til gruppering – del 3

Vi starter med å legge til ressurser til klyngen. I dette tilfellet kan vi legge til et filsystem eller en webtjeneste etter behov. Nå har jeg /dev/sda3-partisjonen montert til /x01 som jeg ønsker å legge til som en filsystemressurs.

1. Jeg bruker kommandoen nedenfor for å legge til et filsystem som en ressurs:

ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

I tillegg, hvis du vil legge til en tjeneste også, kan du bruke metoden nedenfor. Utfør følgende kommando.

ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Du kan bekrefte det ved å se cluster.conf-filen som vi gjorde i tidligere leksjoner.

2. Skriv nå inn følgende oppføring i cluster.conf-filen for å legge til en referansekode til tjenesten.

<fs ref="my_fs"/>

3. Alt klart. Nei, vi vil se hvordan vi kan synkronisere konfigurasjonene vi har laget for å gruppere blant de 2 nodene vi har. Følgende kommando vil gjøre det nødvendige.

ccs -h 172.16.1.250 --sync --activate

Merk: Skriv inn passord vi satte for ricci i de tidlige stadiene da vi installerte pakker.

Du kan bekrefte konfigurasjonene dine ved å bruke kommandoen nedenfor.

ccs -h 172.16.1.250 --checkconf

4. Nå er det på tide å starte opp. Du kan bruke en av kommandoene nedenfor som du foretrekker.

For å starte bare én node, bruk kommandoen med relevant IP.

ccs -h 172.16.1.222 start

Eller hvis du vil starte alle noder, bruk --startall-alternativet som følger.

ccs -h 172.16.1.250 –startall

Du kan bruke stop eller --stopall hvis du trengte å stoppe klyngen.

I et scenario som hvis du ønsket å starte klyngen uten å aktivere ressursene (ressursene vil automatisk bli aktivert når klyngen startes), som en situasjon der du med vilje har deaktivert ressursene i en bestemt node for å deaktivere gjerdesløyfer, ønsker ikke å aktivere disse ressursene når klyngen starter.

For det formålet kan du bruke kommandoen nedenfor som starter klyngen, men som ikke aktiverer ressursene.

ccs -h 172.16.1.250 --startall --noenable 

5. Etter at klyngen er startet opp, kan du se statistikken ved å gi kommandoen clusstat.

clustat

Ovenfor står det at det er to noder i klyngen, og at begge er oppe og kjører for øyeblikket.

6. Du kan huske at vi har lagt til en failover-mekanisme i våre tidligere leksjoner. Vil du sjekke at det fungerer? Slik gjør du. Tving avslutning av én node og se etter klyngestatistikk ved å bruke kommandoen clusstat for resultatene av failover.

Jeg har slått av node02server(172.16.1.223) ved å bruke shutdown -h now-kommandoen. Deretter utførte kommandoen clustat fra min cluster_server(172.16.1.250).

Utdataene ovenfor klargjør at node 1 er tilkoblet mens node 2 har gått frakoblet mens vi stengte den. Likevel er tjenesten og filsystemet vi delte fortsatt online, som du kan se hvis du sjekker det på node01 som er online.

df -h /x01

Se cluster.conf-filen med hele konfigurasjonssettet som er relevant for oppsettet vårt som brukes for tecmint.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Håper du likte hele serien med klyngetimer. Hold kontakten med tecmint for flere praktiske guider hver dag, og kommenter gjerne dine ideer og spørsmål.