Telepítése nagy linux-klaszter 4. rész

Ez a sorozat foglalkozik rendszerek építészek és mérnökök rendszerek tervezését és végrehajtását egy Linux-fürt az IDE IBM eServer Cluster 1350 (linkek további információt ebben a környezetben, lásd a „Resources”). Egyes cikkek hasznosak lehetnek adminisztrátorok, mind a tananyag, és ha használják a művelet a klaszter. Minden része a sorozat utal ugyanazt a példát a telepítés.

Az első rész a sorozat részletes útmutatást nyújt A hardver telepítése klaszter. A második rész az alábbi lépéseket, miután hardver konfiguráció: a szoftver telepítése az IBM Cluster Systems Management szoftver rendszerek kezelése (CSM), és beállítása egységek.

Ez a szakasz részletezi a konkrét klaszter szerver menedzsment kérdések (cluster szerver menedzsment - CSM), kapcsolódó tároló a példa cluster rendszer. Ezek közé tartozik az GPFS-kódot minden csomópont és a beállítási Qlogic adapterek tárolására csomópontokat. Felhívjuk figyelmét, hogy ez a beállítás nem kell elvégezni, hogy a használata a CSM; meg lehet csinálni kézzel. A példa ebben a cikkben használ CSM szinte teljesen automatizált telepítés egy új szerver, beleértve a szerverre.

Telepítés a megfelelő sorrendben előfeltétele, hogy megszüntesse túlfolyó problémák ROM meghajtó, későbbiekben ismertetett ebben a rendszerben használt konfiguráció xSeries ™ 346 nem rendelkezik RAID 7K kártyát. Kövesse az alábbi lépéseket ebben a sorrendben:

  1. Végrehajtja a parancsot csmsetupks -vxn a menedzsment szerver.
  • Kapcsolja ki a tároló szerver a SAN, annak érdekében, hogy elkerüljék a SAN-OS telepítőlemezeket, amelyek megtalálhatók az első.

  • Végrehajtja a parancsot installnode -vn a menedzsment szerver.

  • Nyomja meg az F1 a konzol újraindítás után csomópont tárolórendszer, hogy belépjen a BIOS-ba.

  • Menj a Start Options, és változik pxeboot tiltva engedélyezve sík ethernet 1.

  • Újraindítása csomópont; A telepítés elkezdődik.

  • Nézd telepítés révén Terminal Server; hagyja, hogy a készülék teljesen kész a rendszer indítását.

  • Újraindítás csomópont után a poszt újraindítás munkát.

  • Nyomja meg az F1 billentyűt a konzol után a fogadó újraindítás be a BIOS-ba.

  • Menj a Start Options, és a változás pxeboot letiltott.

  • SAN-kábelek csatlakoztatása és befejeződik a karmantyúelemből.

    GPFS megköveteli, hogy minden csomópont a GPFS klaszter képes volt kezelni egymással a gyökér azonosító jelszó megadása nélkül. GPFS használja az inter-node hozzáférést lehetővé bármelyik csomópont a GPFS klaszter végre a megfelelő parancsot a többi csomóponttal. A példa ebben a cikkben, hogy hozzáférést biztosít az ssh (secure shell), de akkor is használhatja rsh (távoli shell). Ehhez hozzon létre egy kulcsával az egész klaszter, és a kapcsolódó konfigurációs fájlok, amelyek segítségével osztjuk ki a CSM, a következő lépéseket:

    1. Két új könyvtárakat /cfmroot/root/.ssh és / cfmroot / etc / ssh.
  • Létrehoz egy RSA-kulcs, nyilvános és titkos kulcsokat a hitelesítés a parancsot futtatja


  • Hozzon létre egy DSA kulcs, nyilvános és titkos kulcsokat a hitelesítés a parancsot futtatja

  • Nevezze meg a kapott NBI

    A fájlok a fent leírt, adjuk meg a következő három riasztást a konfiguráció:

    • Drives az első vezérlő DS4500, ez disk01.
  • Meghajtók a második vezérlő DS4500, ez disk02.

  • szerver meghajtó a konfliktusok megoldása érdekében a határozatképesség csomópontot.
  • A következő lépés - a dob a GPFS klaszter által végre a következő műveleteket:

    1. Kezdés GPFS all-NBI szerverek ugyanakkor, hogy megakadályozzák a címkézési NBI mintha inaktív állapotban. Használja a következő parancsot: mmstartup -w stor001_s, stor002_s, stor003_s, stor004_s.
  • Kezdés GPFS az összes többi csomópont, amely nem NBI-szerverek (beleértve a konfliktuskezelés kiszolgáló csomópont). Használja a következő parancsot: mmstartup -w quor001_s, mgmt001_s.

  • Kezdés GPFS minden számítási csomópont a csomóponton. Használja a következő parancsot: dsh N ComputeNodes / usr / lpp / mmfs / bin / mmstartup.

  • Állapotának ellenőrzése minden csomópont, fájlböngészését /var/adm/log/mmfs.log.latest jelenlegi fájlrendszer kezelő (detektálható mmlsmgr csapat ) És kimeneti információk a következő parancsokat: mmgetstate -w DSH -N ComputeNodes / usr / lpp / PPA / bin / mmgetstate.
  • Ez a módszer úgy tűnik túlzottan óvatos, de a kiválasztott méretezhető módszer, hogy működni fog nagyon nagy klaszter. Egy másik, hogy a fenti módszer használata mmstartup -a parancsot. Ez működik egy kisebb klaszter mérete, de lehet hosszú időt vesz igénybe, hogy visszatérjen a csapat egy nagy klaszter, amelyben a csomópontok esetében nem érhető el különböző okok miatt, mint például a hálózati problémákat.

    Például hozzon létre egy nagy GPFS fájlrendszer segítségével minden NBI egyes GPFS. Figyeljük meg, hogy kell használni a parancsot, ellentétben mmcrnsd fenti paranccsal. Tart paraméterként a módosított leíró fájlok lemezre. Ez megköveteli az integráció az információs egyetlen fájlba kibocsátás létrehozásának lépésein NBI.

    Egy példa a klaszter az alábbi beállítások használatával:

    • Minden NBI (beállítható a -F).
  • Csatolási pont: / GPFS

  • Az önműködő: igen (beállított -A).

  • Blokk Méret: 256 kB (beállítható -B).

  • Replikáció: két példányban az adatok és metaadatok (beállítható -m -M -r -R ...).

  • Becsült csomópontok száma, felcsatolja a fájlrendszert 1200 (beállítható -n).

  • Kvóták bevihető (által létrehozott, -Q).
  • Itt van egy komplett csapat:

    Ez az első alkalom után a teremtés / GPFS fel van szerelve kézzel. Aztán, önműködő beállítás engedélyezett, akkor a rendszer automatikusan telepíti, amikor elkezdi csomópont GPFS.

    Meg lehet változtatni az egyéni kvóták egy felhasználó vagy csoport parancs használatával mmedquota -u . A felhasználó megjelenítheti a kvóta segítségével mmlsquota csapat. A rendszergazda képes megjeleníteni az állapotát a fájlrendszer kvóta segítségével mmrepquota GPFS csapat.

    Ez a klaszter van beállítva, hogy automatikusan elinduljon GPFS minden boot szerver hozzáadásával egy bejegyzést a / etc / inittab parancs mmchconfig autoload = yes.

    Használja pagepool (oldal pool) GPFS gyorsítótárazására felhasználói adatok és a fájlrendszer metaadatok. pagepool motor lehetővé teszi GPFS kérelmek végrehajtása olvasásra (és írásban) aszinkron. Növekvő pagepool mérete növeli az adatok mennyiségét és metaadatok GPFS cache nélkül szinkron I / O műveleteket. Az alapérték pagepool 64 MB. GPFS pagepool maximális érték 8 GB. A legkisebb megengedett érték 4 MB. Linux-rendszerek pagepool maximális mérete felével egyenlő a fizikai memória a számítógép.

    Pagepool optimális mérete függ az alkalmazási követelményeknek és annak hatékony caching adat, hogy készül újra elérhető. Mert rendszerek hozzáférő alkalmazások nagy fájlokat, újra felhasználásával adatok felhasználásával az előnyeit alkalmassága GPFS előzetes letöltési (prefetching) adatok vagy dolgoznak program véletlenszerű I / O műveletek értékének növelése pagepool javíthatja a hatékonyságot. Azonban, ha az érték túl magas, a GPFS kezdődik.

    Ebben a példában, használja klaszter pagepool értéke 512 MB minden csomópont a fürt.

    Ahhoz, hogy optimalizálja a hálózati teljesítményt, ezért a GPFS engedélyezze jumbo keretek beállításával MTU méretet a hálózati adapter, adatok tárolása az 9000. Hagyja a paraméter a / proc / sys / net / ipv4 / tcp_window_scaling megengedett, mivel ez az alapértelmezett beállítás. Beállítások ablakban TCP-ját a CSM-scriptek telepítéskor, hozzátéve, a következő sorokat a /etc/sysctl.conf mint NBI-kiszolgálók és az NBI-ügyfelek:

    Beállítás tároló kiszolgáló gyorsítótár amikor helytelenül telepített teljesítményére is hatással lehet GPFS. A példa a következő DS4500 vezérlők ajánlott beállításokat a dokumentációban a GPFS:

    • Olvasd cache: engedélyezve
    • Olvasd előre szorzó: 0
    • Írja cache: fogyatékkal
    • Írja cache tükrözés: a fogyatékkal
    • Cache blokk mérete: 16K

    Mindent! Meg kell sikeresen telepíteni egy nagy Linux-fürt, követve a vezető ezt a sorozatot. Alkalmazzák ezeket az elveket a sikeres telepítése a saját nagy Linux-fürt.

  • Háttér anyag a TotalStorage DS4500 rendszer:
    • IBM TotalStorage DS4500 web-oldal.
    • IBM DS4500 támogatási oldalt.

  • Háttér anyag a bővítő modul tároló rendszer optikai kábel IBM TotalStorage DS4000 EXP710:
    • Összesen oldal IBM EXP710 termék.
    • IBM EXP710 Support oldalon.

  • Referencia anyagok kapcsolók IBM TotalStorage SAN Switch H16:
    • Összesen oldal IBM SAN Switch H16 terméket.
    • Súgóoldal IBM SAN Switch H16.

  • Szeretne többet megtudni? A developerWorksön IBM Systems terület ad otthont több száz informatív cikkek és oktatóanyagok elemi, közép- és nagy komplexitású.

    Get termékek és technológiák

    • A legújabb verzió a Storage Manager a hardver oldalon letöltések DS4500.
  • Építsd meg a következő projekt az IBM próbaszoftver. letölthető közvetlenül a developerWorksön.

    Kapcsolódó cikkek