Terhelésének csökkentése érdekében az oldalon szerveren cpu

Terhelésének csökkentése érdekében az oldalon szerveren cpu

Miután a levél jöhet egy levelet a tárhely szolgáltató a következő sorokat:

Amikor a beszerzési web hosting webhely meg kell figyelni, hogy a források összegét, amelyet kiosztott egy adott díjcsomag: lemezterület, a maximális számú oldalak és adatbázisok, szerver vezérlőpulton. Ezen felül, az egyes tarifa van rendelve egy bizonyos határt a használatát a CPU. amely kezdetben lehetetlen kiszámítani az igényeket a kívánt gazda.

Oka a stressz a szerver CPU

Ennek több oka lehet rendkívül nagy számú, elsősorban a legkézenfekvőbb:

Spamek botokat és az IP-, úgy véljük, részletesebben a végén ezt a cikket.

Hogyan állapítható meg, az oka a terhelés a szerver CPU

A web hosting kezelőpanel információkat kell tartalmaznia a napi maximális terhelés a CPU százalékos és részletes napi statisztika, amely lehetővé teszi, hogy a dinamikus terhelés az elmúlt napokban, és azonosítani az oka a stressz. Ha bármilyen nehezen találnak ezek a statisztikák, kérjük, forduljon a helpdesk tárhely szolgáltató.

A teljes lista szerinti intézkedések nagy terhelést jelent a szerver CPU

Az első lépés, hogy átvizsgálja a honlapon fájlok rosszindulatú kódot, amely képes létrehozni lyukak a rendszerben, valamint egy további terhet ró a források a szerver. A vírusvédelem a tárhely szolgáltató, vagy például, ingyenes víruskereső „Manul” a csapat Andex.

A következő lépés az lesz, akció lezárni spambots botokat és különféle szolgáltatásokat. Nézzük meg részletesebben!

Timeout a keresőrobotok, és blokkolja a spam botoktól

Hogy csökkentsék a terhelést a szerver CPU botok népszerű keresők (Andex. A Google vagy a Bing), akkor kell használni a robots.txt fájl segítségével Crawl-delay irányelv az időkorlátot kezelő robotok webhelyére.

Az egyes botok:

Miután az összes bot:

A Google robot beállítás után a Google-webmester. Beállításokat a robots.txt nem fog működni!

Betolakodóktól robotok

Spamkeresőktől botok és a különböző szolgáltatások, mint például MegaIndex.ru, akkor vannak kitéve a robots.txt fájl timeout, ezáltal gyorsan és gyorsan betölti a szerver egy hatalmas kérelmek száma. Ebben az esetben a .htaccess fájl teljes blokkolás kívánt robotok:

Ehelyett MegaIndex.ru, MJ12bot, BLEXBot írnak neveket a botok, hogy hozzon létre terhelés (másolás és beillesztés bejegyzések, ha szükséges).

NC - nem esetben érzékeny; VAGY - eszközök „vagy a következő körülmények között.”

Az utolsó sorban RewriteRule ^ (. *) $ - [N, L] megtagadja a hozzáférést az összes bot felett a helyszínen.

Fontos! Az utolsó előtti sor kódot nem lehet bejegyzést [OR]