Hogyan csökkentse a terhelést a szerveren, a terhelés csökkentése miatt botoktól, promóciós és ellenőrzések

És ezt megértettem, hogy csökkenteni kell a terhelést a szerveren. Az egyik oldalak online áruházak elég nehéz. És annak ellenére, hogy a felvételét caching, okos tárhely, ez nagyon sok szerveren szállították. Mikor költözött egy dedikált szerver rendszeres tárhely nagyobb teljesítmény, hogy csökkenteni kell a terheket vált különösen akut óta ha hagyjuk békén 150cp egy honlap, hogy terhelés 250sr. Nem lenne sehol. Cipő intenzív szkriptek, mint például a dinamikus képfeldolgozás, nem volt elég hatásos, és meg kellett ásni tovább.

Ásó az interneten, találtam egy módja annak, hogy vágja le a kívánt védjük, és korlátozzák a szükséges tevékenységek.

Tehát az 1. igénypont. Csökkentse a terhelés a szerveren lezárásával a nem kívánatos aktivitást védjük.

Ehhez helyezze egy .htaccess fájlt a következő bejegyzést:

# Következő lista yuzeragentov hogy megtiltjuk hozzáférés

SetEnvIfNoCase User-Agent MJ12bot bad_bot

SetEnvIfNoCase User-Agent JS-Kit bad_bot

SetEnvIfNoCase User-Agent PostRank bad_bot

SetEnvIfNoCase User-Agent Python-urllib bad_bot

SetEnvIfNoCase User-Agent UnwindFetchor bad_bot

SetEnvIfNoCase User-Agent facebookexternalhit bad_bot

SetEnvIfNoCase User-Agent TweetmemeBot bad_bot

SetEnvIfNoCase User-Agent Butterfly bad_bot

SetEnvIfNoCase User-Agent MFE_expand bad_bot

SetEnvIfNoCase User-Agent Java bad_bot

SetEnvIfNoCase User-Agent Summify bad_bot

SetEnvIfNoCase User-Agent MetaURI bad_bot

SetEnvIfNoCase User-Agent FlipboardProxy bad_bot

SetEnvIfNoCase User-Agent ScribdReader bad_bot

SetEnvIfNoCase User-Agent RockMelt bad_bot

SetEnvIfNoCase User-Agent InAGist bad_bot

SetEnvIfNoCase User-Agent Ning bad_bot

SetEnvIfNoCase User-Agent TweetedTimes bad_bot

SetEnvIfNoCase User-Agent PaperLiBot bad_bot

SetEnvIfNoCase User-Agent Library bad_bot

SetEnvIfNoCase User-Agent Ezooms bad_bot

SetEnvIfNoCase User-Agent strawberryj bad_bot

SetEnvIfNoCase User-Agent Scooper bad_bot

SetEnvIfNoCase User-Agent Ahrefs bad_bot

SetEnvIfNoCase User-Agent Spider bad_bot

SetEnvIfNoCase User-Agent Semmi bad_bot

SetEnvIfNoCase User-Agent EventMachine bad_bot

SetEnvIfNoCase User-Agent aiHitBot bad_bot

SetEnvIfNoCase User-Agent SolomonoBot bad_bot

SetEnvIfNoCase User-Agent keresőbot bad_bot

SetEnvIfNoCase User-Agent Wget bad_bot

SetEnvIfNoCase User-Agent Lánctalpas bad_bot

Deny származó env = bad_bot

Ie először ad egy listát a botoktól, amely szeretné, hogy tiltsák, hogy az oldalon, megjelölve azokat beállítás bad_bot, majd ments meg őket, hogy az oldal tartalmát, ha azok megjelennek.

A lista lehet pótolni. Az én esetemben, a speciális problémák miatt MJ12bot, ami 1-3K benyújtott kérelem esetében naponta.

2. o. A terhelés csökkentése telepítésével időzítése

Letöltés a sok oldalt, a botok is elég egy oldalon, és tegye az egész szerver velük együtt.

Így ne tegye a szerver, akkor lehetséges, hogy a minimális késleltetési időintervallum, hogy át kell mennie, mielőtt a következő kérést.

Ezt meg lehet tenni a robots.txt fájlban. Hozzá a következő bejegyzéseket:

Ez a bejegyzés azt jelenti, hogy a botok Yandex nem szabad csinálni használni az oldalt gyakrabban, mint 1 5 másodpercenként.

Pontosan ugyanazt a bejegyzést kell tenni a más keresőmotorok robotok.

Azt tesszük, és örvendeznek csökkenti a terhelést és növeli az átlagos sebesség az oldalon.