Robotok Google - «» google
Eltávolítása az egész oldal
Ahhoz, hogy távolítsa el a webhely a keresőmotorok, és megakadályozhatja, hogy a robotok feltérképezzék a jövőben, a gyökér könyvtár kiszolgáló robots.txt fájlt a következőképpen:
User-agent: Googlebot
Disallow: /
Minden port saját robots.txt fájlt kell létrehozni. Különösen, amikor a használt protokollok http és https, akkor mindegyikre szükség külön robots.txt fájlt. Például, hogy a Google robotja indexelni http oldalt, de a https beolvasás, a robots.txt fájl kell kinéznie.
Megjegyzés. Ha a kérelem sürgős, és várja a következő ülésen, a Google feltérképezi a helyszínen nem tudják használni az automatikus eltávolítása URL. Annak érdekében, hogy ezt az automatikus folyamat, a webmaster először létre kell hoznia egy robots.txt fájlt, és helyezze a megfelelő weboldalon.
Amennyiben a robots.txt marad a webszerver gyökérkönyvtárába, hogy a jövőben a Google nem fogja feltérképezni a webhely vagy könyvtárakat. Ha nem férnek hozzá a gyökér könyvtárat a szerveren, akkor egy robots.txt fájl ugyanazon a szinten, mint a kívánt fájlokat törölni. Miután ezt, és egy automatikus eltávolítását az URL, az oldal átmeneti lesz, 180 nap, eltávolítjuk a Google index, függetlenül attól, hogy a törölt robots.txt fájl feldolgozása után a kérését. (Ha elhagyja a robots.txt fájl ugyanazon a szinten, az URL-el kell távolítani egy automata rendszerrel minden 180 nap).
Eltávolítása része a helyszínen
1. lehetőség Robots.txt
Ahhoz, hogy távolítsa el a könyvtárakat, vagy az egyes oldalak a webhelyén, akkor nem tud egy robots.txt fájlt a gyökérkönyvtárban a szerver. Ha szeretné megtudni, hogyan lehet létrehozni egy robots.txt fájlt ismertetett, a robot kizárási szabványa. Robots.txt fájl létrehozása, vegye figyelembe a következő pontokat. Amikor eldönti, hogy mely oldalakat feltérképezni egy adott fogadó, a Google kereső robot működik megfelelően az első rekord a robots.txt fájlban, ahol a paraméter User-agent kezdve a „Googlebot”. Ha nincs ilyen rekord, az első szabály hajtódik végre, amelyben a User-agent - «*». Ezen felül, a Google lehetővé teszi a használatát a robots.txt fájl nagyobb rugalmasság a csillagok használata révén. Tiltása minták „*” azt is jelentheti, bármilyen karaktersor. A sablon végén egy „$”, amely jelzi a végén a nevét.
Ahhoz, hogy távolítsa el az összes oldalt egy bizonyos könyvtárban (például „maki”) adja hozzá a következő robots.txt bejegyzést:
User-agent: Googlebot
Disallow: / makik
Ahhoz, hogy távolítsa el az összes fájl egy bizonyos típusú (. Pl gif), adjuk hozzá a következő robots.txt bejegyzést:
User-agent: Googlebot
Letiltás: /*.gif$
Ahhoz, hogy távolítsa el a dinamikusan generált oldalak, adjuk hozzá a következő robots.txt bejegyzést:
User-agent: Googlebot
Tiltása / *?
2. opció Meta Tags
Annak megakadályozására, hogy a robotok nem indexel egy oldalt a webhelyen, adjuk hozzá a következő szakasz az oldal meta tag:
Letiltásához indexelése oldalon csak a Google robotok, és mások megoldani, használja a következő címkét:
Megjegyzés. Ha a kérelem sürgős és várja meg a következő Google szkennelés nem lehetséges, egy automatikus eltávolító rendszer URL-t. Annak érdekében, hogy ezt az automatikus folyamat, a webmaster először be kell helyeznie a HTML kódot az oldal releváns meta tagek. Ezután könyvtárak átmenetileg, 180 napig, eltávolítjuk a Google index, függetlenül attól, hogy távolítsa el a robots.txt fájlt vagy meta tagek A kérelem feldolgozását követően.
Removal fragmensek (részlet)
Ahhoz, hogy a Google ne jelenítse kódrészletek a oldal, adjunk hozzá egy részén
a következő címkét:Megjegyzés. Eltávolítása töredék is eltávolítja, és tárolt oldalakon.
Megjegyzés. Ha a kérelem sürgős, és várja a következő ülésen, a Google feltérképezi a helyszínen nem tudják használni az automatikus eltávolítása URL. Annak érdekében, hogy ezt az automatikus folyamat, a webmaster először be kell helyeznie a HTML kódot az oldal releváns meta tagek.
Törlése tárolt oldalak
A Google automatikusan létrehozza és archívumok egy kép minden beolvasott oldal. A termék ilyen változatai a tárolt lehetővé teszi a végfelhasználók számára, hogy megtalálja az oldalt, akkor is, ha nem állnak rendelkezésre (mivel átmeneti probléma a kiszolgáló, amely az oldalt). A felhasználók látják a tárolt oldalon a formában, ahogy akkoriban feltérképezi Google. Az oldal tetejére egy üzenetet jelenít meg, hogy ez egy tárolt változata. Az oldal eléréséhez a felhasználónak ki kell választania a link „Tárolt változat” a keresési eredmények oldalán.
Annak megakadályozása érdekében, hogy a keresőmotorok mutató linket a webhely, hozzáadjuk a szakasz
a következő címkét:Ha le szeretné tiltani ezt a linket „Tárolt változat” csak a Google, de a többi az engedély, akkor használja a következő címkét:
Megjegyzés. Ez a címke csak eltávolítja a link „Tárolt változat” a megfelelő oldalt. A Google továbbra is indexelni az oldalt, és megjeleníti a kódrészletet.
Megjegyzés. Ha a kérelem sürgős, és várja a következő ülésen, a Google feltérképezi a helyszínen nem tudják használni az automatikus eltávolítása URL. Annak érdekében, hogy ezt az automatikus folyamat, a webmaster először be kell helyeznie a HTML kódot az oldal releváns meta tagek.
Képek törlése a Google Image Search Engine
Távolítani egy képet a Google képindexéből, adjunk hozzá egy robots.txt fájlt a root szerver. (Ha ez nem lehetséges, akkor helyezze a könyvtárba szinten).
User-agent: Googlebot-Image
Letiltás: /images/sobaki.jpg
User-agent: Googlebot-Image
Disallow: /
Ezen felül, a Google lehetővé teszi a használatát a robots.txt fájl nagyobb rugalmasság a csillagok használata révén. Tiltása minták „*” azt is jelentheti, bármilyen karaktersor. A sablon végén egy „$”, amely jelzi a végén a nevét. Ahhoz, hogy távolítsa el az összes fájl egy adott típusú (például, hogy hagyjuk a képet jpg formátumban, és távolítsa el a .gif formátumban), adjunk hozzá egy robots.txt fájl a következő bejegyzést:
User-agent: Googlebot-Image
Letiltás: /*.gif$
Megjegyzés. Ha a kérelem sürgős, és várja a következő ülésen, a Google feltérképezi a helyszínen nem tudják használni az automatikus eltávolítása URL. Annak érdekében, hogy ezt az automatikus folyamat, a webmaster először létre kell hoznia egy robots.txt fájlt, és helyezze a megfelelő weboldalon.
Amennyiben a robots.txt marad a webszerver gyökérkönyvtárába, a Google és a jövőben nem fogja megvizsgálni az oldalt, vagy könyvtárakat. Ha nem férnek hozzá a gyökér könyvtárat a szerveren, akkor egy robots.txt fájl ugyanazon a szinten, mint a kívánt fájlokat törölni. Miután ezt, és egy automatikus eltávolítását az URL, az ideiglenes, 180 nap törlődik megadott könyvtárakban a robots.txt fájlt a Google index, függetlenül attól, hogy távolítsa el a robots.txt fájl feldolgozása után a kérését. (Ha elhagyja a robots.txt fájl ugyanazon a szinten, az URL-el kell távolítani egy automata rendszerrel minden 180 nap).