Hogyan írjunk a megfelelő fájlt a Yandex és google

Hogyan írjunk a megfelelő fájlt a Yandex és google
Miért van szükség a robotok txt? Kereső robotok bejáratánál a helyszínen az első dolog fordul a robots.txt fájl kapja az utasításokat a további intézkedések, és megtudja, milyen fájlokat és könyvtárakat tilos indexelés.

robotok fájl - egy közönséges kiterjesztésű fájl txt, ami által létrehozott Jegyzettömb segítségével. Hol van a robots.txt. Nem található a gyökérkönyvtárban egy oldalon. és útmutatást nyújt az indexelés a keresőmotorok. Utasítás lehet általános vagy egyedi robotok. [Box type = »árnyék»] [starlist]

Alapvető szabályok létrehozásával és feltöltésével robots.txt fájl:

  • ne keverje össze a nevét, hogy az úgynevezett robots.txt fájlt, nem robot.txt és így tovább.
  • robots.txt fájl nevét mindig kisbetű, azaz robots.txt, és nem robots.txt és robots.txt és mások.
  • elhelyezni a robots.txt fájlt kell pontosan gyökérkönyvtárában egy oldalon, hanem más helyen. egyébként a keresők nem fogja látni. [/ Ellenőrzőlista]

A legfontosabb dolog, hogy a megfelelő robotok txt. Hibák a tartalom ezen fájl vezethet az a tény, hogy egy webhely vagy annak egyes könyvtárak vagy fájlok nem lesznek indexelve.

Itt egy példa a robotok txt file:

User-agent: *
Disallow: / gombok /
Disallow: / kép /

A második és a harmadik sorban tiltják könyvtár indexelő gombok és a kép. Felhívjuk figyelmét, hogy minden tilos indexelése a könyvtár regisztrált külön sorban. Semmilyen esetben nem összekapcsolják őket egy sorban. Ön még nem átadószaiag egyetlen nyilatkozatot.

Host helyesen írni az irányelv úgy kell:

User-agent: Yandex
Disallow: / gombok /
Host: netearn.ru

Most, konkrét példákat ír robots.txt fájlt a különböző feladatokat.

1. Hogyan tiltható le az indexelés a webhely összes keresők.

2. Ne tiltsák a teljes site indexelése minden keresőmotorok.

3. Prevent indexeli webhelyét egy keresési robot (pl SeoBot).

User-agent: SeoBot
Disallow: /

4. Ne tiltsák a teljes site indexelése robot (pl SeoBot) és blokkolja az összes többi indexelő robotjai.

User-agent: SeoBot
Letiltás:

5. letiltása több könyvtár az indexelés minden keresőmotorok.

User-agent: *
Disallow: / images /
Disallow: / gombok /
Disallow: / _ témák /

6. letiltása több fájlt indexelés minden keresőmotorok.

User-agent: *
Disallow: / tér Black.gif
Letiltás: /banners-page-small.htm

Az alapvető szabályok előkészítése során a robots.txt fájl

1. Írjuk be a fájl tartalmát csak akkor szükséges, kisbetűvel.

2. Az egyes utasítások tiltása csak az egyiket vagy könyvtár
egy fájl.

3. Ne cserélje kézi ágens disallow.

4. A húr u ser szert kell tölteni. Ha a megállapítás minden kereső pókok, akkor írj egy csillag, és ha egy adott keresési robot, majd írjuk a nevét.

6. Nem kell a névben a tiltása utasítások formájában csillagok és egyéb szimbólumokat.

8. Lehetetlen kihagyni tiltása utasításokat. Ha nem megy, ments semmit indexált, hagyja ezt a nyilatkozatot üres.

9. Ha letiltja indexelő robotok txt irányelvet. biztos, hogy sorolja fel a törtvonal.

10. A legfontosabb szabály - mielőtt öntsük a robots.txt fájlt az oldalon szerveren kell százszor a kettős ellenőrzés elkerülése érdekében további félreértések.

  • Hogyan írjunk a megfelelő fájlt a Yandex és google

    Kapcsolódó cikkek