robotok txt fájl a helyszínen - egy példa, amely létrehozta, hogyan kell írni
Robots.txt - Ez a szolgáltatás fájl utasításait keresőmotorok index oldalon. A fájl tartalmazza a könyvtárakat nem szeretné indexelt. Rendszerint az adminisztrátor panel, cache, szolgáltatás fájlokat. Található a gyökérkönyvtárban a webes erőforrás. Annak használata szükséges a jobb indexelés oldalak, védi személyes adatait, és javítja a hely biztonságát.
webmesterek gyakran együtt használják más szolgáltatási fájlokban sitemap protokoll (XML-ben írt), amely hat a ellenkezőleg, azáltal, hogy a site térképen szabad olvasni a lapokat robotok.
Robots.txt és annak hatása az indexelés az oldalon.
Az indexelés hely is befolyásolja a sebesség és a megbízhatóság a hosting. Gyors és megbízható tárhely kedvezmények akár 30%!
Létrehozása után a helyén a gyökér mappát a fogadó elérhetővé válik a keresőmotorok. Robotok olvassa el az összes találják válogatás nélkül.
Megosztott tárhely oldalak népszerű CMS:
WordPress tárhely
Joomla tárhely
IPB tárhely
Mely oldalakat érdemes kikapcsolni, és rögzítse a robots.txt?
Ha a gazda, hogy a házigazdák a helyszínen, van egy vezérlőpult, a fájl létrehozásával lehet kinyitni a gyökérkönyvtárban rákattint a „fájl” (eltérések vannak a nevek). De még mindig jobb, hogy hozzon létre egy fájlt az otthoni számítógépen, és használja az FTP le a csatorna.
Még ha meg van írva helyesen, ez nem vezet a teljesítmény csökkenésével helyén, mint ahogy az a rossz fájlt .htaccess.
Fájl irányelvek - felhasználói ügynök, host, stb
Irányelv (parancs) fájl van írva a latin ábécé, majd mindegyik kettőspont előz, és adja meg az irányítás tárgya.
Irányelvben szabvány:
Részletes irányelvek csökkenti a terhelést a szerveren, és a terület védelmét attól, hogy túl tolakodó elemzőt.
Google, Yandex és a beállítási robotok.
Keresés a Google és Yandex rendszer egyformán jól olvassa ezt a fájlt, de elvárják, hogy létrehoz a létezését bármilyen különleges kapcsolatot a kereső oldal - ez felesleges romantika, mentes az ész. Vannak különbségek hogyan lehet fordulni egy pók, mert mindegyikük egy sor rendszer:
- YandexBot és Googlebot - ez az egyik fő fellebbezést bejárók;
- YandexNews és a Googlebot-hírek - robotok, szakosodott hírtartalmakhoz
- YandexImages és a Googlebot-image - képek indexers.
A Yandex kereső robotok kilenc, nyolc a Google. Ha segítségre van szüksége az indexelés után User-agent irányelv helyesírás vagy Yandex Googlebot.
A Yandex van egy másik jellemzője: a robotok olvasni a fogadó irányelv, rámutatva, hogy a „tükör” oldalon. A Google nem érti.
Robots.txt létrehozása Joomla.
Itt van, mit kell keresni a fájlt a híroldal a CMS Joomla.
User-agent: YandexNews
Disallow: / adminisztrátor
Disallow: / komponensek
Disallow: / könyvtárak
Hagyjuk: /index1.php
Hagyjuk: /index2.php
Request-arány: 1/20
Látogasson idejű: 0200-0600
Helyességét az írás robots.txt fájl lehet forgatni, hogy a szolgáltatás Yandex „Webmaster”. Ugyanaz Webmaster ott a Google.
Akkor ne használja ezt a fájlt az alapja - ez csak azt mutatja a használatát az irányelveket.
Példa egy megfelelő robots.txt fájlt WordPress - hogyan lehet eltávolítani az összes felesleges.
És ez - a dolgozó robots.txt fájlt CMS WordPress.
Az első blokkban vannak írva iránymutatások minden csúszómászó, ők is megsokszorozódnak Yandex, csak tisztázza az alapváltozat az oldalon. Amint látható, az index kizárt oldalszámozás, irodai fájlokat és könyvtárakat.