Van egy megfelelő helyszínen DLE - turboportal

Van egy megfelelő helyszínen DLE - turboportal

Hello, kedves kezdő webmester. Beszéd a mai cikket fog menni, hogyan lehet a helyes robots.txt Dle a honlapon, hogy a keresők indexelt pontosan oldalt szeretne látni az index a keresőmotorok. Robots.txt lehetővé teszi, hogy megfelelően irányítsa a keresők egy adott persze, hogy növelik a hely indexelés és indexelés betiltani azokat az oldalakat Dle helyszínen, hogy nem kell biztosítani a nyilvánosság. A keresőmotorok index minden ad neki a web - mester, és biztosítja számukra az index. Csak Web - mester joga, hogy a tilalom indexelve a keresőmotorok. Csak annyit, hogy tilalmat, és amelyek lehetővé teszik a keresőmotorok index és lesz szó ebben a cikkben.


Mivel a közelmúlt botrányai kereső Yandex, amely rendelkezett nyilvános hozzáférést a bizalmas információkat a felhasználó tárolja és sms - üzeneteket, Yandex kiadott egy tanácsadó web - mesterek robots.txt, amelyek célja az volt, megakadályozza az ilyen incidensek. Bor a nagy felhajtás volt az interneten - mesterek, akik nem megfelelően elszámolni robots.txt és a kereső az index minden, amit nem tilos a robots.txt. Ezzel kapcsolatban mi akkor csak meg kell tudni, hogyan kell létrehozni egy robots.txt Dle webhelyét, hogy a keresőmotorok index specifikus webhely oldalaira Dle.

Általános szabályok kidolgozása robots.txt keresők

Irányelv „Host” célja a ragasztást oldalak „www” vagy anélkül „www”, a kereső idővel ragasztott fel „www” oldalon, vagy anélkül „www.” Ez az irányelv meghatározza a helyes utat, hogy a helyszínen, hogy a kereső ad ki csak index oldalak „www” vagy anélkül „www.” Tisztában kell lennie azzal, hogy az irányelv „Host” kell felírni csak közvetlenül a „nem megengedett” irányelv egyébként a kereső nem fogja érzékelni, mint egy irányelv ragasztás.


A „Oldaltérkép” direktíva meghatározza az elérési utat a site map XML formátumban a kereső is tudja az utat a site map XML formátumban későbbi kialakulását munkamenet letöltés.

A robots.txt szabványok nem lehet használni a reguláris kifejezések (karakterek „*” és „$”) kizárására oldalak irányelv „nem megengedett”. Néhány reguláris kifejezések, mint a „*” (azaz olyan megjelölést és szimbólum) és a „$” (azaz a végén a vonal) segítségével Yandex és a Google. Az orosz oldalak segítségével kivétel oldalak szerkezete segítségével néhány reguláris kifejezéseket.

Szerkesztési robots.txt megfelelő helyén Dle


Mi lenne a helyes robots.txt, akkor van egy ötletem, mit nem szabad indexelt oldalak. Általában Dle olyan oldalak másodlagos jelentőségű (felhasználói profil, az ideiglenes mappák, visszacsatolás, címkefelhő, keresés oldal, stb.) Robots.txt orosz oldalakat képezhetők egyszerre, mert a szabványok robots.txt Yandex és a Google szinte azonosak az összes keresők. Itt egy példa a nézet robots.txt, amely megszünteti a másodlagos oldal Dle site:

A jel „*” (csillag): bármilyen jel vagy szimbólum egy sorban, és a megjelölés „$” (dollár) megjelölés azt jelenti, hogy a sor végére, majd azt követően, hogy semmi állás nem kell aláírnia. Ha a robots.txt jelzik irányelv „nem megengedett: / címkék” (anélkül, hogy a második perjel), akkor lesz egyenértékű az építkezés „nem megengedett: / címkék *”, tehát kizárható oldalakat tag felhő, és híroldal az URL amely magában foglalja a „tag”. Fontos kiemelni, hogy pontosan előfordulása a szót az URL-szerkezet és legyen nagyon óvatos, hogy ne tiltsa indexelés híroldal a webhelyen.

Eltávolítása indexelt oldalak Dle oldalon


Ha a kereső által indexelt már nemkívánatosnak az oldalon könnyen eltávolítani őket a Google vagy a Yandex szolgáltatások segítségével az interneten - mesterek. A Google azt "Eszközök webmesterek -> Site Configuration -> Access Scanner -> Törlés a URL", és Yandex van egy olyan oldalra, amely eltávolítja a szakaszok a site - URL Eltávolítás a Yandex. Mielőtt eltávolítja az oldalakat a webhelyén, akkor be kell állítania a robots.txt, hogy a keresőmotorok nem tudta indexelni őket a jövőben.

Kapcsolódó cikkek