Segítünk Yandex és a Google webhely indexelése, nekünk wordpress, hogyan lehet pénzt online

Robots.txt - segítünk Yandex és a Google webhely indexelése, a robots.txt WordPress

Segítünk Yandex és a Google webhely indexelése, nekünk wordpress, hogyan lehet pénzt online

Hi all idegenek, vándor a hálózat tudást keresve. Beszélgetés ma fog összpontosítani fontos eszköze a webmesterek robots.txt segítségével. Ha érdekli, hogyan lehet pénzt az interneten, és azt akarjuk, hogy a helyszínen. célja, hogy elősegítse a webhely (blog) robots.txt játszik jelentéktelen szerepet.

És igen, akkor hogyan lehet pénzt az interneten naiperveyshaya cél, akkor az idő pénz, és én az első:

Robots.txt WordPress

Először azt akarom mondani, hogy sok blogger gyakran figyelmen kívül hagyják robots.txt és ne tegyen meg minden intézkedést, hogy korlátozza az indexálás keresőrobotok a Google és Yandex. Természetesen fel őket, de hoztam létre a robots.txt észre a megváltozott forgalmi oldalamon:

Segítünk Yandex és a Google webhely indexelése, nekünk wordpress, hogyan lehet pénzt online

Nem mondhatjuk, hogy mind a 100% -ot, mivel a robots.txt érinti, de létrehozása után ment emelkedő tendenciát. Ebből arra a következtetésre jutottam, hogy ha létrehozunk egy weboldalt, hogy pénzt keresni, meg kell, hogy a legtöbb webhely igazítani minden követelménynek, és ezért továbbra is szükség van a robots.txt, és létrehozta az oka.

Helyes robots.txt WordPress másolhat közvetlenül innen:

robots.txt

Robots.txt össze lehet hasonlítani a parancsnok a hadsereg, pontosabban, ő az engedélyezett forgalom az oldalon a keresőmotorok. Nem nehéz kitalálni, hogy annak érdekében, hogy támogassák és csavard az oldalon a saját igény egy sor olyan intézkedést.

Fontos, hogy ne csak, hogy vegye fel a népszerű kereséseket statisztikák Yandex elkészítésére szemantikai kernel és írni egyedi tartalmat, hanem kell aggódnia egy kereső Yandex és Google indexelt oldalak webhely (más rendszerek keresés nem látom, arányuk nagyon kicsi RuNet keresés) . A gyors és teljes Yandex és a Google index a webhely, annál gyorsabban fog mozogni az erőforrás a SERP.

már akkor a kezükben, két fő eszközei a végrehajtásához ezt a feladatot. Először - sitemap (Sitemap xml) és a második robots.txt, amely lehetővé teszi a blokk pókok index mindent, ami nem érdekes, hogy előre (a motor) fájlokat, és néha még árthat előmozdításában az oldalon (tartalom ismétlődések).

Robots.txt - irányítja a forgalmat a keresőprogramok, vagy hogy miért Yandex és a Google, hogy egy index.

Robots.txt és Sitemap xml (fájlok, amelyek lehetővé teszik, hogy kezelje webhely indexelt) fontos, hogy ösztönözzék az a projekt, mint egy alkotmány az ország számára. A robots.txt fájl vitathatatlan magatartási szabályok előírt keresőmotorok. Az egyik technikai hibák az új webmesterek a tudatlanság akkor az ilyen fontos fájlokat vagy helytelen készítmények előállítására.

Azt egy időben először figyelmen kívül hagyja a robots.txt fájlt, de amikor úgy döntött, hogy kísérletezni, és létrehozott egy robots.txt fájl, láttam egy változás, és arra a következtetésre jutott, hogy nem minden tartalom bármilyen erőforrás létrehozott bármely CMS motor rendelkezésre kell állnia az indexelés a keresőkben. Sajnos CMS motorok robots.txt fájlt, és Sitemap xml hiányzik.

Ennek hiányában a robots.txt fájl megnehezíti a munkát a kereső bot. Hajó, hogy eljusson a gyökere a helyén, megtalálni a robots.txt fájl keresni oldalak indexelve, ahol tud átjutni (fájlok és könyvtárak). Ez azt eredményezi, hogy:

Először is, az a tény, hogy a keresési robot lesz kiadások sok időt és lejártát követően az egyik forrás indexelés fog távozni vele, nagyon hiányzott vár oldal indexelés.

Az alábbiakban elemezzük robots.txt egy részét, míg a fogak.

Robots.txt leszerelni része az irányelv vagy a szabályok és az írás robots.txt fájlt (letiltja, a felhasználó-szer, host)

Ha létrehoz egy robots.txt fájl üres, akkor a keresőrobotok fogja érzékelni ezt engedélyt piszkálni az orrát, amibe tetszik, ezért biztosak vagyunk abban, hogy töltse ki ezt a fájlt irányelvek keresőmotorok. Tehát hadd javasolt robots.txt vizsgálni minden részletet:

Az alábbi irányelvek «User-agent» elkezdünk írni tilalmat tiltó segítségével irányelv (tiltása). Amikor (letiltása :) nem tiltotta nélkül folytatódik, és mint tudjuk, az életünkben, ami nem tilos megengedett, ebben az esetben a kereső robotok lesz egy pillantást a helyszínen, és nem fognak index mindent.

Betiltani kell tenni a jel (/). ez ad egy lefogó az indexálás is, hogy lesz írva utána, ha utána (/) semmi van írva, akkor a keresőrobotok fogja érteni, hogy egy ilyen irányelv tilalmat index az egész oldalon. Mi nem tetszik, és ezért (tiltása), miután a jel (/), akkor adja meg a fájl vagy mappa a tárhely honlapunkon például Disallow: / wp-admin, ezért akadályozza az index könyvtár «wp-admin», valamint a fájlok és könyvtárak kezdődő «wp-admin» szimbólumok.

Ha be kell zárni az indexálás bármilyen fájlt vagy mappát, majd ad egy irányelvet, mint például a (Disallow: / wp-content / plugins) - ez azt jelenti, hogy «wp-content» könyvtár, zárjuk a keresőrobotok mappa «plugins».

Abban az esetben, a csúszómászó kell zárnia a fájlt, mappát vagy meghosszabbítása bárhol az oldalon, akkor egy csillag (*) - ami azt jelenti, minden (beleértve az üres is). Például: (Letiltás: * / takarmány) - ami azt jelenti, hogy minden mappa tilos indexálás «takarmány». Röviden, az irányelv (tiltása) megértjük, megyünk tovább.

Ezután minden egyszerű, Host irányelv - ajánlatos annak érdekében, hogy elkerülhető legyen a tükrök a telephely (domain www és www nélkül). Meg kell adnia a keresési bot Yandex fő tükör helyén (például amikor egy 301-es átirányítás). Van egy domain www, úgyhogy felírni, mint: (Host: www.realnodengi.ru). Majd adja meg.

Ez minden, semmi bonyolult írásban robots.txt fájl nem, most már tudod, hogy mi van a robots.txt, és ha nem felel meg a fent megadott robots.txt, akkor írd meg magad.

Ne felejtsük el beállítani 301-es átirányítás - az is fontos, hogy a webhely a robots.txt.