Így a megfelelő fájlt wordpress
Üdvözlet, barátok. Nézzük ma hívjuk fel a megfelelő robots.txt fájlt a WordPress blog. Robotok fájl kulcsfontosságú eleme a belső honlap optimalizálás, mint viselkedik, mint egy karmester, hogy irányítsák a keresők az Ön webhelyén.
A neve a robots.txt fájl azt mondja, hogy szánt robotok, nem emberek. Itt egy cikk arról, hogyan keresők munkáját. Leírtam az algoritmus a munkájukat, ha nem olvassa el, azt ajánlom, hogy olvassa el.
Miért van szükség a robots.txt fájl
Képzeljük el, hogy a helyszínen - ezt a házat. Minden házban vannak különböző hivatalok, így a kazánház, kamra, pince, néhány szobában vannak rejtett sarkok (biztonságos). Mindezek a titkos hely a vendégek látni nem szükséges, azokat kizárólag a házigazdák.
Ilyenek például a szolgáltatási területek - Admin oldalon, mappa tervezés témák, scriptek, stb
Internetes keresők egyszerűen elveszik a különböző oldalak és érti félre -, hogy be kell mutatni a keresési eredmények között. Záró egyes területeken, és nyissa meg egy másik, akkor ad egyértelmű ajánlást robotok megfelelő webhely indexelése. és megtalálni azokat az oldalakat az lesz, hogy mi fogant a felhasználók számára.
Ha nincs megfelelően konfigurált robots.txt fájlban van 2 lehetőség:
1. A kérdés lesz kása különböző oldalakon relevanciája megkérdőjelezhető és alacsony egyediségét.
2. A keresőmotor hiszi webhely tele van kása és szankciókat rajta, eltávolítjuk a kérdés az egész weboldal vagy annak bizonyos részeit.
Van egy pár funkciók, azt fogja mondani, hogy útközben.
A működési elve a robotok fájl
Fájl A munka csak 3 elemből áll:
- Kiválasztás egy internetes bejáró
- A tilalom indexelés szakaszok
- Felbontás indexelés szakaszok
1. megadásához kereső robot
Használja a User-agent irányelv előírja a robot nevét, amely akkor a következő szabályokat alkalmazza azt. Ezt alkalmazzák itt a következő formában:
Szerint a legújabb követelményeknek a keresők, meg kell nyitni a hozzáférést a stílusokat és a scripteket. Erre a célra, 12., 13. és 14. sorok írják engedélyt indexelés egy mappát a sablon oldalon, plug-inek és Java script.
Aztán megy 2 blokk, amely hozzáférést biztosít a mappát képekkel robotok YandexImages és Googlebot-Image. Nem lehet kiválasztani őket külön-külön, és a felbontás az irányelv mappa képekkel mozgatni felett 15 vonal minden robotot férhetnek hozzá a honlap képeket.
Ha nem használja az All-in-One-SEO-Pack, adtam volna egy szabály, hogy a záró archívumok (Letiltás: * / 20) és címkék (Letiltás: * / tag).
Ha Site Search WordPress szabvány meg kell adniuk az irányelv, amely a keresési oldalon (letiltása :? * S =). És jobb, hogy állítsa be a Yandex oldalt keresés. ahogy ez megtörtént a blogomban.
Megjegyzés: a 2 szabályok:
1. Minden iránymutatások a robot egyenesen anélkül, hogy kihagyom vonalak.
2. blokkok különböző robotok szükségszerűen elválasztva egy üres sort.
A végén van egy irányelv, amit korábban nem tekinthető - a fogadó és a sitemap. Mindkét irányelvek úgynevezett Metszet (lehet oltani a blokk).
Host - jelzi a fő tükör erőforrás. Akkor feltétlenül jelzi, hogy melyik domain központi honlapján - www vagy www nélkül. Ha az oldal több tükrök, a saját fájlokat is regisztrálni kell a pont. Ez az irányelv megérti csak Yandex.
Sitemap - Ez az irányelv, amely előírja az utat egy XML térkép a webhelyen. Értsd meg, és a Google és Yandex.
Kiegészítések és hibák
1. Vannak olyan webmesterek, egy külön blokkot Yandex teljesen megkettőzése az általános irányelv, és hozzá egy gazda. Látszólag egyébként Yandex nem tudja megérteni. Ez túl sok. Saját robots.txt fájl kereső ismert hosszú ideig, és ő azt tökéletesen orientált, hogy maradéktalanul eleget minden megrendelést.
2. Lehet, hogy cserélje több vonal kezdődő wp irányelv Disallow: / wp-, én nem ezt, mert félek - hirtelen egy cikket kezdődő wp, ha biztos benne, hogy a blog nem tartalmaz ilyen bátran rövidítésére kódot.
3. újraindexelheti a robots.txt fájl nem telt el azonnal, így a módosítások keresők feltűnhet csak egy pár hónapig.
4. A Google azt javasolja a nyílt hozzáférést a fájlokat botok témák és helyszíni scriptek, ijesztő webmesterek esetleges szankciókat, mert nem felelnek meg e szabály alól. Végeztem egy kísérletet, amely értékeli, hogy mennyire befolyásolja ez a kereslet helyzete a helyszín kereső - a részleteket és a kísérlet eredményeit itt.
Helyes robots.txt fájl WordPress szinte sablonos dokumentum és a forma ugyanaz 99% -a létrehozott projektek erről a motorról. A maximum, ami szükséges webmesterek - ez az, hogy az egyéni beállításokat a sablon.
Egyéb hasznos blog cikkek:
- All in One SEO Pack - megfelelő beállítás funkció SEO Plugin for WordPress
- Yandex keresés: Miért van szüksége, és hogyan kell telepíteni?
- DDoS támadás - mi ez? Hogyan talál forrásokat, és hogy megvédje az oldalt DDoS?
- Hyper gyorsítótár - a telepítést és használja a modult cache oldalak WordPress
- Hogyan írjunk egy cikket, hogy tetszik Yandex?
- Hogyan véglegesen törölni Replytocom WordPress? Megszabadulni ismétlődő oldalak
Az élet nem áll meg, a poszt írták régen.
De ezek apróságok. Powered robotok teljes összhangban vannak a szabályokat, és nem megtévesztő, aki figyelmesen elolvassa a találkozó az összes sorban.
Ha figyelni, hogy a különbségeket, akkor láthatjuk, hogy ezek nem lényeges:
- Én el a külön szabályok kartinochnyh botoktól Yandex és a Google és a kombinált őket egy közös egységet az összes robot - a legjobb nem tudom, jobb, és így és így.
- a legutóbbi Google kérésére hozzáfér mappák, témák és szkriptek, nincs változás a indexelési és lelőhely számoltak be, úgyhogy nem tudom, hogy ajánlja, hogy a felfedezés minden.
- Állok tabu szabályok egyes robotok nem tartozik Yandex vagy a Google. Azt találták, hogy az oldalamon látogatnak nem szükséges, a maximum, ami hatással van - a terhelés otthont ismét a szabályok nem kötelező, és anélkül, hogy őket, én nem ajánlom.
Néhány hónap múlva lehet változtatni valami mást, például lesz néhány bosszantó bot, amit akar megszabadulni, vagy a honlapomon, hogy adjunk egy mappát, amely nem akarom mutatni a keresők - ez nem jelenti azt, hogy meg kell adni a hozzájuk kapcsolódó szabály minden helyszínre az interneten.
Én mind a 16 vonal + két blog url = 18. Vettem egy okos plug-s által generált Robot és sok rejtett gond nélkül. Én csak hozzá néhány oszlopot, amely az én nofollov és noindeks. De valamilyen oknál fogva -, majd onnét Yasha. Túl hosszú ... kísérlet, amíg meg nem mondják, és majd megmondja.
Gyors pénz az interneten
Itt keresni bloggerek
A legutóbbi blog cikkek