Tesszük a jobb és

A cél az, hogy megakadályozzák az egyes könyvtárak az indexelés a keresőmotorok, annak érdekében, hogy megszabaduljon ugyanazzal a tartalommal. Például az ugyanebben a cikkben lehet elérni mind / tag / és / kategória /.

Miért ugyanazzal a tartalommal rossz?

Itt van, amit a Google azt mondja, hogy ez (fordítás), akkor is talál információt a kereső Yandex, amely kimondja, hogy az algoritmusok banyat oldalak ugyanazzal a tartalommal. Nem tudom, hogy ez igaz-e vagy sem, nem vagyok szakértője a SEO (ha vannak olyan szakértők - a otpishite kammenty), de csak abban az esetben lee szinkronizálás!

Próbáljon keresni a Google vagy a Yandex, és meg fogja találni sok információt ebben a témában.

robots.txt

robots.txt - file korlátozza a hozzáférést a tartalomhoz keresőrobotok a http-szervert. A fájl nem lehet a gyökere a helyén (azaz egy relatív útvonalat /robots.txt oldalon). Ha több aldomaint fájlt kell elhelyezni a gyökérkönyvtárban minden. Ez a fájl kiegészíti Sitemaps szabvány, ami pontosan az ellenkezője célja: hogy megkönnyítse a tartalomhoz való hozzáférést csúszómászó.

robots.txt

Tehát én úgy néz ki robotok:

Azt teszi, hogy a keresőrobotok index én csak „obszcén” és „Archívum”. Figyeljük meg azt a maszkot / wp-. URL wp-login.php, wp-register.php, wp-admin, stb alá került indexelés tiltás (tiltása).

Azt is hagyjuk index én „/ wp-content / feltöltések /” szolgáltatások „Yandeks.Kartinki” és a „Google Képek”. hiszen vannak tárolva a fő kép. És osztom a „sitemap.xml” fájl jobb indexelés.

Ahhoz, hogy nézd meg a szintaxist és szerkezete a robots.txt fájl létezik számos speciális online szolgáltatások:

Csak nem szabad elfelejteni a sitemap.xml fájl

Sitemaps - az XML-fájl, amely információt keresők (mint például a Google, a Yahoo, Ask.com, MSN, Yandex) az oldalt a honlapon, amelyek indexált. Webhelytérképek segítségével keresők keresse a webhely oldalain, az idő az utolsó frissítés, a frissítési gyakoriság és fontosság képest más webhely oldalaira a kereső tudott index az oldalt értelmesen.

Saytmap nem szükséges, és a keresők nem garantálják a használatát, csak segíti a keresőrobotok számára, hogy index, de azt hiszem, ez nagyon hasznos!

A Wordpress bővítmény létezik - Google XML Sitemaps (más hasznos plugin Wordpress általam használt). Ez a plug-in generál sitemap.xml fájlt. amelyben mindkét információt nyújt a keresőrobotok számára, hogy index az oldalon. Te magad is konfigurálhatjuk, és adja meg prioritásként határozta meg a cikkek, oldalak, stb

Központok Google webmaster és Yandex

Ahhoz, hogy gyorsítsák fel az indexelés ajánlani értesíteni a Google és Yandek körülbelül a robots.txt fájlt, és sitemap.xml. erre vannak speciális szolgáltatások:

A http-ping értesíteni keresők a frissítések webhelytérképekben

Megadhatja a kereső Sitemap fájl helyét a HTTP-kérés:

Jó az idő. Van egy kérdés ugyanazzal a tartalommal.
Például a részben van egy lista cikkek, sokan közülük a címkét. „Tovább” gombra kattintva a linkre áttérünk egy cikket egy egyedi URL-én. De ebben a kategóriában rövid cikkeket, hogy teljes mértékben tükrözze a szöveg a cikk a listán cím bejegyzéseket. Ie kattintva ezt a történetet, megyünk yurl cikk, ahol a szöveg teljesen azonos a szöveget az oldalon fejezetek. Hogyan lehet a legjobban elkerülni az ilyen szinkronizálás?
Köszönöm a választ.

Általában azt állítsa az indexelés cikkeket a testületek listáját, és már csak a címek és linkek egy külön oldalt.

Köszönöm. Zárt révén SEO plugint all-in-one fejezetek, a levéltárak és a címkéket. Remélhetőleg ez elég lesz.

Nem tért vissza oszlopok ezelőtt, szükségem van rájuk. Mondd, hogyan lehetséges, hogy lezárja a „test cikkek oszlopban lista”?

Hello. Én is hozzá kell adni a honlapon egy robots.txt fájlt ezzel a tartalommal:

Mivel ez a probléma megoldásához? Még mindig szeretnék, hogy vegye vissza oldalak ingyenes tárhely! Beleértve oldalak uCoz! Én semmit nem tud segíteni, én nem írni a szabályokat. A yukoz és más tervezők - melegágya a HR.

Nos, minden rendben. Itt látható, hogy a robotok:

Ahhhh. Vannak Wikipedia, ahol ezek a kódok vannak, rájöttem, hogy jelzi a hibakódot 403:

„Megjelent a HTTP / 1.0.

A szerver megértette a kérést, de ő nem hajlandó eleget korlátai miatt a hozzáférést az ügyfél a megadott erőforrás.

Ha hozzáférést az erőforrás hitelesítést igényel segítségével HTTP, a kiszolgáló a válasz a 401 (vagy proxy 407). Egyébként határértékeket a kiszolgáló rendszergazdája vagy fejlesztő web-alapú alkalmazások és lehet bármilyen, attól függően, hogy a szoftver képességeit.

Mindenesetre, az ügyfélnek meg kell kommunikálni az elutasítás okait a kérés feldolgozásakor.

A legvalószínűbb oka korlátozásokat szolgálhat:

Megkísérel hozzáférni a web szerver rendszer erőforrásait (pl fájlokat, .htaccess vagy .htpasswd) vagy fájlokat, amelyekre a belépés lezárták segítségével konfigurációs fájlokat.

Access hitelesítést igényel a HTTP szerek (például hozzáférés a CMS és az oldalunkon regisztrált felhasználóknak).

„Megjelent a HTTP / 1.0.

Sikeres az erőforrás kérelmet. Ha az ügyfél által kért adatokat, azok a fejléc és / vagy a test az üzenet. "

És még mindig akarnak oldalamon indexelt. És azt akarom, hogy weboldalak ingyenes tárhely! Beleértve oldalak uCoz! És még mindig szeretnénk, hogy a helyszínen mérőszámok, mint például a TIC 1500 PR 13. Hogyan tudom ezt megtenni? Válasz valaki kérem?

Megpróbáltam felvenni a webhely Yandex, és ő adta nekem, hogy állítólag nem index, mert a bezárt robot, de én nem hozzá ez a robot, de Yandex miért rájön. és valóban robotok van írva, hogy tilos az index az egész oldal összes választék. hogy végül is, és most mit kell tennie?

Kapcsolódó cikkek