Hogyan kell helyesen konfigurálni wordpress

robots.txt - egy szöveges fájl, hogy használják, hogy megakadályozzák robotok (mint például a kereső robotok) indexelési és a „bypass” egyes részei a webhely. Anélkül, hogy ez a fájl, botokat képes lesz járni szabadon a helyszínen, hogy nem túl jó.

Alapértelmezésben WordPress nem hoz létre egy robots.txt fájlt, ezért szükséges létrehozni és testre saját is magam.

Az általános jelentését, amely tiltja a hozzáférést bizonyos részei a webhely, hogy összpontosítson a fontos tartalmat a robotokat.

Mi történik, ha nem rendelkezik robots.txt fájlt?

Röviden, az indexelni kívánt mindent.

A WordPress ez a következőket jelenti:

  • / WP-magában foglalja
  • / Wp-content / themes
  • / Wp-content / plugins /
  • Ahogy már bizonyára kitalálta, a fentiek egyike sem releváns tartalom SEO és akár károsíthatja a webhelyen. A Google engedélyez bizonyos számú „hivatkozás szemetet”, ezért érdemes koncentrálni a tartalmak és oldalak.

    Hogyan ellenőrzik a webhely indexelése?

    A megoldás nagyon egyszerű.

    Másolja be az alábbi bele:

    Mentsd el a fájlt. Ha létrehozott ki a szerver, egyszerűen feltöltheti a gyökérkönyvtárba az oldalon. Ez ugyanaz a könyvtár, ahol a könyvtár wp-admin, wp-includes és wp-content.

    Ez minden. Most akkor észreveheti, hogy a honlap bizonyos hivatkozásokra kiesnek a keresési pár napos vagy akár hetekig.

    Ha azt szeretnénk, hogy további fájlokat, csak adj egy szabály, mint ez:

    Kérjük, vegye figyelembe, hogy mi hiányzik a honlap domain, és adjuk hozzá a mappa elérési útját, kezdve a perjel (/).

    Kapcsolódó cikkek