Hogyan kell helyesen konfigurálni wordpress
robots.txt - egy szöveges fájl, hogy használják, hogy megakadályozzák robotok (mint például a kereső robotok) indexelési és a „bypass” egyes részei a webhely. Anélkül, hogy ez a fájl, botokat képes lesz járni szabadon a helyszínen, hogy nem túl jó.
Alapértelmezésben WordPress nem hoz létre egy robots.txt fájlt, ezért szükséges létrehozni és testre saját is magam.
Az általános jelentését, amely tiltja a hozzáférést bizonyos részei a webhely, hogy összpontosítson a fontos tartalmat a robotokat.
Mi történik, ha nem rendelkezik robots.txt fájlt?
Röviden, az indexelni kívánt mindent.
A WordPress ez a következőket jelenti:
Ahogy már bizonyára kitalálta, a fentiek egyike sem releváns tartalom SEO és akár károsíthatja a webhelyen. A Google engedélyez bizonyos számú „hivatkozás szemetet”, ezért érdemes koncentrálni a tartalmak és oldalak.
Hogyan ellenőrzik a webhely indexelése?
A megoldás nagyon egyszerű.
Másolja be az alábbi bele:
Mentsd el a fájlt. Ha létrehozott ki a szerver, egyszerűen feltöltheti a gyökérkönyvtárba az oldalon. Ez ugyanaz a könyvtár, ahol a könyvtár wp-admin, wp-includes és wp-content.
Ez minden. Most akkor észreveheti, hogy a honlap bizonyos hivatkozásokra kiesnek a keresési pár napos vagy akár hetekig.
Ha azt szeretnénk, hogy további fájlokat, csak adj egy szabály, mint ez:
Kérjük, vegye figyelembe, hogy mi hiányzik a honlap domain, és adjuk hozzá a mappa elérési útját, kezdve a perjel (/).