Hogyan lehet elkerülni a helytelen keresőmotorok indexelését, a kereseteket az interneten?

Sok webmester létrehozza saját weboldalát, vagy részt vesz promóciójában, szembenéznek a rossz indexelés problémájával. Mivel a fő kritériumát a fejlesztése és támogatása az oldalon - ez a részvételt, akkor szükség van, hogy fordítsanak különös figyelmet, hogy van, olvasni, figyelni felé keresők a helyszínen, hogyan indexeli őket. Annak ellenére, hogy a nagy számú pletykákat problémák indexelése új helyek különösen a CMS, a legtöbb esetben, nem hibáztatom a keresők és a helyszínek maguk nem tesznek mindent könnyen indexelés. Számos probléma merül fel, a legfontosabbakat vesszük figyelembe.

Amint már említettük, a legtöbb esetben a helyszíneken jelentkező problémák, és ezen felül gyakran technikai jellegűek. Vagyis problémák merülnek fel az indexelés technikai oldalán, vagyis az oldalon és az összes oldalán. Nem szabad megfeledkeznünk arról, hogy a webhely indexelését egy robot végzi, amely definíció szerint nem tud személyesen dolgozni, és ami számunkra megfelelő, számunkra teljesen elfogadhatatlan. De ezt tovább.

A webhely gyenge indexelésének okai:

1) A szűrő alatt lévő domain. Minden nap kereskedelmi területeken egyre óriási lendület, az ok egyszerű, mert a domain név regisztráció gyors és ingyenes nevek egyre kisebb. De ha domaineket vásárol a kezéből, akkor mindig fennáll annak a veszélye, hogy a szűrő alatt domain nevet kap. Néhány évvel ezelőtt, a webmester elvégezte a helyszínen rács alatt értékesítése linkek ilyen cserék a Sape, Liex, Seozavr és így tovább, de megjelenése után az AGS - lelkesedés gyorsan alábbhagyott, mert Yandex küldött mint HS (szar helyek) alatt a szűrő csomag. Az egyik barátaim egyik napról a másikra több száz ilyen helyszínt vesztettek el, és egy álom, nagy pénz nélkül, véget ért.
Az eljárás tovább gyorsult, amikor az AGS-30 új verzióját felváltotta az AGS-17. Ezeknek a szűrőknek a hatása miatt sok webmester egyszerűen elhagyta a több ezer tartományt, amelyre ezt a szűrőt alkalmazta. Nos, annak érdekében, hogy ne veszítsünk el pénzt, sokkal kényelmesebb egy ilyen hely eladása, elfogadható díj ellenében semmi értelme. Ezután az új tulajdonos kérdéseket tesz fel, és miért nem tartósan indexelt ez a webhely 🙂

Ha Ön a tulajdonosa ennek a tartománynak nem lusta írni támogató Yandex és elmagyarázza a helyzetet, talán a probléma megoldódik az indexelés gyorsabb, mint gondolnád. Mindenesetre, ha veszel egy bizonyos tartományban a semmiből, ne legyen lusta, hogy további referenciák, nézd vebarhive hogy a helyszínen volt ezen a területen, egy szó, megpróbál minél több információt a lehető.

2) Gyenge webhely-navigáció. A navigáció alatt megértették a belső hivatkozások, menük, speciális widgetek egész sorát, amelyek célja, hogy javítsák a látogatókat a webhely oldalaira. A keresőrobot is egyfajta látogató, de itt még egy kis kényelemre van szüksége. A navigáció fő eleme a webhely menüje. Általában olyan hivatkozásokat tartalmaz, amelyek már tartalmazza a végső oldalakra mutató hivatkozásokat. Tehát, ha sok alfejezet van, sok webmester inkább a szokásos menüket választja le egy legördülő menüvel, használja a Java szkripteket, de felejtse el, hogy a keresőmotorok nem ismerik fel az ilyen típusú navigációt. Annak érdekében, hogy elkerülhető legyen a webhelyen található oldalak megtalálásával kapcsolatos probléma, szükség van arra, hogy annyi normál hiperlinket tartalmazzon, amelyet a keresőmotorok könnyen felismernek. Ezenkívül fontos a végső oldalak mélysége, amelyet a fő kattintások száma számít: minél kevesebb kattintást kell elérned a webhely fő oldaláról a leginkább "mélyre", annál jobb. Ideális esetben - 2-3 kattintás, de a modern webhelyek elérése néha nagyon nehéz. Ezért a rossz indexelés miatt más okokat is figyelembe kell venni.

3) Belső összekapcsolás. Furcsa módon, de sok webmester ilyen egyszerű módon javítja a kis figyelemfelkeltést. A rossz összeköttetés nem csak az oldal rossz indexelésének oka, hanem az alacsony frekvenciájú kérelmek által előidézett oldalak keresőmotor kimenetének alacsony helye is. Újra összekapcsolva, egyszerű nyelven, a hiperhivatkozások elrendezése az oldal egyik oldaláról a másikra. Egy webhely végs oldalai, mint cikkek lapjait jobban és gyakrabban indexálják a keresési rendszerekkel, ezért kompetens módon egy webhely összekapcsolásával lehetőség nyílik a keresőmotor robotjának rendezésére.

4) Szegény web hosting. Mindenki, aki legalább egyszer használta a fizetett tárhelyet, szembe kell néznie a webhely elérhetetlenségével, lefagyásával stb. Az ilyen problémák nemcsak a látogatókat akadályozzák, hanem a webhely indexelését is károsítják. Először is, a kereső robot önmagában egy nagyon nagy terhelést jelent a tárhely, így ha nem tervezték nehéz terhek, a robot csak nem tudja indexelni az oldalt, és így a látogatók a keresők nem. Többek között a rossz tárhely nagy kudarcot okozhat, ami azt jelenti, hogy a webhely alulreprezentálható. Ezért azt javaslom, hogy csak kiváló minőségű tárhelyet használj, még ha kicsit drágább is.

5) Nincsenek külső hivatkozások. Természetesen a keresőmotorok régóta különleges formákat kapnak a helyszínek regisztrálásához, de ezek nem mindig adják meg a megfelelő hatást, néha a webhely hónapokig nincs indexelve. Ebben az esetben a webhely oldalaira mutató külső linkek segíthetnek. Az ilyen hivatkozásokat olyan webhelyekről kell elhelyezni, amelyeket gyakran a keresőmotorok indexelnek, majd a webhely indexelése javulni fog.

6) Érvénytelen html kód. Az indexelés számos problémája a webhely oldalainak helytelen html kódjának köszönhető. Természetesen a legtöbb webhely jelenleg professzionális CMS-t használ, de ez mégsem biztosítja a hibákat. Nem önállóan írt CMS-ről van szó, amely definíció szerint sok apró és nagy hibát tartalmaz.

7) Spam kulcsszavak. Botok küzd küzd mesterséges optimalizálást, ezért ha a telephely rendkívül optimalizálva, a helyszínen spam kulcsszavak, a keresőprogramok lehet gyanús egy ilyen hely. Még a szűrő alá is eshet, és akkor nagyon nehéz lesz kiszállni. Most egy ember hazudik nem csak megbünteti a Yandex AGS, de a Google és a SEO komolyan vette fel az új szűrőt Penguin már sikerült, hogy nagy a zaj, mert alatta egy éjszakán tetszett ezer helyszínek. Van egy kicsit is tőle 🙂

8. Ritkán frissített tartalom. A rossz indexelés technikai okai mellett vannak mások is. Például a weboldal tartalmának ritka frissítése. Ha a webhelyet nagyon ritkán frissítik, akkor a keresőrobot helyszíni látogatásainak gyakorisága változik. Minél gyakrabban frissítik a tartalmat, annál gyakrabban és jobb az indexelés. Ezért a szakértők nagy figyelmet fordítanak nemcsak a tartalomfrissítések gyakoriságára, hanem a stabilitásra is. Ezenkívül érdemes megjegyezni, hogy az egyedi tartalom sokkal érdekesebb a keresőmotorokhoz képest, ez is befolyásolhatja az indexelést.

Azt tanácsolom, hogy vizsgálja meg a cikket a Yandex indexelésének felgyorsításáról. bár vannak pillanatok és megismétlődnek, de önmagáért valami újat találnak.

Amint látja, sok oka van a rossz indexelésnek, nem mindegyik felsorolt. Jó indexelés - a legfontosabb, hogy a siker a helyén, így azt tanácsolom, hogy fordítsanak különös figyelmet ezen a ponton, különösen ha figyelembe vesszük azt a tényt, hogy ez nem olyan nehéz, mivel a fenti alapvető ajánlások, amelyek, ha megoldja a problémát egyszer és mindenkorra. Sok szerencsét!

Kapcsolódó hozzászólások

Ossza meg a cikket másokkal:

Kapcsolódó cikkek