Kísérlet a szándékos törlésről és a webhelytérképről a kiadatás növelése érdekében

Kísérlet a szándékos törlésről és a webhelytérképről a kiadatás növelése érdekében
A legtöbb SEO a bevált módszerek használatát használja: tartalomoptimalizálás, webhelyoptimalizálás, linkek vásárlása. Meg kell azonban értenünk, hogy a keresőmotorok tökéletesen ismerik a promóció szakaszait, és az ilyen módszereket használó webhelyek nagyon könnyen meghatározhatók, akárcsak a minium. Mindig megpróbálom népszerűsíteni a weboldalakat olyan módon, amely távol áll a tömegek véleményétől, szeretnék elmondani egy ilyen kísérletről.

Azt hiszem, senki nem fog vitatkozni az én következő nyilatkozat: ha a PS úgy látja, hogy a webhely nem működik SEO, akkor lesz liberálisabb ezen a honlapon. Fokozatosan mindenki ehhez jön: kezdik hozzá a természetes kapcsolatot, megveszik a pattogó linkeket, megállítja a tartalom optimalizálását stb. Ie már elérték azt a pontot, ahol webhelyeink referenciaként és tartalomban természetesnek tűnnek. Azonban senki sem törődik a harmadik karról - ez az oldal optimalizálása.

Egy időben megkérdeztem magam: itt van a honlapom, csak természetes linkek vezetnek hozzá, a tartalom valóban az emberek számára, különböző időpontokban hagyja el ... Mennyire tudja a kereső, hogy valaki "előmozdítja" az erőforrást . Az egyetlen dolog, ami továbbra is fennmarad, az a webhely optimálisan optimalizált belső magja, nevezetesen a helyes robots.txt, ahol az összes másolat bezáródik, az ideális weboldalt az összes oldallal stb. Ez még logikus, hogy egy olyan webhely, amely állítólag nem halad előre, rendelkezik robotokkal és webhelytérképekkel? Bármi módon, bár valaki, de tanácsot adott az optimalizálásról, és a PS már megérti, hogy az ilyen erőforrás rangsorolásakor a bónuszokat nem szabad megadni.

Tehát a kísérlet lényege. körülbelül egy évvel ezelőtt tettem ezt a feltételezést, és úgy döntöttem, hogy ellenőrizni, törölt egy régi helyek robotok és sitemap (oldalak nem volt különleges), és egy pár fiatal tudatosan nem fogadott semmit.

Egy év telt el, és összefoglaljuk.

1) Az egyik erőforrás a cég angol webhelye, ahol a CodingStaff-ot dolgozom. Amint látja, nincs sem egyik sem a másik. Szó szerint 1,5 hónappal a törlés után az erőforrás minden fő pozíciót átvett a fő kulcsokon. Nyilvánvaló okokból nem tudom megmutatni a statust, de ellenőrizheted a fő kéréseket a buzz - dotnetnuke fejlesztés, dotnetnuke bőr, stb.

Egy másik sikeres verziót kaptak egy indításkor, nem akarod még ragyogni, és egy teljesen új helyszínen is (ha valamilyen repertoárra, majd írásra, akkor világítok).

A minta hiányos, hanem azért is, mert ez egy kísérlet, és nem is egy megerősítés. De a kísérlet ötlete alkalmas a vitára. Úgy döntöttem, hogy soha nem adom hozzá egy oldalt addurilkihez, ne adjunk szükségtelenül (és ez gyakran szükség van) a robotokra és a webhelytérképre.

Ui Már előzetesen azt a kérdést vetem fel, hogy miért robotom van a blogomban. Válaszolok: a WP automatikusan létrehozza ezt a fájlt, és jelen van a WP összes webhelyén. Éppen ellenkezőleg, azáltal, hogy eltávolítom, valahogy fel fogok világítani. Igen, és a blog olyan sokatmondó, ezért minden jogom van arra, hogy minden szükségtelenet zárjon))

De miért, mégis miért tiszta html oldalak olyan jól haladnak? Talán nem csak a felesleges kód hiánya miatt, hanem az erőforrás támogatását jelző elemek hiánya miatt is?