Akár bezárul az indexelési kategóriákból
+ Az archívumok indexelése lehetővé teszi a keresőmotorok számára, hogy gyorsan megtalálják az alaplaptól elrejtett oldalakat
+ Az indexelés lehetővé teszi az archívumok számára, hogy áthelyezzék a súlyt a végső oldalra a belső összeköttetés miatt
- Az archívumok többszörös tartalmúak, és elmosódnak a főoldal súlyától
- a kibocsátás helyett a főoldal le tudja tölteni egy lecsupaszított lapot az archívumból, garantáltan a legvégén alszik, nem kap átmenetet
Nyilvánvaló, hogy senki sem tudja pontosan, hogy működik a keresőmotorok, így kölcsönösen kizáró érvek szólnak. Ráadásul a kérdés megválaszolása valószínűleg megváltozik a keresőmotorok algoritmusa megváltozásával (és persze vannak olyan helyzetek is, ahol a keresési oldalak számának maximalizálása szükséges). Így két kérdés a kiváló közösség számára:
1. Milyen megközelítést alkalmaz, figyelembe véve a legfrissebb változásokat a keresési algoritmusokban?
2. Ha Yandex indexek annyi oldalt, mint amennyi a fájlban sitemap.xls, ez azt jelenti, hogy ő elvileg nem érdekel a fájl, és megtiltja az indexelés (ha ments) számára szükséges robots.txt. Úgy tűnik, a Google nem szenved ettől.
Köszönjük előre a válaszokat.
2. Ha Yandex indexek annyi oldalt, mint amennyi a fájlban sitemap.xls, ez azt jelenti, hogy ő elvileg nem érdekel a fájl, és megtiltja az indexelés (ha ments) számára szükséges robots.txt. Úgy tűnik, a Google nem szenved ettől.
Ez Yandex számára nem más, mint egy ajánlás, mint a Google robots.txt. A megfelelő webhelytérképet automatikusan létre kell hoznia, és nem tartalmazhat hivatkozásokat a már indexelt oldalakra, ha nagy projektekről van szó, ha kicsi, akkor elvileg nincs szükség.
+ Az archívumok indexelése lehetővé teszi a keresőmotorok számára, hogy gyorsan megtalálják az alaplaptól elrejtett oldalakat
+ Az indexelés lehetővé teszi az archívumok számára, hogy áthelyezzék a súlyt a végső oldalra a belső összeköttetés miatt
Nagyon ellentmondásos. Ez a linkelés a legtöbb esetben nem hatékony.