A Google John Muellert megkérdezték, hány megabájt HTML-t térképez fel a Googlebot oldalanként. A kérdés az volt, hogy a Googlebot két megabájt (MB) vagy tizenöt megabájt adatot indexel-e. Mueller válasza minimálisra csökkentette a kérdés technikai aspektusát, és egyenesen a probléma lényegére tért át, ami valójában arról szól, hogy mennyi tartalom van indexelve.
GoogleBot és más robotok
A Bluesky-ben folyó vita kellős közepén valaki újjáélesztette a kérdést, hogy a Googlebot 2 vagy 15 megabájt adatot térképez fel és indexel.
A következőket posztolták:
„Remélem, megvan, ami arra késztetett, hogy futj 🙂
Szuper hasznos lenne több pontosítás, és életszerű példák, mint például: „Az oldalam X Mb hosszú, X Mb után levágódik, az A erőforrást is betölti: 15 Kb, B erőforrást: 3 Mb, a B erőforrás nincs teljesen betöltve, de az A erőforrás azért van, mert 15 Kb < 2 Mb”.
A pánik körülbelül 2 megabájtos korlátja túlnőtt
Mueller azt mondta, hogy nem szükséges a bájtokat mérlegelni, és arra utalt, hogy végső soron nem az a fontos, hogy korlátozzuk, hány bájt legyen egy oldalon, hanem az, hogy a fontos részek indexelve legyenek-e vagy sem.
Ezenkívül Mueller azt mondta, hogy ritka, hogy egy webhely meghaladja a két megabájt HTML-tartalmat, elvetve azt az elképzelést, hogy lehetséges, hogy egy webhely tartalma nem kerül indexelésre, mert túl nagy.
Azt is elmondta, hogy a Googlebot nem az egyetlen bot, amely feltérképez egy weboldalt, nyilvánvalóan azért, hogy megmagyarázza, miért nem korlátozó tényező a 2 megabájt és a 15 megabájt. A Google közzéteszi a különböző célokra használt összes feltérképező robot listáját.
Hogyan ellenőrizhető, hogy a tartalomrészek indexelve vannak-e
Végül Mueller válasza megerősített egy egyszerű módszert annak ellenőrzésére, hogy a fontos részek indexelve vannak-e vagy sem.
Mueller így válaszolt:
„A Google-nak sok feltérképező robotja van, ezért osztottuk fel. Rendkívül ritka, hogy a webhelyek problémákba ütközzenek ezzel kapcsolatban, 2 MB HTML (a Googlebotra koncentrálóknak) elég kevés. Általában úgy szoktam ellenőrizni, hogy egy fontos idézetet lejjebb keresek az oldalon – általában nem kell bájtokat mérlegelni.”
Passzusok a rangsoroláshoz
Az emberek figyelme rövid, kivéve ha olyan témáról olvasnak, amiért szenvedélyesek. Ilyenkor hasznos lehet egy átfogó cikk azoknak az olvasóknak, akik valóban szeretnének mélyebbre merülni, hogy többet megtudjanak.
SEO szempontból megértem, hogy egyesek miért érzik úgy, hogy egy átfogó cikk nem ideális a rangsoroláshoz, ha egy dokumentum több témát is részletesen lefed, amelyek közül bármelyik lehet önálló cikk.
A kiadónak vagy a keresőoptimalizálónak vissza kell lépnie, és fel kell mérnie, hogy a felhasználó elégedett-e egy téma alapos lefedettségével, vagy a felhasználóknak szükségük van-e a téma mélyebb kezelésére. Az átfogóságnak is különböző szintjei vannak, az egyik részletes részletekkel, a másik pedig a részletek áttekintési szintjével, mélyebb lefedettségre mutató hivatkozásokkal.
Más szavakkal, a felhasználóknak néha az erdőre, néha pedig a fákra van szükségük.
A Google már régóta képes rangsorolni a dokumentumrészeket a szövegrész-rangsorolási algoritmusaival. Végső soron véleményem szerint valójában azon múlik, hogy mi hasznos a felhasználók számára, és valószínűleg magasabb szintű felhasználói elégedettséget eredményez.
Ha a téma átfogó lefedettsége felkelti az embereket, és elég szenvedélyessé teszi őket, hogy megosszák másokkal, akkor az nyer.
Ha az átfogó lefedettség nem hasznos az adott témában, akkor jobb lehet, ha a tartalmat rövidebb lefedettségre bontja, amely jobban illeszkedik azokhoz az okokhoz, amelyek miatt az emberek az adott témáról olvasnak az adott oldalra.
Elvitelre
Noha Mueller válaszában ezeknek az elviteleknek a többsége nem szerepel, véleményem szerint a SEO bevált gyakorlatait képviselik.
- A HTML méretkorlátai megcáfolják a tartalom hosszával és az indexelés láthatóságával kapcsolatos mélyebb kérdések iránti aggodalmat
- A megabájtos küszöbök ritkán jelentenek gyakorlati korlátot a valós oldalakon
- A bájtok számlálása kevésbé hasznos, mint annak ellenőrzése, hogy a tartalom valóban megjelenik-e a keresésben
- A megkülönböztető szövegrészek keresése praktikus módja az indexelés megerősítésének
- Az átfogóságot a felhasználói szándéknak kell vezérelnie, nem a feltérképezési feltételezéseknek
- A tartalom hasznossága és áttekinthetősége fontosabb, mint a dokumentum mérete
- A felhasználói elégedettség továbbra is döntő tényező a tartalom teljesítményében
Az azzal kapcsolatos aggodalmak, hogy hány megabájt jelenti a Googlebot kemény feltérképezési korlátját, azt a bizonytalanságot tükrözi, hogy egy hosszú dokumentum fontos tartalma indexelve van-e, és elérhető-e a keresésben. A megabájtokra való összpontosítás eltereli a figyelmet azokról a valódi kérdésekről, amelyekre a keresőoptimalizálóknak kell összpontosítaniuk, vagyis hogy a téma lefedettségének mélysége megfelel-e a legjobban a felhasználó igényeinek.
Mueller válasza megerősíti azt a megállapítást, hogy az indexeléshez túl nagy weboldalak ritkák, és a rögzített bájtkorlátok nem olyan korlátok, amelyek miatt a keresőoptimalizálóknak aggódniuk kellene.
Véleményem szerint a keresőoptimalizálók és a kiadók valószínűleg jobb keresési lefedettséget fognak elérni, ha eltolják a hangsúlyt a feltételezett feltérképezési korlátokra való optimalizálásról, és ehelyett a felhasználói tartalomfogyasztási korlátokra összpontosítanak.
Ha azonban a kiadó vagy a keresőoptimalizáló aggódik amiatt, hogy a dokumentum vége közelében lévő szakasz indexelve van-e, akkor egyszerű módja van az állapot ellenőrzésére úgy, hogy egyszerűen megkeresi az adott szakasz pontos egyezését.
A téma átfogó lefedettsége nem jelent automatikusan rangsorolási problémát, és nem mindig a legjobb (vagy legrosszabb) megközelítés. A HTML mérete nem igazán aggaszt, hacsak nem kezdi befolyásolni az oldal sebességét. Az számít, hogy a tartalom világos, releváns és hasznos-e a megcélzott közönség számára a felhasználó céljainak megfelelő részletességi szinten.
