Üdvözöljük a heti Pulse for SEO oldalán: a frissítések bemutatják, hogyan követheti nyomon a mesterséges intelligencia láthatóságát, hogyan törheti fel egy szellemoldal a webhely nevét a keresési eredmények között, és milyen új feltérképezési adatok árulkodnak a Googlebot fájlméret-korlátairól.
Íme, mi számít Önnek és a munkájának.
A Bing Webmaster Tools hozzáadja az AI idézet irányítópultját
A Microsoft bevezetett egy AI Performance irányítópultot a Bing Webmaster Toolsban, amely lehetővé teszi a kiadók számára, hogy rálátást kapjanak arra, hogy milyen gyakran hivatkoznak tartalmukra a Copilot és az AI által generált válaszok. A funkció most nyilvános előnézetben van.
Főbb tények: Az irányítópult nyomon követi az összes hivatkozást, a napi idézett oldalak átlagos számát, az oldalszintű hivatkozási tevékenységet és a megalapozó lekérdezéseket. A földelő lekérdezések megmutatják, hogy a mesterséges intelligencia milyen kifejezéseket használt, amikor válaszokat keresett a tartalomból.
Miért számít ez?
A Bing most egy dedikált irányítópultot kínál az AI hivatkozások láthatóságához. A Google belefoglalja az AI áttekintéseket és az AI-mód tevékenységeit a Search Console általános teljesítményjelentésébe, de nem készít külön jelentést, és nem ad hivatkozás jellegű URL-számokat. Az AI áttekintések emellett az összes hivatkozott oldalt egyetlen pozícióhoz rendelik, ami korlátozza, hogy mit tudhat meg az egyes oldalak teljesítményéről az AI-válaszokban.
A Bing irányítópultja tovább megy azáltal, hogy nyomon követi, mely oldalakat, milyen gyakran és milyen kifejezések váltották ki az idézést. A hiányzó darab kattintási adat. Az irányítópulton látható, hogy mikor hivatkoznak a tartalomra, de azt nem, hogy ezek az idézetek forgalmat generálnak-e.
Most már ellenőrizheti, hogy mely oldalakra hivatkoznak a mesterséges intelligencia válaszai, és azonosíthatja a megalapozó lekérdezések mintáit, de az AI láthatóságának az üzleti eredményekkel való összekapcsolásához továbbra is szükség van ezeknek az adatoknak a saját elemzésével való kombinálására.
Mit mondanak a SEO szakemberek
Wil Reynolds, a Seer Interactive alapítója ünnepelte a funkciót az X-en, és az új alaplekérdezési adatokra összpontosított:
„A Bing most alapozó lekérdezéseket ad a Bing Webmestereszközökben!! Megerősítettem, most meg kell értenem, mit kapunk tőlük, mit jelent ez és hogyan kell használni.”
Koray Tuğberk GÜBÜR, a Holistic SEO & Digital alapítója, közvetlenül összehasonlította a Google X-es eszközeivel:
„A Microsoft Bing Webmaster Tools mindig is hasznosabb és hatékonyabb volt, mint a Google Search Console, és ismét bebizonyították, hogy elkötelezettek az átláthatóság iránt.”
Fabrice Canel, a Microsoft Bing fő termékmenedzsere az X-en való bevezetést a hagyományos és a mesterséges intelligencia által vezérelt optimalizálás közötti hídként fogalmazta meg:
„A kiadók most láthatják, hogyan jelenik meg a tartalom a mesterséges intelligencia korszakában. A GEO találkozik a SEO-val, és valós jelzésekkel erősítheti meg stratégiáját.”
A közösségi médiában fellépő reakció középpontjában a közös frusztráció állt. Ezt kérték a szakemberek, de ez inkább a Bingtől származik, mint a Google-tól. Többen reményüket fejezték ki, hogy a Google és az OpenAI hasonló jelentésekkel követi majd.
Olvassa el a teljes ismertetőnket: A Bing Webmaster Tools hozzáadja az AI hivatkozási teljesítményadatokat
A rejtett HTTP-kezdőlap feltörheti webhelyének nevét a Google-ban
John Mueller, a Google megosztott egy hibaelhárítási esetet a Bluesky-n, ahol egy megmaradt HTTP-kezdőlap váratlan webhelynév- és favicon-problémákat okozott a keresési eredményekben. A problémát könnyű kihagyni, mert a Chrome automatikusan frissíti a HTTP-kéréseket HTTPS-re, így elrejti a problémás oldalt a normál böngészés elől.
Főbb tények: A webhely HTTPS-t használt, de a szerver alapértelmezett HTTP-kezdőlapja továbbra is elérhető volt. A Chrome automatikus frissítése azt jelentette, hogy a kiadó soha nem látta a HTTP-verziót, de a Googlebot nem követi a Chrome frissítési viselkedését, így a Googlebot rossz oldalról húzott le.
Miért számít ez?
Ez az a fajta probléma, amelyet egy normál webhely-ellenőrzés során nem találhat meg, mivel a böngészője soha nem jeleníti meg. Ha webhelyének neve vagy kedvenc ikonja a keresési eredmények között nem egyezik a várttal, és a HTTPS-kezdőlapja megfelelőnek tűnik, érdemes ellenőrizni a domain HTTP-verzióját.
Mueller azt javasolta, hogy futtassa a curl parancssorból a nyers HTTP-választ a Chrome automatikus frissítése nélkül. Ha a tényleges kezdőlap helyett a szerver alapértelmezett oldalát adja vissza, ez a probléma forrása. Használhatja a Search Console URL-ellenőrző eszközét is élő teszttel, hogy megtudja, mit kért le és jelenített meg a Google.
A Google webhelynevekre vonatkozó dokumentációja kifejezetten megemlíti az ismétlődő kezdőlapokat, beleértve a HTTP- és HTTPS-verziókat is, és ugyanazon strukturált adatok használatát javasolja mindkettőhöz. Mueller esete megmutatja, mi történik, ha egy HTTP-verzió az Ön által tervezett HTTPS-kezdőlaptól eltérő tartalmat tartalmaz.
Mit mondanak az emberek
Mueller „furcsának” nevezte az esetet a Bluesky-n, megjegyezve, hogy az alapvető probléma normál böngészés közben láthatatlan:
„A Chrome automatikusan frissíti a HTTP-t HTTPS-re, így Ön nem látja a HTTP-oldalt. A Googlebot azonban látja és arra használja, hogy befolyásolja az sitename & favicon kiválasztását.”
Az eset rávilágít arra a mintára, ahol a böngésző funkciói gyakran elrejtik azt, amit a robotok látnak. Ilyen például a Chrome automatikus frissítése, az olvasói módok, az ügyféloldali megjelenítés és a JavaScript-tartalom. A webhelynévvel és a kedvenc ikonokkal kapcsolatos problémák elhárításához ellenőrizze közvetlenül a szerver válaszát, ne csak a böngészőbetöltéseket.
Olvassa el teljes terjedelmét: A rejtett HTTP-oldal webhelynév-problémákat okozhat a Google-ban
Az új adatok szerint a legtöbb oldal jól illeszkedik a Googlebot feltérképezési korlátjába
Valós weboldalakon alapuló új kutatások szerint a legtöbb oldal jóval a Googlebot 2 MB-os lekérési határa alatt van. Az adatok, amelyeket a Search Engine Journal munkatársa, Roger Montti elemzett, a HTTP Archívum méréseire támaszkodik, hogy gyakorlati kontextusba helyezze a feltérképezési korlát kérdését.
Főbb tények: A HTTP-archívum adatai szerint a legtöbb oldal jóval 2 MB alatt van. A Google nemrégiben tisztázta a frissített dokumentációban, hogy a Googlebot által támogatott fájltípusok korlátja 2 MB, míg a PDF-ek esetében 64 MB.
Miért számít ez?
A feltérképezési korlátozás kérdése kering a technikai SEO-megbeszélésekben, különösen azután, hogy a Google frissítette a Googlebot dokumentációját a hónap elején.
Az új adatok arra a gyakorlati kérdésre adnak választ, amelyet a dokumentáció önmagában nem tudott. Számít a 2 MB-os korlát az oldalainál? A legtöbb webhely esetében a válasz nem. A szabványos weboldalak, még a nagy tartalommal rendelkezők is, ritkán közelítik meg ezt a küszöböt.
A határérték azokon az oldalakon lehet, amelyek rendkívül felduzzadt jelölésekkel, soron belüli szkriptekkel vagy beágyazott adatokkal rendelkeznek, amelyek a HTML méretet a szokásos tartományokon túlra növelik.
A tágabb minta itt az, hogy a Google átláthatóbbá teszi a feltérképező rendszereit. Ha áthelyezi a dokumentációt egy önálló feltérképezési webhelyre, tisztázza, hogy mely korlátok mely robotokra vonatkoznak, és most már valós adatok állnak rendelkezésre e korlátozások érvényesítéséhez, világosabb képet ad arról, hogy mit kezel a Googlebot.
Mit mondanak a műszaki SEO szakemberek
Dave Smart, a Tame the Bots műszaki SEO tanácsadója és a Google Search Central Diamond termékszakértője egy LinkedIn-bejegyzésben helyezte kilátásba a számokat:
„A Googlebot csak az első 2 MB-ot fogja lekérni a kezdeti html-ből (vagy más forrásból, például CSS-ből, JavaScriptből), ami hatalmas csökkenésnek tűnik a korábban bejelentett 15 MB-hoz képest, de őszintén szólva a 2 MB még mindig hatalmas.”
A Smart ezt követte a Tame the Bots lekérési és megjelenítési eszköz frissítése, hogy szimulálja a levágást. Egy Bluesky-bejegyzésben figyelmeztetést tett a gyakorlati kockázatra vonatkozóan:
„Annak a kockázata mellett, hogy túlértékesítem, hogy ez mennyire valós probléma (valóban nem az oldalak 99,99%-ára való, amit elképzelnék), a szövegalapú fájlok 2 MB-os korlátjának funkcionalitását hozzáadtam ennek szimulálásához.”
John Mueller, a Google támogatta az eszközt a Bluesky-n, és ezt írta:
„Ha kíváncsi a Googlebot 2 MB-os HTML-lekérési korlátjára, itt van egy módja annak, hogy ellenőrizze.”
Mueller a Web Almanach adatait is megosztotta a Redditen, hogy kontextusba helyezze a határt:
„A mobileszközök mediánja 33 kb, a 90-percentilis 151 kb. Ez azt jelenti, hogy az oldalak 90%-án 151 kb-nál kevesebb HTML található.”
Roger Montti, a Search Engine Journal írója hasonló következtetésre jutott, miután áttekintette a HTTP Archívum adatait. Montti megjegyezte, hogy a valós webhelyeken alapuló adatok azt mutatják, hogy a legtöbb webhely jóval a korlát alatt van, és úgy nevezte, hogy „biztos kijelenthetjük, hogy rendben van, ha lekaparjuk a HTML-méretet a SEO-val kapcsolatos dolgok listájáról”.
Olvassa el teljes tudósításunkat: Az új adatok szerint a Googlebot 2 MB-os feltérképezési korlátja elég
A hét témája: A diagnosztikai szakadék
Ezen a héten minden történet rámutat valamire, amit a gyakorlók korábban nem láthattak, vagy rosszul ellenőrizték.
A Bing mesterséges intelligencia-hivatkozási irányítópultja kitölti azt a mérési hiányt, amely azóta volt, hogy a mesterséges intelligencia válaszai elkezdtek hivatkozni a webhely tartalmára. Mueller HTTP kezdőlapjának esete egy láthatatlan oldalt tár fel, amelyet a szokásos webhely-auditálások és böngészőellenőrzések teljesen kihagynak, mert a Chrome elrejti. A Googlebot feltérképezési korlátozási adatai pedig választ adnak egy olyan kérdésre, amelyet a dokumentáció frissítései felvetettek, de nem tudtak maguktól megoldani.
Az összekötő szál nem az, hogy ezek új problémák. Az AI-idézések mérőeszközök nélkül történtek. A Ghost HTTP-oldalak összezavarják a webhelynévrendszereket, mióta a Google bemutatta a funkciót. A feltérképezési korlátok pedig évek óta szerepelnek a Google dokumentumaiban valós érvényesítés nélkül. A héten az változott, hogy minden rés kapott egy konkrét diagnosztikát: egy műszerfalat, egy curl parancsot és egy adatkészletet.
A lényeg az, hogy a keresőmotorok és az Ön tartalommal való interakciójának megértéséhez szükséges eszközök és adatok egyre specifikusabbak. A kihívás az, hogy tudjuk, hol keressük.
