A Bing AI idézetkövetés, a rejtett HTTP kezdőlapok és oldalak a feltérképezési korlát alá esnek

Peter

Üdvözöljük a heti Pulse for SEO oldalán: a frissítések bemutatják, hogyan követheti nyomon a mesterséges intelligencia láthatóságát, hogyan törheti fel egy szellemoldal a webhely nevét a keresési eredmények között, és milyen új feltérképezési adatok árulkodnak a Googlebot fájlméret-korlátairól.

Íme, mi számít Önnek és a munkájának.

A Bing Webmaster Tools hozzáadja az AI idézet irányítópultját

A Microsoft bevezetett egy AI Performance irányítópultot a Bing Webmaster Toolsban, amely lehetővé teszi a kiadók számára, hogy rálátást kapjanak arra, hogy milyen gyakran hivatkoznak tartalmukra a Copilot és az AI által generált válaszok. A funkció most nyilvános előnézetben van.

Főbb tények: Az irányítópult nyomon követi az összes hivatkozást, a napi idézett oldalak átlagos számát, az oldalszintű hivatkozási tevékenységet és a megalapozó lekérdezéseket. A földelő lekérdezések megmutatják, hogy a mesterséges intelligencia milyen kifejezéseket használt, amikor válaszokat keresett a tartalomból.

Miért számít ez?

A Bing most egy dedikált irányítópultot kínál az AI hivatkozások láthatóságához. A Google belefoglalja az AI áttekintéseket és az AI-mód tevékenységeit a Search Console általános teljesítményjelentésébe, de nem készít külön jelentést, és nem ad hivatkozás jellegű URL-számokat. Az AI áttekintések emellett az összes hivatkozott oldalt egyetlen pozícióhoz rendelik, ami korlátozza, hogy mit tudhat meg az egyes oldalak teljesítményéről az AI-válaszokban.

A Bing irányítópultja tovább megy azáltal, hogy nyomon követi, mely oldalakat, milyen gyakran és milyen kifejezések váltották ki az idézést. A hiányzó darab kattintási adat. Az irányítópulton látható, hogy mikor hivatkoznak a tartalomra, de azt nem, hogy ezek az idézetek forgalmat generálnak-e.

Most már ellenőrizheti, hogy mely oldalakra hivatkoznak a mesterséges intelligencia válaszai, és azonosíthatja a megalapozó lekérdezések mintáit, de az AI láthatóságának az üzleti eredményekkel való összekapcsolásához továbbra is szükség van ezeknek az adatoknak a saját elemzésével való kombinálására.

Mit mondanak a SEO szakemberek

Wil Reynolds, a Seer Interactive alapítója ünnepelte a funkciót az X-en, és az új alaplekérdezési adatokra összpontosított:

„A Bing most alapozó lekérdezéseket ad a Bing Webmestereszközökben!! Megerősítettem, most meg kell értenem, mit kapunk tőlük, mit jelent ez és hogyan kell használni.”

Koray Tuğberk GÜBÜR, a Holistic SEO & Digital alapítója, közvetlenül összehasonlította a Google X-es eszközeivel:

„A Microsoft Bing Webmaster Tools mindig is hasznosabb és hatékonyabb volt, mint a Google Search Console, és ismét bebizonyították, hogy elkötelezettek az átláthatóság iránt.”

Fabrice Canel, a Microsoft Bing fő termékmenedzsere az X-en való bevezetést a hagyományos és a mesterséges intelligencia által vezérelt optimalizálás közötti hídként fogalmazta meg:

„A kiadók most láthatják, hogyan jelenik meg a tartalom a mesterséges intelligencia korszakában. A GEO találkozik a SEO-val, és valós jelzésekkel erősítheti meg stratégiáját.”

A közösségi médiában fellépő reakció középpontjában a közös frusztráció állt. Ezt kérték a szakemberek, de ez inkább a Bingtől származik, mint a Google-tól. Többen reményüket fejezték ki, hogy a Google és az OpenAI hasonló jelentésekkel követi majd.

Olvassa el a teljes ismertetőnket: A Bing Webmaster Tools hozzáadja az AI hivatkozási teljesítményadatokat

A rejtett HTTP-kezdőlap feltörheti webhelyének nevét a Google-ban

John Mueller, a Google megosztott egy hibaelhárítási esetet a Bluesky-n, ahol egy megmaradt HTTP-kezdőlap váratlan webhelynév- és favicon-problémákat okozott a keresési eredményekben. A problémát könnyű kihagyni, mert a Chrome automatikusan frissíti a HTTP-kéréseket HTTPS-re, így elrejti a problémás oldalt a normál böngészés elől.

Főbb tények: A webhely HTTPS-t használt, de a szerver alapértelmezett HTTP-kezdőlapja továbbra is elérhető volt. A Chrome automatikus frissítése azt jelentette, hogy a kiadó soha nem látta a HTTP-verziót, de a Googlebot nem követi a Chrome frissítési viselkedését, így a Googlebot rossz oldalról húzott le.

Miért számít ez?

Ez az a fajta probléma, amelyet egy normál webhely-ellenőrzés során nem találhat meg, mivel a böngészője soha nem jeleníti meg. Ha webhelyének neve vagy kedvenc ikonja a keresési eredmények között nem egyezik a várttal, és a HTTPS-kezdőlapja megfelelőnek tűnik, érdemes ellenőrizni a domain HTTP-verzióját.

Mueller azt javasolta, hogy futtassa a curl parancssorból a nyers HTTP-választ a Chrome automatikus frissítése nélkül. Ha a tényleges kezdőlap helyett a szerver alapértelmezett oldalát adja vissza, ez a probléma forrása. Használhatja a Search Console URL-ellenőrző eszközét is élő teszttel, hogy megtudja, mit kért le és jelenített meg a Google.

A Google webhelynevekre vonatkozó dokumentációja kifejezetten megemlíti az ismétlődő kezdőlapokat, beleértve a HTTP- és HTTPS-verziókat is, és ugyanazon strukturált adatok használatát javasolja mindkettőhöz. Mueller esete megmutatja, mi történik, ha egy HTTP-verzió az Ön által tervezett HTTPS-kezdőlaptól eltérő tartalmat tartalmaz.

Mit mondanak az emberek

Mueller „furcsának” nevezte az esetet a Bluesky-n, megjegyezve, hogy az alapvető probléma normál böngészés közben láthatatlan:

„A Chrome automatikusan frissíti a HTTP-t HTTPS-re, így Ön nem látja a HTTP-oldalt. A Googlebot azonban látja és arra használja, hogy befolyásolja az sitename & favicon kiválasztását.”

Az eset rávilágít arra a mintára, ahol a böngésző funkciói gyakran elrejtik azt, amit a robotok látnak. Ilyen például a Chrome automatikus frissítése, az olvasói módok, az ügyféloldali megjelenítés és a JavaScript-tartalom. A webhelynévvel és a kedvenc ikonokkal kapcsolatos problémák elhárításához ellenőrizze közvetlenül a szerver válaszát, ne csak a böngészőbetöltéseket.

Olvassa el teljes terjedelmét: A rejtett HTTP-oldal webhelynév-problémákat okozhat a Google-ban

Az új adatok szerint a legtöbb oldal jól illeszkedik a Googlebot feltérképezési korlátjába

Valós weboldalakon alapuló új kutatások szerint a legtöbb oldal jóval a Googlebot 2 MB-os lekérési határa alatt van. Az adatok, amelyeket a Search Engine Journal munkatársa, Roger Montti elemzett, a HTTP Archívum méréseire támaszkodik, hogy gyakorlati kontextusba helyezze a feltérképezési korlát kérdését.

Főbb tények: A HTTP-archívum adatai szerint a legtöbb oldal jóval 2 MB alatt van. A Google nemrégiben tisztázta a frissített dokumentációban, hogy a Googlebot által támogatott fájltípusok korlátja 2 MB, míg a PDF-ek esetében 64 MB.

Miért számít ez?

A feltérképezési korlátozás kérdése kering a technikai SEO-megbeszélésekben, különösen azután, hogy a Google frissítette a Googlebot dokumentációját a hónap elején.

Az új adatok arra a gyakorlati kérdésre adnak választ, amelyet a dokumentáció önmagában nem tudott. Számít a 2 MB-os korlát az oldalainál? A legtöbb webhely esetében a válasz nem. A szabványos weboldalak, még a nagy tartalommal rendelkezők is, ritkán közelítik meg ezt a küszöböt.

A határérték azokon az oldalakon lehet, amelyek rendkívül felduzzadt jelölésekkel, soron belüli szkriptekkel vagy beágyazott adatokkal rendelkeznek, amelyek a HTML méretet a szokásos tartományokon túlra növelik.

A tágabb minta itt az, hogy a Google átláthatóbbá teszi a feltérképező rendszereit. Ha áthelyezi a dokumentációt egy önálló feltérképezési webhelyre, tisztázza, hogy mely korlátok mely robotokra vonatkoznak, és most már valós adatok állnak rendelkezésre e korlátozások érvényesítéséhez, világosabb képet ad arról, hogy mit kezel a Googlebot.

Mit mondanak a műszaki SEO szakemberek

Dave Smart, a Tame the Bots műszaki SEO tanácsadója és a Google Search Central Diamond termékszakértője egy LinkedIn-bejegyzésben helyezte kilátásba a számokat:

„A Googlebot csak az első 2 MB-ot fogja lekérni a kezdeti html-ből (vagy más forrásból, például CSS-ből, JavaScriptből), ami hatalmas csökkenésnek tűnik a korábban bejelentett 15 MB-hoz képest, de őszintén szólva a 2 MB még mindig hatalmas.”

A Smart ezt követte a Tame the Bots lekérési és megjelenítési eszköz frissítése, hogy szimulálja a levágást. Egy Bluesky-bejegyzésben figyelmeztetést tett a gyakorlati kockázatra vonatkozóan:

„Annak a kockázata mellett, hogy túlértékesítem, hogy ez mennyire valós probléma (valóban nem az oldalak 99,99%-ára való, amit elképzelnék), a szövegalapú fájlok 2 MB-os korlátjának funkcionalitását hozzáadtam ennek szimulálásához.”

John Mueller, a Google támogatta az eszközt a Bluesky-n, és ezt írta:

„Ha kíváncsi a Googlebot 2 MB-os HTML-lekérési korlátjára, itt van egy módja annak, hogy ellenőrizze.”

Mueller a Web Almanach adatait is megosztotta a Redditen, hogy kontextusba helyezze a határt:

„A mobileszközök mediánja 33 kb, a 90-percentilis 151 kb. Ez azt jelenti, hogy az oldalak 90%-án 151 kb-nál kevesebb HTML található.”

Roger Montti, a Search Engine Journal írója hasonló következtetésre jutott, miután áttekintette a HTTP Archívum adatait. Montti megjegyezte, hogy a valós webhelyeken alapuló adatok azt mutatják, hogy a legtöbb webhely jóval a korlát alatt van, és úgy nevezte, hogy „biztos kijelenthetjük, hogy rendben van, ha lekaparjuk a HTML-méretet a SEO-val kapcsolatos dolgok listájáról”.

Olvassa el teljes tudósításunkat: Az új adatok szerint a Googlebot 2 MB-os feltérképezési korlátja elég

A hét témája: A diagnosztikai szakadék

Ezen a héten minden történet rámutat valamire, amit a gyakorlók korábban nem láthattak, vagy rosszul ellenőrizték.

A Bing mesterséges intelligencia-hivatkozási irányítópultja kitölti azt a mérési hiányt, amely azóta volt, hogy a mesterséges intelligencia válaszai elkezdtek hivatkozni a webhely tartalmára. Mueller HTTP kezdőlapjának esete egy láthatatlan oldalt tár fel, amelyet a szokásos webhely-auditálások és böngészőellenőrzések teljesen kihagynak, mert a Chrome elrejti. A Googlebot feltérképezési korlátozási adatai pedig választ adnak egy olyan kérdésre, amelyet a dokumentáció frissítései felvetettek, de nem tudtak maguktól megoldani.

Az összekötő szál nem az, hogy ezek új problémák. Az AI-idézések mérőeszközök nélkül történtek. A Ghost HTTP-oldalak összezavarják a webhelynévrendszereket, mióta a Google bemutatta a funkciót. A feltérképezési korlátok pedig évek óta szerepelnek a Google dokumentumaiban valós érvényesítés nélkül. A héten az változott, hogy minden rés kapott egy konkrét diagnosztikát: egy műszerfalat, egy curl parancsot és egy adatkészletet.

A lényeg az, hogy a keresőmotorok és az Ön tartalommal való interakciójának megértéséhez szükséges eszközök és adatok egyre specifikusabbak. A kihívás az, hogy tudjuk, hol keressük.


A szerzőről

Peter, az eOldal.hu tapasztalt SEO szakértője és tartalomgyártója. Több mint 10 éve foglalkozik keresőoptimalizálással és online marketinggel, amelyek révén számos magyar vállalkozás sikerét segítette elő. Cikkeiben részletes és naprakész információkat nyújt az olvasóknak a legfrissebb SEO trendekről és stratégiákról.