Egy közelmúltban végzett vizsgálat problémát tárt fel a strukturált adatok JavaScriptre támaszkodó webhelyekkel kapcsolatban.
Ezeket a gyakran JSON-LD formátumú adatokat az AI-robotok nehezen tudják elérni, ha nem a kezdeti HTML-válaszban.
Az olyan feltérképező robotok, mint a GPTBot (a ChatGPT használja), a ClaudeBot és a PerplexityBot, nem tudják végrehajtani a JavaScriptet, és kihagynak minden később hozzáadott strukturált adatot.
Ez kihívás elé állítja azokat a webhelyeket, amelyek olyan eszközöket használnak, mint a Google Címkekezelő (GTM), hogy a JSON-LD-t beillesszék az ügyféloldalra, mivel sok mesterséges intelligencia-robot nem tudja olvasni a dinamikusan generált tartalmat.
Főbb megállapítások a JSON-LD és AI feltérképező robotokról
Elie Berreby, a SEM King alapítója megvizsgálta, mi történik, ha a JSON-LD-t a Google Címkekezelő (GTM) segítségével szerveroldali megjelenítés (SSR) nélkül adják hozzá.
Megtudta, miért nem látják gyakran az ilyen típusú strukturált adatokat az AI-robotok:
- Kezdeti HTML betöltés: Amikor egy bejáró weboldalt kér, a szerver visszaadja az első HTML-verziót. Ha strukturált adatokat ad hozzá JavaScripttel, akkor ezek nem lesznek ebben a kezdeti válaszban.
- Kliens oldali JavaScript végrehajtás: A JavaScript fut a böngészőben, és megváltoztatja a felhasználók dokumentumobjektum-modelljét (DOM). Ebben a szakaszban a GTM hozzáadhatja a JSON-LD-t a DOM-hoz.
- Feltérképező robotok JavaScript-megjelenítés nélkül: Azok a mesterséges intelligencia bejárók, amelyek nem tudják futtatni a JavaScriptet, nem látják a DOM változásait. Ez azt jelenti, hogy hiányzik az oldal betöltése után hozzáadott JSON-LD.
Összefoglalva, a csak az ügyféloldali JavaScript-en keresztül hozzáadott strukturált adatok láthatatlanok a legtöbb mesterséges intelligencia bejáró számára.
Miért mások a hagyományos keresőmotorok?
A hagyományos keresőrobotok, például a Googlebot, beolvashatják a JavaScriptet, és feldolgozhatják a weboldalon a betöltés után végrehajtott módosításokat, beleértve a Google Címkekezelő (GTM) által beoltott JSON-LD-adatokat is.
Ezzel szemben sok mesterséges intelligenciarobot nem tudja olvasni a JavaScriptet, és csak a nyers HTML-t látja a szerverről. Ennek eredményeként hiányoznak a dinamikusan hozzáadott tartalmak, például a JSON-LD.
A Google figyelmeztetése a JavaScript túlzott használatára
Ez a kihívás összefügg a Google szélesebb körű figyelmeztetésével a JavaScript túlzott használatával kapcsolatban.
Egy közelmúltbeli podcastban a Google Search Relations csapata megvitatta a JavaScriptre való növekvő támaszkodást. Bár lehetővé teszi a dinamikus funkciókat, nem mindig ideális az olyan lényeges SEO-elemekhez, mint a strukturált adatok.
Martin Splitt, a Google Search Developer Advocate kifejtette, hogy a webhelyek az egyszerű oldalaktól az összetett alkalmazásokig terjednek. Fontos egyensúlyt teremteni a JavaScript használat és a kulcsfontosságú tartalom elérhetővé tétele között a kezdeti HTML-ben.
John Mueller, egy másik Google Search Advocate egyetértett azzal, hogy a fejlesztők gyakran fordulnak JavaScripthez, amikor az egyszerűbb lehetőségek, például a statikus HTML hatékonyabbak lennének.
Mit tegyek helyette
A fejlesztőknek és a keresőoptimalizálási szakembereknek biztosítaniuk kell, hogy a strukturált adatok minden bejáró számára hozzáférhetőek legyenek, hogy elkerüljék az AI keresőrobotokkal kapcsolatos problémákat.
Íme néhány kulcsfontosságú stratégia:
- Szerveroldali renderelés (SSR): Az oldalak megjelenítése a szerveren, hogy strukturált adatok szerepeljenek a kezdeti HTML-válaszban.
- Statikus HTML: Használja a sémajelölést közvetlenül a HTML-ben, hogy korlátozza a JavaScripttől való függőséget.
- Előrenderelés: Olyan előre renderelt oldalakat kínál, amelyeken a JavaScript már lefutott, így a bejárók számára teljesen renderelt HTML-kódot biztosít.
Ezek a megközelítések összhangban állnak a Google azon tanácsával, hogy a HTML-alapú fejlesztést részesítsék előnyben, és a szerver kezdeti válaszában fontos tartalmakat, például strukturált adatokat foglaljanak el.
Miért számít ez?
Az AI-robotok jelentősége csak nőni fog, és más szabályok szerint játszanak, mint a hagyományos keresőmotorok.
Ha webhelye a strukturált adatokhoz GTM-től vagy más ügyféloldali JavaScripttől függ, akkor elszalasztja az AI-vezérelt keresési eredményekben való rangsorolás lehetőségét.
A szerveroldali vagy statikus megoldásokra való áttérés révén webhelyét jövőbe tudhatja, és láthatóságot biztosíthat a hagyományos és mesterséges intelligencia keresésekben.