Tegye hozzáférhetővé strukturált adatait

Peter

Egy közelmúltban végzett vizsgálat problémát tárt fel a strukturált adatok JavaScriptre támaszkodó webhelyekkel kapcsolatban.

Ezeket a gyakran JSON-LD formátumú adatokat az AI-robotok nehezen tudják elérni, ha nem a kezdeti HTML-válaszban.

Az olyan feltérképező robotok, mint a GPTBot (a ChatGPT használja), a ClaudeBot és a PerplexityBot, nem tudják végrehajtani a JavaScriptet, és kihagynak minden később hozzáadott strukturált adatot.

Ez kihívás elé állítja azokat a webhelyeket, amelyek olyan eszközöket használnak, mint a Google Címkekezelő (GTM), hogy a JSON-LD-t beillesszék az ügyféloldalra, mivel sok mesterséges intelligencia-robot nem tudja olvasni a dinamikusan generált tartalmat.

Főbb megállapítások a JSON-LD és AI feltérképező robotokról

Elie Berreby, a SEM King alapítója megvizsgálta, mi történik, ha a JSON-LD-t a Google Címkekezelő (GTM) segítségével szerveroldali megjelenítés (SSR) nélkül adják hozzá.

Megtudta, miért nem látják gyakran az ilyen típusú strukturált adatokat az AI-robotok:

  1. Kezdeti HTML betöltés: Amikor egy bejáró weboldalt kér, a szerver visszaadja az első HTML-verziót. Ha strukturált adatokat ad hozzá JavaScripttel, akkor ezek nem lesznek ebben a kezdeti válaszban.
  2. Kliens oldali JavaScript végrehajtás: A JavaScript fut a böngészőben, és megváltoztatja a felhasználók dokumentumobjektum-modelljét (DOM). Ebben a szakaszban a GTM hozzáadhatja a JSON-LD-t a DOM-hoz.
  3. Feltérképező robotok JavaScript-megjelenítés nélkül: Azok a mesterséges intelligencia bejárók, amelyek nem tudják futtatni a JavaScriptet, nem látják a DOM változásait. Ez azt jelenti, hogy hiányzik az oldal betöltése után hozzáadott JSON-LD.

Összefoglalva, a csak az ügyféloldali JavaScript-en keresztül hozzáadott strukturált adatok láthatatlanok a legtöbb mesterséges intelligencia bejáró számára.

Miért mások a hagyományos keresőmotorok?

A hagyományos keresőrobotok, például a Googlebot, beolvashatják a JavaScriptet, és feldolgozhatják a weboldalon a betöltés után végrehajtott módosításokat, beleértve a Google Címkekezelő (GTM) által beoltott JSON-LD-adatokat is.

Ezzel szemben sok mesterséges intelligenciarobot nem tudja olvasni a JavaScriptet, és csak a nyers HTML-t látja a szerverről. Ennek eredményeként hiányoznak a dinamikusan hozzáadott tartalmak, például a JSON-LD.

A Google figyelmeztetése a JavaScript túlzott használatára

Ez a kihívás összefügg a Google szélesebb körű figyelmeztetésével a JavaScript túlzott használatával kapcsolatban.

Egy közelmúltbeli podcastban a Google Search Relations csapata megvitatta a JavaScriptre való növekvő támaszkodást. Bár lehetővé teszi a dinamikus funkciókat, nem mindig ideális az olyan lényeges SEO-elemekhez, mint a strukturált adatok.

Martin Splitt, a Google Search Developer Advocate kifejtette, hogy a webhelyek az egyszerű oldalaktól az összetett alkalmazásokig terjednek. Fontos egyensúlyt teremteni a JavaScript használat és a kulcsfontosságú tartalom elérhetővé tétele között a kezdeti HTML-ben.

John Mueller, egy másik Google Search Advocate egyetértett azzal, hogy a fejlesztők gyakran fordulnak JavaScripthez, amikor az egyszerűbb lehetőségek, például a statikus HTML hatékonyabbak lennének.

Mit tegyek helyette

A fejlesztőknek és a keresőoptimalizálási szakembereknek biztosítaniuk kell, hogy a strukturált adatok minden bejáró számára hozzáférhetőek legyenek, hogy elkerüljék az AI keresőrobotokkal kapcsolatos problémákat.

Íme néhány kulcsfontosságú stratégia:

  1. Szerveroldali renderelés (SSR): Az oldalak megjelenítése a szerveren, hogy strukturált adatok szerepeljenek a kezdeti HTML-válaszban.
  2. Statikus HTML: Használja a sémajelölést közvetlenül a HTML-ben, hogy korlátozza a JavaScripttől való függőséget.
  3. Előrenderelés: Olyan előre renderelt oldalakat kínál, amelyeken a JavaScript már lefutott, így a bejárók számára teljesen renderelt HTML-kódot biztosít.

Ezek a megközelítések összhangban állnak a Google azon tanácsával, hogy a HTML-alapú fejlesztést részesítsék előnyben, és a szerver kezdeti válaszában fontos tartalmakat, például strukturált adatokat foglaljanak el.

Miért számít ez?

Az AI-robotok jelentősége csak nőni fog, és más szabályok szerint játszanak, mint a hagyományos keresőmotorok.

Ha webhelye a strukturált adatokhoz GTM-től vagy más ügyféloldali JavaScripttől függ, akkor elszalasztja az AI-vezérelt keresési eredményekben való rangsorolás lehetőségét.

A szerveroldali vagy statikus megoldásokra való áttérés révén webhelyét jövőbe tudhatja, és láthatóságot biztosíthat a hagyományos és mesterséges intelligencia keresésekben.


A szerzőről

Peter, az eOldal.hu tapasztalt SEO szakértője és tartalomgyártója. Több mint 10 éve foglalkozik keresőoptimalizálással és online marketinggel, amelyek révén számos magyar vállalkozás sikerét segítette elő. Cikkeiben részletes és naprakész információkat nyújt az olvasóknak a legfrissebb SEO trendekről és stratégiákról.