A Google AI azt mutatja, hogy egy webhely offline állapotban van a JS tartalomszolgáltatás miatt

Peter

A Google munkatársa, John Mueller egyszerű megoldást kínált egy Redditornak, aki a Google „AI-t” hibáztatta a SERP-ben szereplő megjegyzésért, amely szerint a webhely 2026 eleje óta nem működik.

A Redditor nem írt bejegyzést a Redditen, csak linkelt blogbejegyzésükre, amely a Google-t és az AI-t hibáztatta. Ez lehetővé tette Mueller számára, hogy közvetlenül a webhelyre lépjen, azonosítsa az okot, amely a JavaScript megvalósításához kapcsolódik, majd egyértelművé tette, hogy ez nem a Google hibája.

Redditor a Google mesterséges intelligenciáját hibáztatja

A Redditor blogbejegyzése a Google-t hibáztatja, a cikk fejlécében egy számítástechnikai hívószó saláta szerepel, amely túlbonyolítja és (tudatlanul) félremagyarázza a tényleges problémát.

A cikk címe:

„A Google azt gondolhatja, hogy webhelye nem működik
Hogyan vezethet be új felelősségi vektorokat az oldalak közötti mesterséges intelligencia aggregációja?

Az „oldalon átívelő mesterséges intelligencia aggregációról” és a „felelősségvektorokról” szóló rész felhúzza a szemöldökét, mivel e kifejezések egyike sem a számítástechnika bevett fogalma.

Az „oldalak közötti” dolog valószínűleg a Google Query Fan-Out-jára utal, ahol a Google mesterséges intelligencia-módjában feltett kérdés több lekérdezéssé alakul, amelyeket aztán elküldenek a Google klasszikus keresésébe.

Ami a „felelősségi vektorokat” illeti, a vektor egy valódi dolog, amelyet a SEO-ban tárgyalnak, és a Natural Language Processing (NLP) része. De a „felelősségvektor” nem része ennek.

A Redditor blogbejegyzése elismeri, hogy nem tudják, hogy a Google képes-e észlelni, hogy egy webhely nem működik-e vagy sem:

„Nem tudok arról, hogy a Google-nak bármilyen különleges képessége lenne annak észlelésére, hogy a webhelyek felfelé vagy lefelé haladnak-e. És még ha a belső szolgáltatásom is leállna, a Google nem tudná ezt észlelni, mivel az egy bejelentkezési fal mögött van.”

És úgy tűnik, hogy nincsenek tisztában a RAG vagy a Query Fan-Out működésével, vagy talán a Google mesterséges intelligencia rendszereinek működésével. Úgy tűnik, a szerző felfedezésnek tekinti, hogy a Google friss információkra hivatkozik a Parametrikus tudás helyett (az LLM-ben a képzés során szerzett információ).

Azt írják, hogy a Google mesterséges intelligencia válasza szerint a webhely jelezte, hogy az oldal 2026 óta offline állapotban van.:

„…a megfogalmazás szerint a weboldal jelezte, nem pedig az emberek; bár az LLM-ek bizonytalanságának korában ez a megkülönböztetés már nem sokat jelent.

…egyértelműen megemlíti az időkeretet 2026 elején. Mivel a webhely 2025 közepe előtt nem létezett, ez valójában azt sugallja, hogy a Google viszonylag friss információval rendelkezik; bár ismét LLM-ek!”

Kicsit később a blogbejegyzésben a Redditor bevallja, hogy nem tudják, miért mondja a Google, hogy a webhely offline.

Elmagyarázták, hogy egy előugró ablak eltávolításával valósították meg a shot in the dark megoldást. Helytelenül sejtették, hogy az előugró ablak okozta a problémát, és ez rávilágít annak fontosságára, hogy bizonyosodjon meg arról, hogy mi okozza a problémákat, mielőtt változtatásokat hajtanak végre abban a reményben, hogy ez megoldja azokat.

A Redditor megosztotta, hogy nem tudják, hogyan foglalja össze a Google az oldallal kapcsolatos információkat az oldallal kapcsolatos kérdésre, és aggodalmukat fejezte ki amiatt, hogy lehetséges, hogy a Google irreleváns információkat tud lekaparni, majd válaszként megjeleníteni.

Azt írják:

„…nem tudjuk, hogy a Google pontosan hogyan állítja össze az LLM-válaszok generálásához használt oldalak keverékét.

Ez azért problémás, mert a weboldalain bármi befolyásolhatja a nem kapcsolódó válaszokat.

…A Google mesterséges intelligencia ezek közül bármelyiket megragadhatja, és válaszként bemutathatja.”

Nem hibáztatom a szerzőt, amiért nem ismeri a Google AI-keresés működését, egészen biztos vagyok benne, hogy nem széles körben ismert. Könnyen az a benyomásunk támad, hogy ez egy mesterséges intelligencia, amely kérdésekre válaszol.

De ami alapvetően történik, az az, hogy a mesterséges intelligencia keresés a klasszikus keresésen alapul, és a mesterséges intelligencia szintetizálja az interneten talált tartalmat egy természetes nyelvű válaszba. Olyan ez, mintha valakinek feltennék egy kérdést, rákeresnek a Google-ra, majd a weboldalak olvasásából tanultak alapján elmagyarázzák a választ.

John Mueller, a Google elmagyarázza, mi folyik itt

Mueller semlegesen és udvariasan válaszolt az illető Reddit-bejegyzésére, megmutatva, miért a Redditor megvalósításában van a hiba.

Mueller elmagyarázta:

„Ez az Ön webhelye? Azt javaslom, hogy ne használja a JS-t arra, hogy az oldalon lévő szöveget „nem elérhető”-ről „elérhető”-re módosítsa, hanem csak töltse be az egész darabot a JS-ből. Így, ha egy ügyfél nem futtatja a JS-t, nem kap félrevezető információkat.

Ez hasonló ahhoz, ahogy a Google nem javasolja a JS használatát a robots metacímke „noindex”-ről „noindex”-ről „kérem, fontolja meg remek munkámat a html-jelöléssel a felvételhez” kifejezésre (nincs „index” robots metacímke, így kreatív lehet).

Mueller válasza kifejti, hogy a webhely JavaScript-re támaszkodik, hogy lecserélje a helyőrző szöveget, amelyet röviddel az oldal betöltése előtt jelenít meg, ami csak azoknál a látogatóknál működik, akiknek a böngészője ténylegesen futtatja ezt a szkriptet.

Itt az történt, hogy a Google elolvasta azt a helyőrző szöveget, amelyet a weboldal indexelt tartalomként mutatott meg. A Google látta az eredeti tartalmat a „nem elérhető” üzenettel, és tartalomként kezelte.

Mueller kifejtette, hogy a biztonságosabb megközelítés az, ha az oldal alap HTML-kódjában a kezdetektől fogva a helyes információ szerepel, így a felhasználók és a keresőmotorok is ugyanazt a tartalmat kapják.

Elvitelre

Számos olyan kivonat található itt, amelyek túlmutatnak a Redditor problémájának alapjául szolgáló technikai problémákon. A lista tetején az áll, hogyan próbálták kitalálni a választ.

Valójában nem tudták, hogyan működik a Google AI-keresés, ami egy sor olyan feltételezést vezetett be, amelyek megnehezítették a probléma diagnosztizálásának képességét. Aztán végrehajtottak egy „javítást” azon kitalálva, hogy szerintük mi okozhatja a problémát.

A találgatás a keresőoptimalizálási problémák olyan megközelítése, amely indokolt, hogy a Google átláthatatlan, de néha nem a Google-ról van szó, hanem magában a SEO-ban fennálló tudáshiányról és annak jelzéséről, hogy további tesztelésre és diagnózisra van szükség.

A szerzőről

Peter, az eOldal.hu tapasztalt SEO szakértője és tartalomgyártója. Több mint 10 éve foglalkozik keresőoptimalizálással és online marketinggel, amelyek révén számos magyar vállalkozás sikerét segítette elő. Cikkeiben részletes és naprakész információkat nyújt az olvasóknak a legfrissebb SEO trendekről és stratégiákról.