A Google munkatársa, John Mueller egyszerű megoldást kínált egy Redditornak, aki a Google „AI-t” hibáztatta a SERP-ben szereplő megjegyzésért, amely szerint a webhely 2026 eleje óta nem működik.
A Redditor nem írt bejegyzést a Redditen, csak linkelt blogbejegyzésükre, amely a Google-t és az AI-t hibáztatta. Ez lehetővé tette Mueller számára, hogy közvetlenül a webhelyre lépjen, azonosítsa az okot, amely a JavaScript megvalósításához kapcsolódik, majd egyértelművé tette, hogy ez nem a Google hibája.
Redditor a Google mesterséges intelligenciáját hibáztatja
A Redditor blogbejegyzése a Google-t hibáztatja, a cikk fejlécében egy számítástechnikai hívószó saláta szerepel, amely túlbonyolítja és (tudatlanul) félremagyarázza a tényleges problémát.
A cikk címe:
„A Google azt gondolhatja, hogy webhelye nem működik
Hogyan vezethet be új felelősségi vektorokat az oldalak közötti mesterséges intelligencia aggregációja?
Az „oldalon átívelő mesterséges intelligencia aggregációról” és a „felelősségvektorokról” szóló rész felhúzza a szemöldökét, mivel e kifejezések egyike sem a számítástechnika bevett fogalma.
Az „oldalak közötti” dolog valószínűleg a Google Query Fan-Out-jára utal, ahol a Google mesterséges intelligencia-módjában feltett kérdés több lekérdezéssé alakul, amelyeket aztán elküldenek a Google klasszikus keresésébe.
Ami a „felelősségi vektorokat” illeti, a vektor egy valódi dolog, amelyet a SEO-ban tárgyalnak, és a Natural Language Processing (NLP) része. De a „felelősségvektor” nem része ennek.
A Redditor blogbejegyzése elismeri, hogy nem tudják, hogy a Google képes-e észlelni, hogy egy webhely nem működik-e vagy sem:
„Nem tudok arról, hogy a Google-nak bármilyen különleges képessége lenne annak észlelésére, hogy a webhelyek felfelé vagy lefelé haladnak-e. És még ha a belső szolgáltatásom is leállna, a Google nem tudná ezt észlelni, mivel az egy bejelentkezési fal mögött van.”
És úgy tűnik, hogy nincsenek tisztában a RAG vagy a Query Fan-Out működésével, vagy talán a Google mesterséges intelligencia rendszereinek működésével. Úgy tűnik, a szerző felfedezésnek tekinti, hogy a Google friss információkra hivatkozik a Parametrikus tudás helyett (az LLM-ben a képzés során szerzett információ).
Azt írják, hogy a Google mesterséges intelligencia válasza szerint a webhely jelezte, hogy az oldal 2026 óta offline állapotban van.:
„…a megfogalmazás szerint a weboldal jelezte, nem pedig az emberek; bár az LLM-ek bizonytalanságának korában ez a megkülönböztetés már nem sokat jelent.
…egyértelműen megemlíti az időkeretet 2026 elején. Mivel a webhely 2025 közepe előtt nem létezett, ez valójában azt sugallja, hogy a Google viszonylag friss információval rendelkezik; bár ismét LLM-ek!”
Kicsit később a blogbejegyzésben a Redditor bevallja, hogy nem tudják, miért mondja a Google, hogy a webhely offline.
Elmagyarázták, hogy egy előugró ablak eltávolításával valósították meg a shot in the dark megoldást. Helytelenül sejtették, hogy az előugró ablak okozta a problémát, és ez rávilágít annak fontosságára, hogy bizonyosodjon meg arról, hogy mi okozza a problémákat, mielőtt változtatásokat hajtanak végre abban a reményben, hogy ez megoldja azokat.
A Redditor megosztotta, hogy nem tudják, hogyan foglalja össze a Google az oldallal kapcsolatos információkat az oldallal kapcsolatos kérdésre, és aggodalmukat fejezte ki amiatt, hogy lehetséges, hogy a Google irreleváns információkat tud lekaparni, majd válaszként megjeleníteni.
Azt írják:
„…nem tudjuk, hogy a Google pontosan hogyan állítja össze az LLM-válaszok generálásához használt oldalak keverékét.
Ez azért problémás, mert a weboldalain bármi befolyásolhatja a nem kapcsolódó válaszokat.
…A Google mesterséges intelligencia ezek közül bármelyiket megragadhatja, és válaszként bemutathatja.”
Nem hibáztatom a szerzőt, amiért nem ismeri a Google AI-keresés működését, egészen biztos vagyok benne, hogy nem széles körben ismert. Könnyen az a benyomásunk támad, hogy ez egy mesterséges intelligencia, amely kérdésekre válaszol.
De ami alapvetően történik, az az, hogy a mesterséges intelligencia keresés a klasszikus keresésen alapul, és a mesterséges intelligencia szintetizálja az interneten talált tartalmat egy természetes nyelvű válaszba. Olyan ez, mintha valakinek feltennék egy kérdést, rákeresnek a Google-ra, majd a weboldalak olvasásából tanultak alapján elmagyarázzák a választ.
John Mueller, a Google elmagyarázza, mi folyik itt
Mueller semlegesen és udvariasan válaszolt az illető Reddit-bejegyzésére, megmutatva, miért a Redditor megvalósításában van a hiba.
Mueller elmagyarázta:
„Ez az Ön webhelye? Azt javaslom, hogy ne használja a JS-t arra, hogy az oldalon lévő szöveget „nem elérhető”-ről „elérhető”-re módosítsa, hanem csak töltse be az egész darabot a JS-ből. Így, ha egy ügyfél nem futtatja a JS-t, nem kap félrevezető információkat.
Ez hasonló ahhoz, ahogy a Google nem javasolja a JS használatát a robots metacímke „noindex”-ről „noindex”-ről „kérem, fontolja meg remek munkámat a html-jelöléssel a felvételhez” kifejezésre (nincs „index” robots metacímke, így kreatív lehet).
Mueller válasza kifejti, hogy a webhely JavaScript-re támaszkodik, hogy lecserélje a helyőrző szöveget, amelyet röviddel az oldal betöltése előtt jelenít meg, ami csak azoknál a látogatóknál működik, akiknek a böngészője ténylegesen futtatja ezt a szkriptet.
Itt az történt, hogy a Google elolvasta azt a helyőrző szöveget, amelyet a weboldal indexelt tartalomként mutatott meg. A Google látta az eredeti tartalmat a „nem elérhető” üzenettel, és tartalomként kezelte.
Mueller kifejtette, hogy a biztonságosabb megközelítés az, ha az oldal alap HTML-kódjában a kezdetektől fogva a helyes információ szerepel, így a felhasználók és a keresőmotorok is ugyanazt a tartalmat kapják.
Elvitelre
Számos olyan kivonat található itt, amelyek túlmutatnak a Redditor problémájának alapjául szolgáló technikai problémákon. A lista tetején az áll, hogyan próbálták kitalálni a választ.
Valójában nem tudták, hogyan működik a Google AI-keresés, ami egy sor olyan feltételezést vezetett be, amelyek megnehezítették a probléma diagnosztizálásának képességét. Aztán végrehajtottak egy „javítást” azon kitalálva, hogy szerintük mi okozhatja a problémát.
A találgatás a keresőoptimalizálási problémák olyan megközelítése, amely indokolt, hogy a Google átláthatatlan, de néha nem a Google-ról van szó, hanem magában a SEO-ban fennálló tudáshiányról és annak jelzéséről, hogy további tesztelésre és diagnózisra van szükség.
