A Web Almanach egy éves jelentés, amely a HTTP Archívum adatkészletét gyakorlati betekintésre fordítja, kombinálva a nagy léptékű méréseket az iparági szakértők szakértői értelmezésével.
Hogy betekintést nyerhessünk abba, hogy a 2025-ös jelentés mit tud mondani arról, hogy mi is történik valójában a SEO-ban, beszélgettem a SEO fejezet frissítésének egyik szerzőjével, Chris Green-nel, egy ismert iparági szakértővel, aki több mint 15 éves tapasztalattal rendelkezik.
Chris megosztott velem néhány meglepetést az llms.txt fájlok elfogadásáról és arról, hogy a CMS-rendszerek sokkal jobban alakítják a SEO-t, mint gondolnánk. Kevéssé ismert tények, hogy az adatok a kutatás során felszínre kerültek, és meglepő felismerések, amelyek általában észrevétlenek maradnak.
A Chrisszel készült teljes interjút megtekintheti a végén az IMHO felvételén, vagy olvassa tovább a cikk összefoglalóját.
– Szerintem az adatok [in the Web Almanac] segített megmutatni, hogy még mindig sok minden elromlott. A web tényleg rendetlen. Tényleg rendetlen.”
A robotkezelés már nem „Google, vagy nem Google?”
Bár a botkezelés már egy ideje bináris – a Google engedélyezése/letiltása –, ez új kihívássá válik. Valami, amit Eoghan Henn korábban felkapott, és Chris talált rá kutatásai során.
Beszélgetésünket azzal kezdtük, hogy arról beszéltünk, hogyan használják a robotfájlokat az AI-robot hozzáféréssel kapcsolatos szándékok kifejezésére.
Chris azt válaszolta, hogy először is tisztában kell lenni a különböző bejárókkal, hogy mi a szándékuk, és alapvetően mit tehet a blokkolásuk, azaz egyes robotok blokkolása nagyobb következményekkel jár, mint másoké.
Másodszor, megköveteli a platformszolgáltatóktól, hogy ténylegesen figyeljenek ezekre a szabályokra, és megfelelően kezeljék ezeket a fájlokat. Ez nem mindig történik meg, és a robotokkal és mesterséges intelligenciarobotokkal kapcsolatos etika olyan terület, amelyet a keresőoptimalizálóknak többet kell tudniuk és meg kell érteniük.
Chris elmagyarázta, hogy bár az Almanach-jelentés a robots.txt használatának tünetét mutatta, a keresőoptimalizálóknak előre kell jutniuk, és meg kell érteniük, hogyan irányíthatják a robotokat.
„Ez nem csak az egyes hatások hatásának megértése [bot/crawler] de azt is, hogyan kommunikálják ezt a vállalkozással. Ha van egy csapatod, akik a lehető legtöbb bot-feltérképezést akarják csökkenteni, mert pénzt akarnak megtakarítani, az kétségbeejtően befolyásolhatja a mesterséges intelligencia láthatóságát.”
Hasonlóképpen előfordulhat, hogy van egy szerkesztői csapata, amely nem akarja, hogy az összes munkáját lekaparják és visszaterjesszék. Tehát nekünk, keresőoptimalizálóknak meg kell értenünk ezt a dinamikát, hogyan lehet technikailag irányítani, de hogyan terjeszthetjük elő ezt az érvet az üzleti életben is.” Chris elmagyarázta.
Ahogy egyre több platform és feltérképező robot kerül bevezetésre, a keresőoptimalizálási csapatoknak minden következményt figyelembe kell venniük, és együtt kell működniük más csapatokkal, hogy biztosítsák a hozzáférés megfelelő egyensúlyát a webhelyen.
Az Llms.txt a hivatalos platform elfogadása ellenére is alkalmazásra kerül
A jelentés első meglepő megállapítása az volt, hogy a javasolt llms.txt szabvány elfogadása az adatkészletben szereplő webhelyek körülbelül 2%-a.
Az Llms.txt heves téma volt az iparágban, és sok keresőoptimalizáló elutasítja a fájl értékét. Egyes eszközök, mint például a Yoast, tartalmazták a szabványt, de még nem mutatták be, hogy a mesterséges intelligencia szolgáltatók ténylegesen alkalmazzák.
Chris elismerte, hogy a 2 százalék magasabb volt, mint amire számított. De úgy tűnik, hogy a növekedés nagy részét a SEO-eszközök hajtják, amelyek az llms.txt fájlt alapértelmezett vagy opcionális funkcióként adták hozzá.
Chris szkeptikus a hosszú távú hatásait illetően. Mint kifejtette, a Google többször is kijelentette, hogy nem tervezi az llms.txt használatát, és a fő mesterséges intelligencia-szolgáltatók, különösen az OpenAI egyértelmű elkötelezettsége nélkül fennáll annak a veszélye, hogy a funkcionális szabvány helyett inkább csak egy rés, szimbolikus gesztus marad.
Ennek ellenére Chris olyan naplófájladatokat tapasztalt, amelyek arra utalnak, hogy egyes mesterséges intelligenciarobotok már lekérik ezeket a fájlokat, és korlátozott esetekben akár forrásként is hivatkozhatnak rájuk. Green ezt kevésbé tekinti versenyelőnynek, sokkal inkább potenciális paritási mechanizmusnak, ami segíthet bizonyos oldalak megértésében, de nem emeli őket drámaian.
„A Google újra és újra elmondta, hogy nem tervezik használni az llms.txt fájlt, amit tavaly Zürichben megismételtek a Search Centralnál. Úgy gondolom, hogy alapvetően a Google-nak nincs rá szüksége, mivel a feltérképezés és a renderelés meg van határozva. Szóval szerintem ez attól függ, hogy az OpenAI azt mondja, hogy használni fogja-e vagy sem, és szerintem más problémáik is vannak, mint egy új szabvány felállítása.”
Más, de megnyugtatóan ugyanaz, ahol számít
A továbbiakban arról kérdeztem Chris-t, hogy a keresőoptimalizálók hogyan tudják egyensúlyba hozni a keresőmotorok láthatósága és a gépi láthatóság közötti különbséget.
Úgy véli, hogy „jelentős átfedés van aközött, hogy mi volt a SEO azelőtt, hogy elkezdtünk aggódni, és hol tartunk 2026 elején”.
Az átfedés ellenére Chris egyértelmű volt, hogy ha valaki azt hiszi, hogy a keresésre és a gépekre való optimalizálás ugyanaz, akkor nincs tisztában a két különböző rendszerrel, a különböző súlyozásokkal, azzal, hogy az értelmezés, a visszakeresés és a generálás teljesen más.
Bár különböző rendszerek és különböző képességek játszanak, szerinte a SEO alapvetően nem változott. Meggyőződése, hogy a SEO és a mesterséges intelligencia optimalizálás „nagyon ugyanaz, megnyugtatóan ugyanaz azokon a helyeken, amelyek számítanak, de másképp kell megközelíteni”, mert eltér a kimenetek továbbításának és felhasználásának módjában.
Chris azt mondta, hogy a keresőoptimalizálók inkább a hírcsatornák, hírfolyamkezelés és hírfolyam-optimalizálás irányába fognak elmozdulni.
„A Google univerzális kereskedelmi protokollja, ahol potenciálisan közvetlenül a keresési eredményekből vagy egy Gemini ablakból tud tranzakciókat végezni, nyilvánvalóan sokat változtat. Ez csak egy újabb lépés a webhely kiszorítására. De az információkat, amiket valójában optimalizálunk, még optimalizálni kell. Csak egy másik helyen.”
A CMS-platformok jobban formálják az internetet, mint amennyit a keresőoptimalizálók megvalósítanak
A Web Almanac 2025 talán legnagyobb meglepetése a CMS-platformok és az eszközszolgáltatók befolyása volt.
Chris azt mondta, hogy nem vette észre, milyen nagy a hatás. „Az olyan platformok, mint a Shopify, a Wix stb., valószínűleg mélyebben alakítják a technológiai SEO aktuális állapotát, mint ahogyan azt sokan hiszik.”
Chris így folytatta: „Bármilyen jó szándékúak is az egyes keresőoptimalizálók, úgy gondolom, hogy az internetre gyakorolt általános hatásunk minimális a CMS-platform-szolgáltatókon kívül. Azt mondom, ha valóban eltökélt szándéka, hogy az adott ügyfelein kívül is hatást gyakoroljon, akkor a WordPress, a Wix vagy a Shopify, vagy az ezeken az ökoszisztémákon belüli nagy szoftverszolgáltatók felé kell böknie.”
Ez lehetőséget teremt: Azok a webhelyek, amelyek megfelelően alkalmazzák a technikai szabványokat, jelentős különbségeket érhetnek el, ha a legtöbb webhely lemarad a bevált gyakorlatoktól.
Az egyik érdekesebb meglátás ebből a beszélgetésből az volt, hogy az interneten sok minden elromlott, és milyen csekély a hatásunk [SEOs] tényleg van.
Chris kifejtette, hogy „sok keresőoptimalizáló úgy gondolja, hogy a Google tartozik nekünk, mert mi tartjuk fenn helyettük az internetet. Mi végezzük el a piszkos munkát, de nem hiszem, hogy iparági szinten lenne akkora hatásunk, mint ahogy azt néhányan szeretik hinni. Azt hiszem, a Web Almanach adatai segítettek megmutatni, hogy még mindig sok a törött. A web nagyon rendetlen. Nagyon rendetlen.”
Az AI-ügynökök nem helyettesítik a keresőoptimalizálókat, hanem a rossz folyamatokat
Beszélgetésünk az AI-ügynökökkel és az automatizálással zárult. Chris azzal kezdte, hogy „Az ügynököket könnyen félreértik, mert másképpen használjuk a kifejezést.”
Hangsúlyozta, hogy az ügynökök nem helyettesítik a szakértelmet, hanem a folyamatok gyorsítói. A legtöbb SEO munkafolyamat ismétlődő adatgyűjtést és mintafelismerést foglal magában, amelyek jól illeszkednek az automatizáláshoz. Az emberi szakértelem értéke a folyamatok tervezésében, az ítéletek alkalmazásában és a kimenetek kontextusba helyezésében rejlik.
A korai stádiumú ügynökök a munka 60-80%-át automatizálni tudták, hasonlóan egy magas képességű gyakornokhoz. „Az Ön ismereteire és szakértelmére lesz szükség ahhoz, hogy ezt az adott kontextusban alkalmazzák. És nem csak a webmarketing vagy az e-kereskedelem kontextusára gondolok. A vállalkozás kontextusára gondolok, amelynek kifejezetten dolgozik” – mondta.
Chris azzal érvelne, hogy sok keresőoptimalizáló nem fordít elég időt arra, hogy személyre szabja, mit tesz konkrétan az ügyfél számára. Úgy gondolja, hogy van lehetőség egy 80%-ban automatizált folyamat felépítésére, és akkor a valódi érték hozzáadására, ha az emberi beavatkozás optimalizálja az utolsó 20%-os üzleti logikát.
Az ügynökökkel együttműködő, a munkafolyamatokat finomító és az automatizálás mellett fejlődő keresőoptimalizálók sokkal nagyobb valószínűséggel maradnak nélkülözhetetlenek, mint azok, akik teljesen ellenállnak a változásnak.
Az automatizálással kapcsolatos kísérletek során azonban Chris figyelmeztetett, hogy kerüljük a meghibásodott folyamatok automatizálását.
„Meg kell értened az optimalizálni kívánt folyamatot. Ha a folyamat nem túl jó, akkor most létrehozott egy gépet, amely nagyarányú középszerűséget produkál, ami őszintén szólva senkinek sem segít.”
Chris úgy véli, hogy ez előnyhöz juttatja a keresőoptimalizálókat, mivel az AI szélesebb körben elterjed. „Azt javaslom, hogy azok az emberek, akik foglalkoznak vele, javítsák ezeket a folyamatokat, és mutassák meg, hogyan lehet folyamatosan fejleszteni őket, ők lesznek azok, akik hosszabb élettartammal rendelkeznek.”
A keresőoptimalizálók sikeresek lehetnek, ha foglalkoznak a bonyolultsággal
A 2025-ös Web Almanach nem utal arra, hogy a keresőoptimalizálást lecserélnék, de azt mutatja, hogy szerepe oly módon bővül, amihez sok csapat még nem alkalmazkodott teljesen. Az olyan alapelvek, mint a feltérképezés és a technikai higiénia, továbbra is számítanak, de ma már léteznek egy bonyolultabb ökoszisztémában, amelyet mesterséges intelligencia-feltérképező robotok, feedek, zárt rendszerek és platformszintű döntések alakítanak ki.
Ahol a műszaki szabványokat rosszul hajtják végre nagy léptékben, azok, akik értik az azokat alakító rendszereket, még mindig jelentős előnyre tehetnek szert.
Az automatizálás akkor működik a legjobban, ha felgyorsítja a jól megtervezett folyamatokat, és kudarcot vall, ha egyszerűen csökkenti a hatékonyságot. A folyamattervezésre, a döntéshozatalra és az üzleti környezetre összpontosító keresőoptimalizálók továbbra is elengedhetetlenek maradnak, ahogy az automatizálás egyre általánosabbá válik.
Az egyre rendetlenebb és gépvezérelt interneten a keresőoptimalizálók azok lesznek sikeresek, akik hajlandóak foglalkozni ezzel a bonyolultsággal, nem pedig figyelmen kívül hagyni.
A SEO 2026-ban nem a keresés és a mesterséges intelligencia közötti választásról szól; Arról van szó, hogy megértsük, hogyan fogyaszt több rendszer a tartalmat, és hol történik most az optimalizálás.
Nézze meg a Chris Greennel készült teljes videóinterjút itt:
Köszönöm Chris Greennek, hogy felajánlotta meglátásait, és vendégem volt az IMHO-n.
