Nemrég beszéltem Jesse Dwyerrel, a Perplexity munkatársával a SEO-ról és az AI-keresésről arról, hogy a keresőoptimalizálóknak mire kell összpontosítaniuk az AI-keresésre való optimalizálás során. Válaszai hasznos visszajelzést adtak arról, hogy a megjelenítőknek és a keresőoptimalizálóknak most mire kell összpontosítaniuk.
AI keresés ma
Fontos tudnivaló, amit Jesse megosztott, hogy a személyre szabás teljesen megváltozik
„Azt kell mondanom, a legnagyobb/legegyszerűbb dolog, amit meg kell jegyezni az AEO vs SEO-val kapcsolatban, hogy ez már nem egy nulla összegű játék. Két ember ugyanazzal a lekérdezéssel eltérő választ kaphat a kereskedelmi keresés során, ha az általuk használt AI-eszköz személyes memóriát tölt be a kontextusablakba (Perplexity, ChatGPT).
Ennek nagy része az index technológiáján múlik (miért van valójában különbség a GEO és az AEO között). De igen, jelenleg pontos azt mondani, hogy (a legtöbb) hagyományos SEO bevált gyakorlat továbbra is érvényes.”
Dwyer válaszából az következik, hogy a keresés láthatósága többé nem egyetlen konzisztens keresési eredményről szól. A személyes kontextus, mint szerep az AI-válaszokban, azt jelenti, hogy két felhasználó jelentősen eltérő választ kaphat ugyanarra a lekérdezésre, esetleg eltérő tartalomforrással.
Bár a mögöttes infrastruktúra továbbra is egy klasszikus keresési index, a SEO továbbra is szerepet játszik annak meghatározásában, hogy a tartalom egyáltalán lekérhető-e. A Perplexity AI állítólag a PageRank egy formáját használja, amely egy link-alapú módszer a webhelyek népszerűségének és relevanciájának meghatározására, így tippet ad arra vonatkozóan, hogy a keresőoptimalizálóknak mire kell összpontosítaniuk.
Azonban, amint látni fogja, a letöltött tartalma jelentősen eltér a klasszikus kereséstől.
A következő kérdéssel fordultam hozzá:
Tehát amit Ön mond (és javítson ki, ha tévedek vagy kissé eltévedek), az az, hogy a klasszikus keresés hajlamos megbízhatóan megjeleníteni ugyanazt a tíz webhelyet egy adott lekérdezés esetén. Az AI-keresésnél azonban az AI-beszélgetések kontextuális jellege miatt nagyobb valószínűséggel adnak más választ minden felhasználó számára.
Jesse így válaszolt:
– Igen, ez pontos.
Részdokumentum feldolgozás: Miért más az AI-keresés?
Jesse folytatta válaszát a színfalak mögött zajló eseményekről, hogy választ generáljon az AI-keresésben.
Így folytatta:
„Ami az indextechnológiát illeti, a legnagyobb különbség az AI-keresésben jelenleg a teljes dokumentum és az „aldokumentum” feldolgozásában rejlik.
A hagyományos keresőmotorok a teljes dokumentum szintjén indexelnek. Megnéznek egy weboldalt, pontozzák, és fájlba helyezik.
Ha erre az architektúrára épített AI-eszközt használ (például a ChatGPT webes keresést), az alapvetően egy klasszikus keresést hajt végre, megragadja a 10–50 legjobb dokumentumot, majd felkéri az LLM-et, hogy készítsen egy összegzést. Ezért a GPT keresést „4 Bing-keresés egy kabátban” néven írják le – a vicc iránypontos, mivel a modell a szabványos keresési eredmények alapján generál kimenetet.
Ezért hívjuk ennek a GEO-nak az optimalizálási stratégiáját (Generatív motoroptimalizálás). Ez a teljes dokumentumra kiterjedő keresés lényegében továbbra is algoritmikus keresés, nem mesterséges intelligencia, mivel az indexben szereplő adatok a SEO-ban megszokott normál oldalpontozások. Az AI-first megközelítést „aldokumentum-feldolgozásnak” nevezik.
A teljes oldalak indexelése helyett a motor konkrét, aprólékos kivonatokat indexel (nem tévesztendő össze a keresőoptimalizálók által „kiemelt kivonatokkal”). Egy részlet, a mesterséges intelligencia szóhasználatában körülbelül 5-7 tokenből vagy 2-4 szóból áll, kivéve, ha a szöveget számokká alakították (a „transzformátorként” ismert alapvető mesterséges intelligencia-folyamattal, amely a GPT-ben a T). Amikor lekérdez egy aldokumentum rendszert, az nem kér le 50 dokumentumot; körülbelül 130 000 tokent kér le a legrelevánsabb kivonatokból (körülbelül 26 000 részlet), hogy táplálja az AI-t.
Ezek a számok azonban nem pontosak. A töredékek tényleges száma mindig megegyezik a tokenek teljes számával, amely megfelel az adott LLM kontextusablakának teljes kapacitásának. (Jelenleg körülbelül 130 000 tokenek átlagolnak). A cél az, hogy az AI-modell kontextusablakát teljesen megtöltsük a legrelevánsabb információkkal, mert ha telítjük az ablakot, nem hagyunk teret a modellnek a „hallucinálásra” vagy a dolgok kitalálására.
Más szóval, megszűnik kreatív generátor lenni, és pontosabb választ ad. Ez az aldokumentum módszer az, ahol az iparág mozog, és miért pontosabb az AEO (Answer Engine Optimization) elnevezés.
Nyilvánvalóan ez a leírás kissé túlzott leegyszerűsítés. De a személyes kontextus, ami miatt már nem minden egyes keresés univerzális találat minden felhasználó számára, az az oka, hogy az LLM mindent át tud venni, amit a keresőről tud, és ezt felhasználja a teljes kontextusablak kitöltésére. Ami sokkal több információ, mint egy Google felhasználói profil.
Az olyan cégek, mint a Perplexity, vagy bármely más mesterséges intelligencia-kereső cég, amely a részdokumentum-feldolgozásra költözik, versenyképes megkülönböztetése az index és a 26K-s kivonatok közötti technológiában történik. Az olyan technikák segítségével, mint a számítások modulálása, a lekérdezések újratervezése és magán az indexen átfutó szabadalmaztatott modellek, elérhetjük, hogy ezek a kódrészletek relevánsabbak legyenek a lekérdezés szempontjából, ami a jobb, gazdagabb válasz megszerzésének legnagyobb eszköze.
Btw, ez kevésbé releváns a SEO-k szempontjából, de ez az egész koncepció is az oka annak, hogy a Perplexity keresési API-ja olyan legális. Azon fejlesztők számára, akik bármilyen termékbe építik be a keresést, a különbség éjjel és nappal.”
Dwyer két alapvetően eltérő indexelési és visszakeresési megközelítést állít szembe:
- Teljes dokumentum indexelése, ahol az oldalak lekérhetők és teljes egységként rangsorolhatók.
- Aldokumentum indexelés, ahol a jelentést a rendszer szemcsés töredékként tárolja és kéri le.
Az első verzióban a mesterséges intelligencia a hagyományos keresés tetején áll, és összefoglalja a rangsorolt oldalakat. A másodikban az AI-rendszer közvetlenül kéri le a töredékeket, és egyáltalán nem indokolja a teljes dokumentumokat.
Azt is leírta, hogy a válasz minőségét korlátozza a kontextusablak telítettsége, a pontosság pedig abból adódik, hogy a modell teljes kontextusablakát megtöltjük releváns töredékekkel. Ha a visszakeresés sikeresen kitölti ezt az ablakot, a modellnek alig van kapacitása tények kitalálására vagy hallucinálására.
Végül azt mondja, hogy „a számítások modulálása, a lekérdezés újratervezése és a szabadalmaztatott modellek” a titkos szósz része a keresési lekérdezés szempontjából nagyon releváns kivonatok lekérésére.
