A LinkedIn-ről folytatott vita az LLM láthatóságáról és az annak nyomon követési eszközeiről azt vizsgálta, hogy a SEO-k hogyan közelítik meg az LLM-alapú keresés optimalizálását. A megadott válaszok azt sugallják, hogy az LLM-központú SEO eszközei érettséggel szereznek, bár van néhány nézeteltérés arról, hogy mit kell pontosan nyomon követni.
A Joe Hall (LinkedIn Profile) egy sor kérdést vet fel a LinkedIn -ről az LLM láthatóságát követő eszközök hasznosságáról. Nem mondta kifejezetten, hogy az eszközöknek nem volt hasznos, de kérdései úgy tűnt, hogy beszélgetést indítottak
Írta:
„Nem értem, hogy ezek a rendszerek, amelyek azt állítják, hogy nyomon követik az LLM láthatósági munkát.
Joshua Levenson (LinkedIn profil), egyébként válaszoltak, mondván, hogy a mai SEO eszközök elavultak, megjegyezve:
„Az emberek a régi paradigmát használják egy új technika mérésére.”
Joe Hall válaszolt a „Bingo!”
LLM SEO: „Nem olyan egyszerű, mint a kulcsszó hozzáadása”
Lily Ray (LinkedIn Profil) válaszolt, hogy azt mondják, hogy azok az entitások, amelyekre az LLM -ek visszatérnek, kulcsfontosságú elemre kell összpontosítani.
Elmagyarázta:
„Ha naponta több ezer alkalommal felteszi az LLM -et, akkor képes lesz átlagolni a válaszaiban említett entitásokat., Majd megismételheti ezt minden nap. Nem tökéletes, de ez valami.”
Hall megkérdezte tőle, hogy ez milyen hasznos az ügyfelek számára, és Lily válaszolt:
„Nos, rengeteg cselekvési ajánlás létezik, amelyeket az adatokból lehet megcsinálni. De ez nyilvánvalóan a nehéz rész. Nem olyan egyszerű, mint” hozzáadja ezt a kulcsszót a címcímkéhez „.
Eszközök az LLM SEO -hoz
Dixon Jones (LinkedIn profil) egy rövid megjegyzéssel válaszolt a bemutatáshoz Waikayami azt jelenti, amit az AI tud rólad. Azt mondta, hogy eszköze entitást és téma kitermelést használ, és ajánlásait és tevékenységeit a GAP elemzésre alapozza.
Ryan Jones (LinkedIn profil) válaszolt, hogy megvitassa, hogyan terméke hogyan Szerprecon művek:
„Kétféle módon lehet ezt megtenni. Az egyik – az a mód, ahogyan a SerPrecon -on csinálom, az API -k használata a kérdésekre adott válaszok figyelemmel kísérésére, majd Lily mondta, hogy kinyerje az entitásokat, a témákat stb.
A másik módszer az ISP -adatok figyelemmel kísérése, és megnézni, hogy hány valódi felhasználói lekérdezésre jelentkezett. Ez szuper drága.
Bármely más módszernek nincs sok értelme. ”
És egy másik bejegyzésben további információkkal követte:
„Az AI nem mondja el neked, hogy kiszivárogtatott, vagy milyen más kérdéseket tett.
Az eszközben szereplő AI áttekintő eszköz megpróbálja megfordítani őket ugyanolyan logikával/matematikával, mint a szabadalmaik, de ez soha nem lehet 100%. ”
Aztán elmagyarázta, hogyan segíti az ügyfeleket:
„Segít nekünk abban a összefüggésben, ha 25 lekérdezést írok be, azt akarom látni, ki jelenik meg ott, és milyen témákat említenek, hogy megpróbáljam megbizonyosodni arról, hogy ott jelenik meg, ha nem vagyok. Erről szól.
A tíz kék link soha nem volt statikus
Noha a Hall kijelentette, hogy a „hagyományos” keresési eredmények statikusak, ellentétben az LLM-alapú keresési eredményekkel, ki kell emelni, hogy a régi keresési eredmények állandó változási állapotban voltak, különösen a kolibri frissítés után, amely lehetővé tette a Google számára, hogy friss keresési eredményeket adjon, amikor a lekérdezés megköveteli, vagy amikor az új vagy frissített weboldalak bevezetésre kerültek az interneten. Ezenkívül a hagyományos keresési eredmények általában egynél több szándékkal rendelkeztek, gyakran három, ami ingadozásokat eredményez a rangsorban.
Az LLM-ek a keresési eredmények sokféleségét is mutatják, de az AI áttekintések esetén a Google néhány eredményt mutat, amelyek a lekérdezéshez, majd a „ventilátor” dolog, hogy előre jelezzék a nyomon követési kérdéseket, amelyek természetesen a téma felfedezésének részeként következnek be.
Billy Peery (LinkedIn Profile) érdekes betekintést nyújtott az LLM keresési eredményekbe, ami arra utal, hogy a kimenet bizonyos fokú stabilitást mutat, és nem olyan ingatag, mint általában hisz.
Kínálta ezt az igazán érdekes betekintést:
„Azt hiszem, nem értek egyet azzal az elképzeléssel, hogy a SERP -k valaha is statikusak.
Az LLM -ekkel jobban megérthetjük, hogy mely forrásokat vonzzák a kérdések megválaszolásához. Tehát, még ha a konkrét szavak is megváltoznak, a modell valószínűsége a forrásokból való húzás és a márkák megemlítése lényegesen statikusabb.
Úgy gondolom, hogy azok az emberek, akik azt mondják, hogy az LLM -ek túl ingatagok az optimalizáláshoz, túlságosan a pontos megfogalmazásra koncentrálnak, szemben a forrásokkal és a márka megemlítésével. ”
Peery kitűnő pontot ad azáltal, hogy megjegyzi, hogy egyes SEO -k felfüggeszthetik a pontos kulcsszó -illesztést („pontos megfogalmazás”), és talán a legfontosabb dolog, amire összpontosítani kell, az, hogy az LLM összekapcsol és megemlíti -e az egyes webhelyeket és márkákat.
Elvihető
Növekszik az LLM eszközök tudatossága a láthatóság nyomon követésére. A marketingszakemberek valamilyen megállapodást kötnek arról, hogy mit kell nyomon követni, és hogy miként jár az ügyfelek számára. Miközben néhányan megkérdőjelezik ezen eszközök stratégiai értékét, mások arra használják, hogy azonosítsák, mely márkákat és témákat említik, és ezeket az adatokat hozzáadják a SEO keverékhez.