A Google John Mueller válaszolt egy kérdésre az LLMS.TXT -ről, amely a webhely tartalmának az AI ügynököknek és a rugóknak történő bemutatására irányuló javasolt szabványról szól, lecsökkentve annak hasznosságát, és összehasonlítva azt a haszontalan kulcsszavak metacímkével, megerősítve mások tapasztalatait.
Llms.txt
Az LLMS.TXT -t összehasonlították a Robots.txt nagy nyelvű modelleknél, de ez 100% -ban helytelen. A robots.txt fő célja az, hogy ellenőrizze, hogy a botok hogyan másznak fel egy weboldalon. Az LLMS.TXT javaslata nem a robotok ellenőrzéséről szól. Ez felesleges lenne, mert ehhez a robots.txt már létezik.
Az LLMS.TXT -re vonatkozó javaslat általában arról szól, hogy a tartalmat az LLMS -hez egy olyan szöveges fájlral jelenítse meg, amely a MarkDown formátumot használja, hogy csak egy weboldal fő tartalmát tudják felhasználni, teljesen nincs hirdetést és a webhely navigációját. A Markdown nyelv egy emberi és gépi olvasható formátum, amely jelzi a font jel (#) címsorát, és a mínusz jel (-) felsorolása. Az llms.txt néhány más dolgot csinál, mint a funkcionalitás, és ennyiről szól.
Mi az llms.txt:
- Az llms.txt nem módja az AI botok vezérlésének.
- Az llms.txt egy módja annak, hogy megmutassák a fő tartalmat az AI botok számára.
- Az LLMS.TXT csak egy javaslat, nem pedig széles körben használt és elfogadott szabvány.
Ez az utolsó rész fontos, mert kapcsolódik ahhoz, amit a Google John Mueller mondott:
Az llms.txt összehasonlítható a kulcsszavak meta címkéjével
Valaki megbeszélést indított a Reddit -ről az llms.txt -ről, hogy megkérdezze, vajon valaki más megosztotta -e tapasztalatait, hogy az AI botok nem ellenőrizték az LLMS.TXT fájljaikat.
Írták:
„A hónap elején benyújtottam a blogom gyökérének egy llm.txt fájlját, de még nem látom hatást a feltérképezési naplókra. Csak kíváncsi, hogy van -e valaki nyomkövető rendszerrel, E -vel, vagy csak, ha felvette a megvalósítást követő bármit.
Ha még nem hajtottad végre, akkor kíváncsi vagyok, hogy hallja a gondolatait erről. ”
A vita egyik embere megosztotta, hogy több mint 20 000 domaint ad otthont, és hogy egyetlen AI -ügynök vagy robot sem tölti le az LLMS.TXT fájlokat, csak a Niche Bots, mint a Buildwith, megragadja ezeket a fájlokat.
A kommentátor írta:
„Jelenleg kb. 20 ezer domain házigazdája. Meg tudja erősíteni, hogy egyetlen robot sem fog megragadni ezeket néhány niche felhasználói ügynöktől eltekintve …”
John Mueller válaszolt:
„AFAIK Az AI-szolgáltatások egyike sem mondta, hogy az llms.txt-t használják (és megmondhatod, amikor a szervernaplóit megnézi, hogy még nem is ellenőrzik). Számomra ez összehasonlítható a Kulcsszavak metacímkével-ez az, amit egy webhelytulajdonos állítja a webhelyükről… (a webhely valóban ilyen? Nos, ellenőrizheti.
Igaza van, egyik legfontosabb AI -szolgáltatás, az Antropic, az Openai és a Google egyike bejelentette a javasolt LLMS.TXT szabvány támogatását. Tehát ha egyikük sem használja, akkor mi értelme?
Mueller azt is felveti azt a pontot, hogy egy llms.txt fájl redundáns, mert miért használja ezt a markdown fájlt, ha az eredeti tartalom (és a strukturált adatok) már letöltötték? Az llms.txt -et használó botnak ellenőriznie kell a többi tartalmat, hogy megbizonyosodjon arról, hogy nem spam, miért zavarja?
Végül, mi akadályozza meg a kiadó vagy a SEO -t abban, hogy az egyik tartalomkészletet az llms.txt -ben a spam AI -ügynökökhöz, és egy másik tartalomkészletet a felhasználók és a keresőmotorok számára? Túl könnyű így generálni a spam -t, lényegében az LLM -ek kivágása.
Ebben a tekintetben nagyon hasonlít a kulcsszavak metacímkéjéhez, amelyet egyetlen keresőmotor sem használ, mert túl vázlatos lenne egy olyan webhely megbízásában, hogy valójában ezekről a kulcsszavakról szól, és a keresőmotorok jobbak és kifinomultabbak a tartalom elemzéséről, hogy megértsék, miről van szó.
Olvassa el a LinkedIn vitát itt:
LLM.TXT – Hol vagyunk?