A Google Search Relations csapat tagjai nemrégiben megosztották a webes szabványok betekintését a Record Podcast keresésében.
Martin Splitt és Gary Illyes elmagyarázta, hogyan alakulnak ki ezek a szabványok, és miért számítanak a SEO -nak. Beszélgetésük részleteket t fel a Google döntéseivel kapcsolatban, amelyek befolyásolják a webhelyek optimalizálásának módját.
Miért válnak egyes webes protokollok szabványossá, míg mások nem?
A Google formálisan szabványosított robots.txt az Internet Engineering Munkacsoporton (IETF). Ugyanakkor informális szabványként hagyták el a Sitemap protokollt.
Ez a különbség szemlélteti, hogy a Google hogyan határozza meg, hogy mely protokollok szükségesek hivatalos szabványokat.
Illyes magyarázta a podcast során:
„A robots.txt segítségével előnyös volt, mert tudtuk, hogy a különböző elemzők inkább a robotok.txt fájljait elemezik.
Az Illyes -ből származó nyilatkozat feltárja a Google prioritásait. A platformokat zavaró protokollok nagyobb figyelmet kapnak, mint azok, amelyek formális szabványok nélkül jól működnek.
A protokoll szabványosításának előnyei a SEO -ra
A robotok standardizálása számos egyértelmű előnyt teremtett a SEO számára:
- Következetes megvalósítás: A robots.txt fájlokat most következetesebben értelmezik a keresőmotorok és a rugók között.
- Nyílt forráskódú források: „Ez lehetővé tette számunkra, hogy megnyitjuk a robotok.txt elemzőjét, majd az emberek elkezdenek építeni rajta” – jegyezte meg Illyes.
- Könnyebben használható: Illyes szerint a szabványosítás azt jelenti, hogy „a helyszíni tulajdonosok kevesebb feszültséget jelentenek, hogy megpróbálják kitalálni, hogyan kell írni az átkozott fájlokat.”
Ezek az előnyök miatt a műszaki SEO -munka egyértelműbbé és hatékonyabbá teszi, különösen a nagy webhelyeket kezelő csapatok számára.
A webes szabványok folyamatán belül
A podcast azt is feltárta, hogy miként hozták létre a webes szabványokat.
A szabványcsoportok, mint például az IETF, a W3C és a WhatWG, olyan nyílt folyamatokon keresztül működnek, amelyek gyakran évekbe telik. Ez a lassú tempó biztosítja a biztonságot, a tiszta nyelvet és a széles kompatibilitást.
Illyes magyarázta:
„Meg kell mutatnia, hogy az a dolog, amellyel valóban működik. Rengeteg iteráció folyik, és ez nagyon lassúvá teszi a folyamatot – de jó okból.”
Mindkét Google mérnök hangsúlyozta, hogy bárki részt vehet ezekben a szabványok folyamatain. Ez lehetőséget teremt a SEO szakemberek számára, hogy segítsék a napi által használt protokollok kialakítását.
Biztonsági szempontok a webes szabványokban
A szabványok a fontos biztonsági problémákkal is foglalkoznak. A robotok.txt szabvány fejlesztésekor a Google tartalmazott egy 500 kilobájt limitet, amely kifejezetten a lehetséges támadások megakadályozására szolgált.
Illyes magyarázta:
„Amikor egy vázlatot olvasok, megvizsgálnám, hogyan használnám ki azokat a dolgokat, amelyeket a szabvány leír.”
Ez azt mutatja, hogy a szabványok miként hoznak létre olyan biztonsági határokat, amelyek mindkét webhelyet és a velük kölcsönhatásba lépő eszközöket megóvják.
Miért számít ez
A SEO szakemberek számára ezek a betekintések számos gyakorlati stratégiát jeleznek, amelyeket figyelembe kell venni:
- Legyen pontos a robotok.txt irányelvek létrehozásakor, mivel a Google nagymértékben befektetett ebbe a protokollba.
- Használja a Google nyílt forrású robotjait.
- Tudja meg, hogy a webhelytérképek nagyobb rugalmasságot kínálnak, kevesebb elemzési aggodalommal.
- Fontolja meg a webes szabványcsoportokhoz való csatlakozást, ha segíteni szeretne a jövőbeli protokollok kialakításában.
Mivel a keresőmotorok továbbra is prioritást élveznek a műszaki minőségben, a webes protokollok mögött meghúzódó alapelvek megértése egyre értékesebbé válik a SEO siker elérése érdekében.
Ez a beszélgetés azt mutatja, hogy még az egyszerű műszaki specifikációk is komplex megfontolásokkal járnak a biztonság, a konzisztencia és a könnyű használat körül, minden olyan tényező, amely közvetlenül befolyásolja a SEO teljesítményét.
Hallgassa meg a teljes vitát az alábbi videóban: