Egy nemrégiben készült YouTube-videóban a Google munkatársa, Martin Splitt elmagyarázta a robots metacímkék „noindex” címke és a robots.txt fájlok „disallow” parancsa közötti különbségeket.
Splitt, a Google fejlesztői ügyvédje rámutatott, hogy mindkét módszer segít kezelni, hogyan működnek a keresőrobotok egy webhelyen.
Mindazonáltal eltérő céljaik vannak, és nem szabad egymás helyett használni őket.
Mikor kell használni a Noindexet?
A „noindex” direktíva azt mondja a keresőmotoroknak, hogy ne szerepeltessenek egy adott oldalt a keresési eredmények között. Ezt az utasítást hozzáadhatja a HTML fejrészhez a robots metatag vagy az X-Robots HTTP fejléc használatával.
Használja a „noindex”-et, ha meg akarja akadályozni, hogy egy oldal megjelenjen a keresési eredmények között, de lehetővé teszi a keresőmotorok számára, hogy elolvassák az oldal tartalmát. Ez olyan oldalak esetében hasznos, amelyeket a felhasználók láthatnak, de Ön nem szeretné, hogy a keresőmotorok megjelenítsenek (például köszönőoldalak vagy belső keresési eredményoldalak).
Mikor kell használni a Disallow
A webhely robots.txt fájljában található „disallow” utasítás megakadályozza, hogy a keresőrobotok hozzáférjenek bizonyos URL-ekhez vagy formátumokhoz. Ha egy oldalt nem engedélyeznek, a keresőmotorok nem térképezik fel és nem indexeli a tartalmát.
A Splitt a „disallow” használatát javasolja, ha teljesen meg akarja akadályozni, hogy a keresőmotorok lekérjenek vagy feldolgozzanak egy oldalt. Ez alkalmas érzékeny információk, például személyes felhasználói adatok, vagy olyan oldalak számára, amelyek nem relevánsak a keresőmotorok számára.
Összefüggő: Ismerje meg a robots.txt használatát
Gyakori hibák, amelyeket el kell kerülni
Az egyik gyakori hiba, amelyet a webhelytulajdonosok elkövetnek, hogy a „noindex” és a „disallow” kifejezéseket használják ugyanarra az oldalra. A Splitt ezt nem tanácsolja, mert problémákat okozhat.
Ha egy oldal nem engedélyezett a robots.txt fájlban, a keresőmotorok nem láthatják a „noindex” parancsot az oldal metacímkéjében vagy az X-Robots fejlécében. Ennek eredményeként előfordulhat, hogy az oldal továbbra is indexelve lesz, de korlátozott információval.
Ha meg akarja akadályozni, hogy egy oldal ne jelenjen meg a keresési eredmények között, a Splitt a „noindex” parancs használatát javasolja anélkül, hogy letiltja az oldalt a robots.txt fájlban.
A Google robots.txt jelentést biztosít a Google Search Console-ban annak tesztelésére és nyomon követésére, hogy a robots.txt fájlok hogyan befolyásolják a keresőmotorok indexelését.
Összefüggő:
Miért számít ez?
A „noindex” és „disallow” direktívák helyes használatának megértése elengedhetetlen a SEO szakemberek számára.
A Google tanácsainak követése és a rendelkezésre álló tesztelőeszközök használata segít abban, hogy tartalma a kívánt módon jelenjen meg a keresési eredmények között.
Tekintse meg a teljes videót alább:
Lásd még: A kódolási hiba miatt a Google figyelmen kívül hagyja a Noindex irányelvet