A Google reagál a webhelyre, amely elveszett rangsorban a GoogleBot DDOS CRAWL után

Peter

A Google John Mueller válaszolt egy olyan kérdésről, amely egy olyan webhelyről szól, amely több millió GoogleBOT-kérést kapott, amelyek nem léteznek, és egy nem létező URL több mint két millió találatot kapott, lényegében a DDOS-szintű oldalkéréseket. A kiadónak a feltérképezés költségvetésével és a rangsorolással kapcsolatos aggodalmai látszólag megvalósultak, mivel a webhely később a keresési láthatóság csökkenését tapasztalta meg.

A noIndex oldalakat eltávolították és 410 -re konvertálták

A 410 Gone Server válaszkód a Family 400 válaszkódjaihoz tartozik, amelyek azt jelzik, hogy az oldal nem érhető el. A 404 -es válasz azt jelenti, hogy egy oldal nem áll rendelkezésre, és nem állítja be, hogy az URL visszatér -e a jövőben, egyszerűen azt mondja, hogy az oldal nem áll rendelkezésre.

A 410 eltűnt állapotkód azt jelenti, hogy az oldal eltűnt, és valószínűleg soha nem fog visszatérni. A 404 állapotkóddal ellentétben a 410 jelzi a böngészőt vagy a feltérképezőt, hogy az erőforrás hiányzó állapota szándékos, és hogy az erőforráshoz fűződő linkeket el kell távolítani.

A kérdést feltett személy egy olyan kérdés után nyomon követi, amelyet három héttel ezelőtt feltettek a Reddit -en, ahol megjegyezték, hogy körülbelül 11 millió URL -jük van, amelyeket nem kellett volna felfedezni, hogy teljes mértékben eltávolítják őket, és elkezdtek egy 410 válaszkódot szolgálni. Másfél hónap elteltével a GoogleBot továbbra is visszatért a hiányzó oldalak keresésére. Megosztották aggodalmukat a feltérképezés költségvetése és az azt követő rangsoruk következményei miatt.

Mueller akkoriban továbbította őket egy Google támogatási oldalra.

A rangsorolási veszteség, mivel a Google továbbra is a DDOS szinten eléri a webhelyet

Három héttel később a dolgok nem javultak, és nyomon követési kérdést tettek közzé, megjegyezve, hogy több mint öt millió olyan oldalt kaptak, amelyek nem léteznek. A kérdésükbe egy tényleges URL -t tettek közzé, de anonimizáltam, különben szó szerint.

A személy megkérdezte:

„A GoogleBot továbbra is agresszív módon mászik egy URL -rel (lekérdezés -karakterláncokkal), annak ellenére, hogy már körülbelül két hónapja visszatér egy 410 (eltűnt) státusba.

Csak az elmúlt 30 napban körülbelül 5,4 millió kérést láttunk a GoogleBOT -tól. Ezek közül körülbelül 2,4 millió volt erre az URL -re:
https://example.net/software/virtual-dj/ a?

Láttuk azt is, hogy ebben az időszakban jelentősen csökkenünk a Google láthatóságában, és nem tudok segíteni, de csoda, hogy van -e kapcsolat – valami csak úgy érzi, hogy kikapcsol. Az érintett oldal:
https://example.net/software/virtual-dj/?feature=…

A Google az összes ilyen URL -t felfedezte, hogy nem szándékosan kitettük őket a Next.js által generált JSON hasznos teherben – ezek nem voltak tényleges linkek a webhelyen.

Megváltoztattuk, hogyan működik a „több funkció” (mf querystring használatával, és hogy a QueryString a robots.txt fájlban található)

Problémás lenne valami ilyesmit hozzáadni a robots.txt -hez?

Tiltás:/szoftver/virtuális-DJ/? Feature =*

Fő cél: annak megakadályozása, hogy ez a túlzott mászás elárasztja a rönköket, és potenciálisan kiváltja a nem kívánt mellékhatásokat. ”

A Google John Mueller megerősítette, hogy a Google normál viselkedése továbbra is visszatér, hogy ellenőrizze, hogy a hiányzó oldal visszatért -e. Ez a Google alapértelmezett viselkedése azon tapasztalatok alapján, amelyeket a kiadók hibázhatnak, és így rendszeresen visszatérnek annak ellenőrzéséhez, hogy az oldal helyreáll -e. Ez hasznos szolgáltatásnak szánták azoknak a kiadóknak, akik akaratlanul eltávolíthatják a weboldalt.

Mueller válaszolt:

„A Google megkísérel újból felépíteni azokat az oldalakat, amelyek egykor hosszú ideig léteztek, és ha nagyon sokuk van, akkor valószínűleg többet fog látni. Ez nem probléma – jó, ha az oldalak eltűnnek, még akkor is, ha rengeteg.

VIGYÁZAT: Műszaki SEO előre

Ez a következő rész az, ahol a SEO technikát kap. Mueller figyelmezteti, hogy a robotok hozzáadásának javasolt megoldása véletlenül megszakíthatja az olyan oldalak megjelenítését, amelyeknek nem szabad hiányozni.

Alapvetően azt tanácsolja a kérdést feltevő személynek:

  • Kétszer ellenőrizze, hogy a? Feature = URL-eket egyáltalán nem használják a Frontend kódban vagy a JSON hasznos teherben, amely a fontos oldalakat táplálja.
  • Használja a Chrome devtools -t, hogy szimulálja, mi történik, ha ezeket az URL -eket blokkolják – a törés korai elkapására.
  • Figyelje a Soft 404 -es keresési konzolot, hogy észrevegye az indexelt oldalak nem kívánt hatását.

John Mueller folytatta:

„A legfontosabb dolog, amire vigyázok, az, hogy ezek valóban mind visszatérnek a 404/410 -re, és nem az, hogy néhányat valami olyan, mint a JavaScript használja az oldalakon, amelyeket indexelni szeretne (mivel megemlítette a JSON hasznos terhelését).

Nagyon nehéz felismerni, ha nem veszi figyelembe egy beágyazott erőforrás mászását (legyen az az oldalba beágyazva, vagy igény szerint betöltve) – néha az az oldal, amelyre hivatkozik, leállítja a megjelenítést, és egyáltalán nem indexálható.

Ha van JavaScript ügyféloldali-megjelenített oldalai, megpróbálom megtudni, hol hivatkoztak az URL-ek (ha tudsz), és blokkolni az URL-eket a Chrome DEV eszközökben, hogy megtudja, mi történik az oldal betöltésekor.

Ha nem tudod kitalálni, hol vannak, akkor nem tiltom meg egy részüket, és figyelnék a SOFT-404 hibákat a Search Console-ban, hogy megnézhessem, történik-e valami láthatóan.

Ha nem használja a JavaScript ügyféloldali-átruházását, akkor valószínűleg figyelmen kívül hagyhatja ezt a bekezdést :-). ”

A különbség a nyilvánvaló ok és a tényleges ok között

A Google John Muellernek igaza van, hogy mélyebb diagnosztikát javasoljon a kiadó hibáinak kizárására. A kiadói hiba elindította az események láncát, amely az oldalak indexálásához vezetett a kiadó kívánságainak megfelelően. Tehát ésszerű, hogy felkérjük a kiadót, hogy ellenőrizze, hogy lehet -e valószínűbb ok a keresési láthatóság elvesztésének megfontolására. Ez egy klasszikus helyzet, amikor a nyilvánvaló ok nem feltétlenül a helyes ok. Különbség van a nyilvánvaló ok és a tényleges ok között. Tehát Mueller javaslata, hogy ne adja fel az ügy megtalálását, jó tanács.

Olvassa el az eredeti vitát itt.

A szerzőről

Peter, az eOldal.hu tapasztalt SEO szakértője és tartalomgyártója. Több mint 10 éve foglalkozik keresőoptimalizálással és online marketinggel, amelyek révén számos magyar vállalkozás sikerét segítette elő. Cikkeiben részletes és naprakész információkat nyújt az olvasóknak a legfrissebb SEO trendekről és stratégiákról.