www.linkedin.com wurde komplett aus dem Google Index entfernt
Wer gestern mit der Site-Abfrage und der Domain www.linkedin.com herumgespielt hat, konnte und wollte seinen Augen nicht trauen: alle Inhalte von www.linkedin.com waren komplett aus dem Index verschwunden. (Photo by Markus Spiske from Pexels)

Suchmaschinenoptimierung zeigt nicht selten wahre Stilblüten der Technik. Gestern hatte sich das Businessnetzwerk LinkedIn für kurze Zeit selber mit der www.-Domain komplett selber aus dem Index geworfen.

www.linkedin.com komplett deindexiert

Die site:-Abfrage für die Domain www.linkedin.com bringt keine Ergebnisse mehr.

LinkedIn Sichtbarkeit

Der geneigte Suchmaschinenoptimierer geht dabei (und vor allem auf Grund der Firmengröße) natürlich erst einmal davon aus, dass das ein geplanter Move war. Bei der Betrachtung des Quellcodes und der Sichtbarkeitswerte kamen dann aber doch sehr schnell Zweifel an der Sinnhaftigkeit der Deindexierung auf. Alleine in den USA hat www.linkedin.com eine Sichtbarkeit von fast 200 nach SISTRIX und im Quelltext war kein NOINDEX oder ähnliches zu finden.

gewollte Deindexierung oder SEO-Unfall?

Im Laufe des Tages wurde relativ schnell klar, dass hier wohl ein kapitaler Fehler passiert ist und die Deindexierung mit Sicherheit nicht gewollt war. Welcher SEO würde eine Sichtbarkeit von 200 riskieren ohne dabei ein entsprechendes Weiterleitungskonzept und Index-Steuerung vorzunehmen?

Twitter hilft – immer

Wer John Müller auf Twitter nicht folgt, ist selbst schuld! Mit seiner lockeren (wenn auch nicht immer ganz transparenten) Art, hat er den Vorfall dann auch direkt kommentiert und Kollege Barry Schwarz hat gekonnt geantwortet. Aber seht selber:

URL-Removal Tool?

Man kann nur spekulieren, aber laut dem Tweet von John Müller scheint da jemand bei linkedin.com mit dem URL-Removal-Tool in der GSC gespielt zu haben. Und da Google auch nur eine Maschine ist, wurde die Anweisung prompt befolgt und alle Inhalte wurden aus dem Index verbannt.

Oder doch robots.txt?

Ein Twitter-User hatte vermutet, dass die Deindexierung an einer fehlerhaften robots.txt liegen könnte, weil dort scheinbar “user-agent: *, disallow: /” zu sehen war. Aktuell ist das aber nicht reproduzierbar und im Übrigen hätte das auch nicht zu einer kompletten Deindexierung von hunderten Millionen URLs geführt. Diese Directive in der robots.txt besagt ja nur, dass der Crawler die Seiten nicht besuchen/crawlen darf. Nicht mehr und nicht weniger. Crawl Management != Index Management.

Zurück auf Los

Der Fehler wurde natürlich sehr schnell bemerkt und LinkedIn hat auch direkt reagiert. Die Domain wurde wieder zur Indexierung frei gegeben und alle URLs waren auch sofort wieder im Google-Index, denn Google löscht nicht einfach so, sondern behält die Daten 180 Tage, d.h. die Linked-Ergbnisse wurden nur ausgeblendet. Das hat zur Folge, dass alle 238 Millionen URLs auch direkt wieder sichtbar wurden, nachdem der Fehler behoben wurde.

Schreibe einen Kommentar

jetzt den contentking.de Newsletter abonnieren

Und wir halten Dich immer auf dem aktuellen Stand!

das könnte Dich ebenfalls interessieren

Juni 2024 Spam-Update im Google Search Status Dashboard

Es gibt Neuigkeiten für Suchmaschinenoptimierer: Google hat am 20. Juni 2024 offiziell ein neues Spam-Update im Google Search Status Dashboard veröffentlicht. Wer bisher sauberes SEO gemacht hat, den dürfte das nicht wirklich beunruhigen, denn Google versucht hier wirklich Herr über die massive Spamflut zu werden.

AI Overviews deaktivieren: laut Google nicht möglich

In einem Forum-Beitrag äußert sich Google zu FAQs über AI Overviews. Google hält unter anderem fest, dass es nicht möglich ist, AI Overviews zu deaktivieren.

Endloses Scrollen bei Google vorbei: Ende der SERPs wieder da

Das endlose Scrollen bei Google wurde nun eingestellt. Wie sich diese Änderung auf das Online-Marketing auswirkt, haben wir in dieser News zusammengefasst.

Soft 404-Fehler und ihre Auswirkungen auf SEO

Google-Analyst Gary Illyes warnt in seinem kürzlich veröffentlichen LinkedIn Post vor Soft 404-Fehlern und ihren Auswirkungen auf Crawler und erklärt, warum eine vollständige Fehlerbehebung zwingend erforderlich ist für SEO und die Effizienz einer Website.