Google Leak enthüllt über 14.000 Ranking Faktoren

von Patrick Ott 
LETZTES UPDATE: 2. Juni 2024

Wurde gerade wirklich ein Teil des geheimen Google-Suchalgorithmus enthüllt?

In einer turbulenten Folge von Ereignissen hat Google versehentlich über zweieinhalbtausend (!) Seiten der Google-Such-API-Dokumentation veröffentlicht, aus denen man über 14.000 mutmaßliche Ranking-Kriterien ableiten kann. 

Diese Enthüllungen könnten sich als ein epochaler Moment in der SEO-Geschichte herausstellen. Vielleicht dürfen wir unsere gesamte Herangehensweise an die Suchmaschinenoptimierung überdenken...

Also lass' uns einfach mal eintauchen:

Willkommen unter der Motorhaube des Googles Algorithmus!

In einer aufsehenerregenden Enthüllung hat Rand Fishkin von SparkToro die interne Dokumentation der Google Search Content Warehouse API veröffentlicht. Diese Dokumente liefern eine Fundgrube an Informationen, wie Google mit seinen verschiedenen Produkten Daten von seinen Nutzern sammelt.

Die Dokumente wurden in einem öffentlichen GitHub-Code-Repository veröffentlicht und von einem externen Dokumentationsdienst erfasst.

Laut Danny Goodwin vom Search Engine Journal handelte es sich dabei um ein Versehen und nicht um ein absichtlichen Leak. Der Fehler wurde am 7. Mai auch gleich korrigiert, aber die automatisierte Dokumentation ist weiterhin verfügbar.

Die Dokumente wurden offenbar von Irfan Azimi, CEO von EA Eagle Digital, entdeckt, was Fishkin in einem Kommentar zu Azimis Video bestätigte.

Wie sind die Dokumente einzuordnen?

Um die Echtheit sicherzustellen, hat Fishkin mehrere ehemalige Google-Mitarbeiter kontaktiert, die bestätigt haben, dass die Dokumente echt zu sein scheinen.

Update 30.5.2024: 
Google hat mittlerweile die Echtheit der Dokumente bestätigt!

Und es handelt sich hier nicht etwa um veraltete Informationen. Mit einem Veröffentlichungsdatum vom 27. März scheinen diese Dokumente sehr aktuell zu sein und möglicherweise sogar den aktuellen Algorithmus zu beschreiben.

Fishkin beauftragte Mike King von iPoolRank, einen hochqualifizierten technischen SEO, mit der Analyse der technischen Aspekte der Dokumentation. King veröffentlichte seine eigenen Ergebnisse und bestätigte, dass das Leck eine außergewöhnliche Menge an bisher unbestätigten Informationen über die innere Funktionsweise von Google enthält.

Aber bitte nicht gleich überschwänglich werden!

Fishkin stellt klar, dass die erwähnten Funktionen kein schlüssiger Beweis für einen Google-Rankingfaktor sind. Das Leak bietet wertvolle Einblicke, aber es ist keine vollständige Blaupause des Google-Algorithmus.

Es wird nicht erwähnt, wie diese potenziellen Faktoren innerhalb des Algorithmus gewichtet werden, und einige der Elemente sind möglicherweise auch experimentell oder werden gar nicht mehr verwendet.

In den Dokumenten sind jedoch Funktionen, die überholt sind, deutlich gekennzeichnet. Dies deutet stark darauf hin, dass alles, was nicht als veraltet gekennzeichnet ist, derzeit auch im Algorithmus aktiv ist. Viele der Inhalte bestätigt auch die Aussagen der Google-Führung, was zunächst die Glaubwürdigkeit unterstützt.

Beginnen wir also mit den schockierendsten Enthüllungen. Google hat in Bezug auf eine ganze Reihe von Dingen - sagen wir - nicht ganz die Wahrheit gesagt. Manche reden gar von klarer Lüge oder Täuschung!

Punkt 1: Die Verwendung von Klickdaten

Der Google-Analyst Gary Ills hat gesagt, dass Klicks nicht direkt in die Rankings einfließen. Tatsächlich aber hat das NavBoost-Rankingsystem, das in der Dokumentation 84 Mal erwähnt wird, ein spezielles Modul für genau solche Klicksignale.

Die Dokumentation ist ziemlich umfangreich, aber die Quintessenz ist, dass Google Klicks und das Verhalten nach dem Klick als Teil seiner Ranking-Algorithmen verwendet. Sie verfolgen gute und schlechte Klicks und messen sogar das Datum des letzten guten Klicks auf ein Dokument.

Laut King könnte dies bedeuten, dass der Abrutschen von Inhalten oder der Verlust von Besucherzahlen im Laufe der Zeit zum Teil darauf zurückzuführen ist, dass eine Seite nicht die erwartete Anzahl von guten Klicks für ihre Position in den SERPs erzeugt.

Das heißt, wenn sich die Nutzer im Laufe der Zeit weniger intensiv mit einer Seite beschäftigen oder zurück zur Suche gehen und auf ein anderes Ergebnis klicken, dann wird Ihr Ranking mit der Zeit wahrscheinlich sinken.

Mit diesem System ahmt Google quasi das Verhalten sozialer Netzwerke nach, in denen das Engagement die wichtigste Kennzahl ist, die darüber entscheidet, wie weit verbreitet ein Artikel ist.

Rand Fishkin wird das besonders freuen, denn Gary Ills von Google hat seine Theorie, dass Google Klickdaten verwendet, als "erfundenen Müll" bezeichnet.

Punkt 2: Das Domain-Alter

Google behauptete auch, dass sie sich nicht um die Domain-Autorität kümmern. Die Dokumente zeigen jedoch, dass Google über eine Funktion namens Site Authority verfügt.

Wir wissen nicht, wie diese Funktion verwendet wird, aber sie legt nahe, dass das Konzept der Website-Autorität existiert und im Google-Algorithmus verwendet wird.

Ganz schön krass, oder?

Punkt 3: Nutzerdaten aus Chrome

Der Google-Suchbeauftragte John Mueller behauptete ja, dass Chrome-Daten nicht für das Ranking verwendet werden.

Ein Modul, das sich auf die Bewertung der Seitenqualität bezieht, enthält jedoch ein Maß für die Aufrufe von Chrome auf Site-Ebene, und ein anderes Modul, das sich auf die Generierung von Site-Links bezieht, enthält ebenfalls ein Chrome-bezogenes Attribut.

Punkt 4: Die Sandbox

Google hat auch die Existenz einer Sandbox für neue Websites geleugnet, die ihre Fähigkeit zum Ranking einschränkt, bis sie ein bestimmtes Alter erreicht haben. Aus der Dokumentation geht jedoch hervor, dass Google ein Attribut namens Hostage (Geisel) verwendet, um neue Websites zu begrenzen.

Bevor ich von Google in Geiselhaft genommen werde, ziehe ich aber den Sandkasten vor... ????

Das bedeutet, dass tatsächlich neuere Websites in den Rankings zurückgehalten werden können, bis sie als vertrauenswürdig eingestuft werden.

Abgesehen von den offensichtlichen Falschaussagen von Google sollten wir uns nun mit den Erkenntnissen befassen, die sich aus diesem Leak für uns Unternehmer ergeben. Eine der interessantesten Erkenntnisse stammt von Irfan Azimi, der offensichtlichen Quelle der Informationen.

User Signale aus dem lokalen Umfeld

Er sagt, dass das NavBoost-Ranking-System im Wesentlichen ein "personalisierter Algorithmus auf Steroiden" ist. Azimi behauptet, dass die Handlungen eines Nutzers die Rankings anderer Nutzer am gleichen Standort und im selben demografischen Umfeld beeinflussen.

Fishkin bringt dazu folgendes Beispiel: Wenn viele Menschen in Seattle nach Lehman Brothers suchen und so lange scrollen, bis sie die Website des Lehman Brothers Theaters finden, wird Google schnell erkennen, dass es das ist, was die Menschen in Seattle wollen, wenn sie die Anfrage eingeben.

Da erscheint dann eben nicht mehr den Wikipedia-Link zu dem gescheiterten Finanzunternehmen finden.

Weiter sagt er, wenn Du bei genügend Suchenden in Deiner Zielregion eine hohe Nachfrage für Deine Website erzeugst, könntest Du sogar übliche SEO-Signale wie Links und optimierte Inhalte ignorieren und trotzdem gut ranken.

Es gibt noch viele andere Erkenntnisse. Zum Beispiel speichert Google ausdrücklich den Autor einer Seite und ob eine Entität auf dieser Seite auch der Autor ist. Google interessiert sich dafür, wer Deine Autoren sind, was ja ein wichtiges Element von EAT bestätigt.

Was abgestraft wird

Es gibt auch eindeutige Beweise dafür, dass es Herabstufungen durch den Algorithmus gibt - aus einer Vielzahl von Gründen, beispielsweise

  • Anchor-Mismatch: wenn also ein Link für die Website, auf die er verlinkt, nicht relevant erscheint
  • SERP Devotion: hängt wahrscheinlich mit der Unzufriedenheit der Nutzer zusammen - gemessen am Klickverhalten (CTR in den SERPs)
  • NAV Demotion: trifft wahrscheinlich auf Seiten mit schlechter Navigation oder Benutzererfahrung
  • Exact-Match-Domains: offenbar sinken Exact-Match-Domains weiter im Wert
  • Local Devotion: also eine standortabhängige Herabstufung, was darauf hindeutet, dass Google versucht, Seiten mit einem Standort in Verbindung zu bringen und sie entsprechend einzustufen

 

Was immer noch wichtig ist

Die Seitentitel sind nach wie vor entscheidend. Die Variable für die Titelübereinstimmung zeigt an, dass die Übereinstimmung Ihres Seitentitels mit der Suchanfrage ein wichtiger Rankingfaktor ist.

Die Aktualität der Inhalte ist ebenfalls wichtig, ebenso wie die Konsistenz des Veröffentlichungs- und Aktualisierungsdatums in strukturierten Daten, Seitentiteln, XML-Sitemaps und allen anderen Datumsangaben.

Link Spam

Es gibt auch eine Reihe von Metriken zur Bekämpfung von Link-Spam.

Im Grunde kann Google Spitzen bei Spam-Linktexten erkennen und negative SEO-Angriffe abwehren. Das ist beruhigend zu wissen, vor allem, wenn man bedenkt, dass es das Disavow-Tool vielleicht nicht mehr lange geben wird.

King konnte keine Erwähnung von Disavow-Daten finden und John Mueller hat ja mal angedeutet, dass Google das Disavow-Tool möglicherweise bald entfernen wird.

Google verfolgt auch das Datum der Domainregistrierung, wahrscheinlich um das Sandboxing über neue Inhalte und Domains, die den Besitzer gewechselt haben, zu informieren. Dies ist wahrscheinlich durch die Spam-Richtlinie zum Missbrauch abgelaufener Domains noch wichtiger geworden.

Small Personal Websites

Interessanterweise hat Google eine Kennzeichnung für kleine persönliche Websites. Auch wenn die Definition unklar ist, könnte diese Kennzeichnung dazu dienen, solche Websites entweder aufzuwerten oder zurückzustufen.

Google verfolgt auch die durchschnittliche Schriftgröße für Begriffe und Ankertexte. Dies liegt wahrscheinlich daran, dass viele Menschen die Überschriftenformatierung nicht richtig verwenden. Daher verwendet Google die Schriftgröße, um die beabsichtigten Überschriften auf einer Seite zu bestimmen.

Das Wichtigste zum Schluss

Die wohl wichtigste Erkenntnis: der Aufbau Deiner Marke ist wichtiger ist als alles andere, wenn Du heutzutage in der Google-Suche sichtbar werden will.

Fishkin sagt, wenn es den einen universellen Tipp gäbe, um die organischen Suchergebnisse und den Traffic zu verbessern, dann wäre es der Aufbau einer bemerkenswerten, beliebten und anerkannten Marke in Deiner Nische außerhalb der Google-Suche.

Das würde bedeuten, dass sich Suchmaschinenmarketing um 180 Grad dreht.

Bis vor ein paar Jahren war SEO ein Entdeckungskanal, mit dem Du Deine anderen Kanäle aufbauen konntest. Nun sieht es so aus, als würde der Aufbau einer Marke außerhalb von Google schließlich auch positiv auf den organischen Google-Traffic abfärben würde.

Um die Geschichte abzurunden, fasst Fishkin die Situation treffend zusammen: Für die meisten kleinen und mittelständischen Unternehmen sowie für neuere Autoren oder Verlage wird SEO wahrscheinlich nur wenig Gewinn abwerfen, bis sie Glaubwürdigkeit, Nachfrage und einen gute Reputation bei einem großen Publikum aufgebaut haben.

Oops - ich habe noch einen potenziellen Ranking-Faktor vergessen.

Backlinks haben unterschiedlichen Impact

King vermutet, dass auch die Indexierungsebene (indexing tier) einer Seite ihren Linkwert beeinflusst. Stell Dir das so vor, dass Google seinen Index in drei Stufen einteilt.

Die wichtigsten und häufig aktualisierten Inhalte werden im Flash-Speicher gespeichert, da sie am schnellsten abgerufen werden können.

Weniger wichtige Inhalte werden auf Solid-State-Laufwerken gespeichert, während Inhalte, die nicht oft aktualisiert werden, auf normalen Festplatten gespeichert werden.

Das bedeutet, dass der Link umso wertvoller ist, je höher die Seite eingestuft ist. King nimmt an, dass neue, aktuelle Inhalte als qualitativ hochwertig angesehen werden, also möchtest Du natürlich Backlinks von Inhalten, die entweder neu und aktuell sind oder sich in der obersten Ebene befinden.

Deshalb tragen Links von hochwertigen Seiten und von Newsseiten wesentlich effektiver zur Verbesserung Deiner Rankings bei als z.B. ältere Unterseiten. Das bedeutet wiederum, dass digitale PR derzeit eine der besten Möglichkeiten ist, um qualitativ hochwertige Links zu erhalten.

Ich habe hier nur einige der wichtigsten Erkenntnisse behandelt, aber das ist bei weitem noch nicht alles. Warten wir ab, wie es weiter geht und was noch ans Tageslicht kommt.

Ich persönlich finde diese Enthüllungen total spannend! SEOs auf der ganzen Welt werden die Dokumente in den kommenden Monaten auswerten. Wenn es weitere wichtige Enthüllungen gibt, werden ich hier weiter darüber berichten. Wenn Du meinen Newsletter abonniert hast, wirst Du als erstes darüber erfahren.

Hinterlasse einen Kommentar:

Your email address will not be published. Required fields are marked

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Das könnte Dich auch interessieren: