Blog

Google-BERT-Update FAQ

Lizenzhinweis: "Bert" by chrisinphilly5448, Flickr is licensed under CC BY-SA 2.0

Das Google-BERT-Update ist Ende Oktober 2019 für englischsprachige Suchergebnisse in den USA und für Featured Snippets in 20+ weiteren Märkten (darunter auch Deutschland) live gegangen. Ziel des Updates ist eine verbesserte Erkennung von komplexen Suchanfragen. Alle wissenswerten Fragen und Antworten zu Googles BERT-Update haben wir in einer umfangreichen FAQ zusammengestellt. Bei Bedarf wird diese regelmäßig erweitert.

Übersicht

Wofür steht die Abkürzung BERT?

„Bidirectional Encoder Representations from Transformers“ – was zu Deutsch nicht besser als mit „Beiderseitige Enkodier-Repräsentation von Transformern“ übersetzt werden kann.
Deutlich hilfreicher für eine tatsächliche Erklärung ist die Vorstellung, dass das BERT-Update Google dabei hilft, die Vielschichtigkeit der menschlichen Sprache sinnvoll zu verstehen. Und ein besseres Verständnis hilft relevantere Ergebnisse anzeigen zu können.

Wann und wo wurde das Google-BERT-Update ausgerollt?

Das Update wurde zwischen dem 21.10.2019 und 27.10.2019 (Kalenderwoche 43) für US-englischsprachige Suchanfragen ausgerollt. Ein Rollout auf weitere Sprachen ist seitens Google aber bereits ohne konkretes Datum angekündigt. Neben den Auswirkungen auf die klassischen Suchergebnislinks, wirkt sich BERT zudem auf Featured Snippets in allen Märkten, in denen diese verfügbar sind, aus. Dazu gehört auch Deutschland. Sollten in den ersten Wochen seit dem Rollout Veränderungen in der Auswahl und Anzeige von Featured Snippets zu erkennen sein, sind diese höchstwahrscheinlich auf das BERT-Update zurückzuführen.

Wie verändert das BERT-Update die Suchergebnisse?

Laut Google betrifft das Update 10% aller englischen Suchanfragen in den USA. Damit ist es eines der bedeutendsten Google-Updates der letzten Jahre. Das BERT-Update verhilft Google dazu, einzelne Terme (Begriffe) der Suchanfrage noch besser in einen Kontext zu einander zu setzen. Das trifft sowohl auf bereits bekannte, als auch auf erstmals gestellte Suchanfragen zu.
Bemerkbar macht sich das in erster Linie, dass die Bedeutung von kleinen unscheinbaren Präpositionen und Pronomen wie „nach“, „für“, „kein“ nun deutlich mehr Auswirkung auf die angezeigten Suchergebnisse hat. Da diese Wortarten häufig eine Aussage komplexer machen oder sogar ins Gegenteil verkehren, waren bisherige Suchergebnisse dazu meist unbrauchbar.
Man könnte also sagen, dass dieses Update die Wiedergeburt der sogenannten „Stoppwörter“ darstellt (eine umfängliche Liste deutscher Vertreter ist bei GitHub verfügbar), welche lange Zeit für Suchmaschinen als unwichtig und vernachlässigbar galten.

BERT ermöglicht aber noch mehr als eine bessere Interpretation von Stoppwörtern: Mit dem BERT-Update werden erstmals zuvor gelernte und zukünftig noch zu lernende „Erkenntnisse“ über das Zusammenspiel eines Wortes mit den anderen mitgelieferten Worten der Suchanfrage angewendet. Mehrdeutige Begriffe werden mittels BERT-Techniken also in eindeutige Begriffe verwandelt. Konkrete Beispiele wie so etwas derzeit in der US-amerikanischen Suche aussieht, finden sich in der Antwort zur Frage “Wo finde ich Beispiele für Suchanfragen, die seit dem BERT-Update nun andere Ergebnisse ausgeben?”

Wie kann ich für Google BERT optimieren?

Nach einhelliger Meinung der meisten SEO-Experten stand schnell fest:
1. Du
2. Kannst
3. Nicht
4. Für
5. Deep-
6. Learning-
7. NLP-
8. Algorithmen
9. Optimieren
10. Schreibe für Menschen
Letztlich gilt also weiterhin: Überzeuge mit Expertise, spezifischen und nützlichen Inhalten und verwende in jedem Fall Präpositionen und Pronomen.

Wo finde ich Beispiele für Suchanfragen, die seit dem BERT-Update nun andere Ergebnisse ausgeben?

Im englischsprachigen Google AI Blog zum Thema „Understanding searches better than ever before“ finden sich viele anschauliche Beispiele. Allgemein ist festzuhalten, dass es eher Longtail-Suchen betrifft.

Zu den aufgeführten Beispielen gehören etwa komplexe und sehr spezifische Suchanfragen wie die folgenden:

  • “2019 brazil traveler to usa need a visa”

Beschreibung des alten Ergebnisses: Bisher zeigte Google hier als Top-Ergebnis einem Artikel der Washington Post aus dem Jahre 2019, der die Einreisemodalitäten für US-Amerikaner bei der Einreise nach Brasilien beschrieb und damit in genau die Gegenrichtung dessen, was eigentlich gemeint war, abzielte.

Beschreibung des neuen Ergebnisses: Das neue, vom BERT-Update beeinflusste Ergebnis zeigt nun eine deutlich passendere Antwort: Die offizielle Seite der US-Botschaft in Brasilien mit allen Einreise- und Visabestimmungen für Brasilianer, die eine Reise in die USA beabsichtigen in englischer Sprache. Bei der Ausspielung dieses Ergebnisses ist neu, dass Google nun viel stärker auf die Präposition „to“ (also „nach“) sowie die Reihenfolge der Nennung der Länder „brazil“ und „usa“ achtet.

  • “do estheticians stand a lot at work”

Beschreibung des alten Ergebnisses: Bisher zeigte Google hier als Top-Ergebnis eine Seite, die zwar alle Begriffe der Suchanfrage nah beieinander enthielt, jedoch das entscheidende Verb „stand“ (also „stehen“) nicht wie von Suchenden in Sinne von physischem Stehen, sondern im Sinne von „stand-alone“ (also „eigenständig“) auslegte. Die Ausrichtung der Antwort ging damit also irreführenderweise eher in eine finanzielle statt in die gewünschte praktische Richtung.

Beschreibung des neuen Ergebnisses: Das neue, vom BERT-Update beeinflusste Ergebnis zeigt nun eine deutlich stärkere Berücksichtigung des Verbs „stehen“ im Kontext der gesamten Suchanfrage. Dem Nutzer wird nun eine weitaus hilfreichere Antwort gegeben, indem eine Seite zu den physischen Anforderungen für KosmetikerInnen ausgespielt wird. Hier hat also die Auswertung des Kontextes bzw. der restlichen Begriffe und deren Position zueinander dazu beigetragen, eine zuvor unklare Einschätzung durch Google aufzuheben und richtig zu deuten.

Ist BERT verwandt mit Googles RankBrain-Update von 2015?

Eine gewisse Verwandtschaft zu RankBrain ist vorhanden, denn auch das RankBrain-Update ist darauf ausgerichtet, dem allgemeinen Google-Algorithmus neue “Fähigkeiten” bei der Beantwortung von Suchanfragen selbstlernend beizubringen. Der hauptsächliche Nutzen von RankBrain besteht vor allem darin, den täglichen Anteil von 15% neuer, niemals zuvor eingegebener Suchanfragen besser beantworten zu können. Wie auch bei BERT steht hier maschinelles Lernen, welches in der Entwicklungsphase durch einen begrenzten Korpus an Dokumenten trainiert wurde, im zentralen Fokus. In der Livephase nun helfen beide „Fähigkeiten“ Google nun dabei, neue komplexe Suchanfragen bestmöglich zu beantworten. Rückblickend lässt sich sagen, dass Google ohne RankBrain heutzutage nicht in der Lage wäre, die wachsende Anzahl an immer neuen Suchanfragen und deren schier unendlichen Variationen, zufriedenstellend beantworten zu können.

Hat BERT etwas mit den letzten Google-Core-Updates von 2018 und 2019 rund um YMYL (Your money, your life) und EAT (Expertise, Authoritativeness and Trustworthiness) zu tun?

Während die letzten Core-Updates sich eher durch eine Veränderung bei der Bewertung von bestimmten Onpage- und Offpage-Signalen (Fachwissen, bekannte Autoren, Links zu und von Authoritäten, seriöses Impressum, hilfreiche Social-Media-Auftritte, transparente Quellenangaben) hervortun, zielt BERT eher auf die Art und Weise ab, wie komplexe Suchanfragen und indexierter Content möglichst sinngemäß mit einander verbunden werden. Zielgerichtete Maßnahmen sind daher bei BERT kaum möglich. Im Gegensatz dazu können Seitenbetreiber sehr wohl auf die betreffenden Faktoren der Core-Updates rund um YMYL und EAT optimieren, da hier relativ konkrete Anforderungen an den Content und das Umfeld der Website gestellt werden.

Was ist der Einfluss von BERT speziell auf mobile Suchergebnisse?

Einen gesonderten Einfluss auf mobile Suchergebnisse hat BERT nicht. Sowohl in Desktop- als auch in mobilen Suchergebnissen erhöht es die Wahrscheinlichkeit, dass eine Suchanfrage eine exakte passende Antwort erhält – ganz gleich, ob in Form eines klassischen ersten organisches Ergebnislinks oder eines Featured Snippets (Antwortbox auf Position Zero). Für die mobile Suche präziser auswertbare weitere Faktoren wie die Position des Suchenden wirken sich natürlich weiterhin im Zusammenspiel mit allen anderen Faktoren auf das Ranking einzelner Suchergebnisse aus. Vorhandene Einflüsse von BERT auf in das Smartphone gesprochene Suchanfragen finden sich in der Antwort zur nächsten Frage.

Wie beeinflusst BERT Voice Search?

BERT ist geradezu prädestiniert, dabei zu helfen, gesprochene Suchanfragen besser beantworten zu können. Im Zusammenspiel mit RankBrain unterstützt es Google dabei, eine einzige zufriedenstelle Antwort auf eine Voice-Search-Anfrage zurückgeben zu können – ganz so, als würden zwei Menschen beim Austausch von Fragen und Antworten miteinander interagieren. Insbesondere für die Sprachsuche ist Google aufgrund des hohen Wettbewerbs mit Amazons Alexa- und Apples Siri-Technologie auf das reibungslose Verstehen und Beantworten von Fragen für den weiteren Erfolg seines Google Assistents angewiesen. BERT spielt auch beim Formulieren von Verständnisfragen an den menschlichen Nutzer durch einen digitalen Assistenten eine wichtige Rolle.

Wie beeinflusst BERT die lokale Suche?

Da die lokale Suche ein Teil der Google-Websuche ist (der andere Teil entfällt auf Google Maps direkt) hat das BERT-Update auch Auswirkungen auf lokale Longtail-Suchanfragen wie etwa „Welches sind die drei besten Frisöre für Kinder in der Nähe“. Auf klassische kurze lokale Anfragen wie „kinderfrisör köln“ wird sich das Update hingegen nicht auswirken.

Mit einem Anstieg in der Verwendung von komplexen, gesprochenen Longtail-Anfragen in einem lokalen Umfeld wird wahrscheinlich durch die zu erwartende stärkere Verbreitung von digitalen Assistenten, die auch unterwegs benutzt werden können, zu rechnen sein. So stellen Smart Wearables wie Uhren und Kopfhörer als auch Autos mit eingebauten digitalen Assistenten geeignete Geräte dar, um lokale Sprachsuchen entgegen zu nehmen und diese möglichst eindeutig beantworten zu können. Die Qualität der Antworten wird dabei stark von der Ausführlichkeit und Vollständigkeit lokaler Website- und Google-My-Business-Inhalte abhängig sein, so dass hier Anbieter mit passenden lokalen Informationen profitieren sollten.

Warum zeigen Ranktracking-Tools seit dem BERT-Update kaum Veränderungen an? Immerhin sollen die Änderungen laut Google 10% aller Suchanfragen betreffen.

Wie bei allen größeren Google-Updates zeigen Ranktracking-Tools ähnlich einem Thermometer die Auswirkungen einer Algorithmus-Änderung kurz nach der Ausspielung an. Das war bei BERT nicht der Fall. Wichtig dabei zu wissen ist, dass die Anbieter in der Regel über ein Set an Suchbegriffen verfügen, welches sich vorwiegend aus Head-Keywords wie „autoversicherung“ oder populären Mehr-Wort-Kombinationen wie „vw golf konfigurieren“ speist. Da der Google-Algorithmus bei diesen Begriffen traditionell wenig Probleme mit der Ausgabe von passenden Antworten hat, spielt BERT hier keine Rolle und verursacht daher auch keine sichtbaren Ausschläge in derartigen Tools.

Gibt es spezielle Arten von Websites oder Branchen, die besonders von BERT profitieren oder benachteiligt werden?

Prinzipiell profitieren alle Websites, die möglichst detaillierte und vollständige Inhalte zu einem bestimmten Thema bereitstellen, weil diese bei komplexen Longtail-Suchanfragen nun präziser und zuverlässiger durch Google ausgeliefert werden können. Einzelne Beispiele haben gezeigt, dass Nachrichtenwebsites, die zwar ein hohes Vertrauen genießen und ihre Inhalte über ein breites Spektrum anbieten, möglicherweise nun trotzdem in der Google-Websuche bei bestimmten komplexen Suchanfragen benachteiligt werden, da deren Newsartikel teilweise ein Thema nur anlassbezogen aber nicht in der nötigen Tiefe oder Vollständigkeit abbilden. Mit BERT ist Google nun in der Lage, hier auf andere Quellen, die zwar nicht immer über ein vergleichbar hohes Vertrauen, aber über genauere Informationen zur Beantwortung der Suchanfrage verfügen, zu bevorzugen.

In Zusammenhang damit könnte auch die Meldung der New York Times stehen, die kurz nachdem BERT in der US-amerikanischen Suche live gegangen war, einen Ranking- und Traffic-Rückgang beklagte. Dieser Rückgang könnte möglicherweise damit begründet werden, dass Google nun bei bestimmten Suchanfragen seltener redaktionelle Newsartikel, die zwar die einzelnen Suchbegriffe losgelöst voneinander enthalten, sondern eher andere ähnlich vertrauenswürdige Quellen bevorzugt, so diese denn eine Antwort für die Suchanfrage in der benötigten Detailtiefe anbieten.

Was kann ich in Zukunft in Sachen BERT noch erwarten?

Die Verwendung von BERT im Rahmen der organischen Suchergebnisse ist nur ein Bereich, in dem Google und andere Technologiefirmen auf NLP-Methoden (Natural Language Processing) setzen. Der BERT-Ansatz kann vor allem bei direkten Unterhaltungen zwischen Mensch und Maschine unterstützen, um ein Programm zu befähigen, passende Rückfragen bei unverständlichen oder uneindeutigen Aussagen stellen zu können. Damit kommen die Anbieter der Vision einer natürlichen und andauernden Konversation zwischen zwei derzeit häufig noch ungleichen Partnern ein Stück näher.

 

Weitere drängende Fragen im Zusammenhang mit BERT gerne per Mail an uns. Wir versuchen diese, dann nach und nach zu beantworten.

 

Autor: Nicolai Helling, Senior SEO Consultant / Resolution Media (Omnicom Media Group), 31. Oktober 2019, letztes Update: 11. November 2019

Abbildung / Lizenzhinweis: “Bert” by chrisinphilly5448, Flickr is licensed under CC BY-SA 2.0