Was ist BERT?
BERT ist eine Abkürzung für den schrecklichen Satz „Bidirektionale Encoder-Darstellungen von Transformatoren“. Es ist Googles Methode zur Vorbereitung auf die Verarbeitung natürlicher Sprache. Einfach ausgedrückt ist BERT eine Form der Anwendung künstlicher Intelligenz. Es befasst sich mit der Verarbeitung natürlicher Sprache – dem Versuch, Computern beizubringen, natürlichsprachliche Informationen richtig zu verstehen und zu verarbeiten.
Welche Relevanz hat das BERT Update für Google?
Laut Google werden ca. 15% aller täglichen Suchanfragen zum ersten Mal durchgeführt. Zudem ähneln die Suchanfragen immer mehr der realen menschlichen Kommunikation – auch aufgrund technischer Entwicklungen wie der Sprachsuche. Der Statistikdienst Comscore erwartet, dass die Sprachsuche innerhalb von zwei Jahren 50% ausmachen wird. Zudem werden die Umfragen immer länger – 70% der Umfragen sind bereits jetzt dem Langschwanzbereich zuzuordnen. Die Menschen wollen, dass Google ihnen in Sekundenbruchteilen die genauesten Antworten auf ganze Fragenkomplexe gibt – und BERT hat inzwischen einen wesentlichen Teil der Technologie dahinter.
Deshalb arbeitet Google seit vielen Jahren an neuronalen Netzen, die in der Lage sind, komplexe Suchanfragen noch besser zu verstehen.
Welche Suchanfragen sind von BERT betroffen?
Das BERT betrifft vor allem komplexere langatmige Suchanfragen, d.h. längere Suchanfragen, die aus mehreren Stichworten bestehen. Genauer gesagt geht es vor allem um die bessere Auswertung von Präpositionen. SEO-Experte Sven Deutschländer sagt: „Hey Google, wie viel kostet ein Flug von Berlin nach Rom“ wird in Zukunft von der Suchmaschine besser beantwortet, denn durch das Verständnis der Wörter „von“ und „nach“ wird klar, dass genau dies die Richtung des Fluges ist. In der Vergangenheit war ein solches Verständnis von Suchanfragen nicht möglich“.
Die Vorher-Nachher-Beispiele, die Google in seinen Aussagen präsentiert, zeigen deutlich, warum dies ein so wichtiger Schritt nach vorne ist.