Und da ist BERT, das neue Update von Google – „Bidirectional Encoder Representations from Transformers“. Es ist das wichtigste Update seit fünf Jahren und wir wohl 10% aller Suchanfragen betreffen. Mit dem Update will Google menschliche Sprache besser verstehen.
Mit BERT wird Google komplette Sätze als Sucheingaben verstehen, dies wird relevante Auswirkungen auf die Long Tail Suchanfragen haben. BERT analysiert hierbei die Beziehungen der Wörter untereinander und berücksichtig erstmals Präpositionen wie „für“ oder „nach“. Es ist zu vermuten, dass besonders der Bereich Voice Search von dem Update profitiert. Mündliche Anfragen werden ja oft als ganze Sätze formuliert. Somit kann der neue Algorithmus helfen, diese komplexeren Suchanfragen zu verstehen.
Welche Auswirkungen BERT auf die SEO und SEA Strategie hat, ist noch nicht anzusehen. Aber auf jeden Fall gilt immer mehr:
Content verständlich und relevant zu formulieren.
Auf Schachtelsätze verzichten.
Kurzum auf Sprachdurchfall zu vermeiden.
Das Update wird zunächst in den USA ausgerollt und danach folgen Deutschland und weitere Länder.