Google hat ein neues, großes Update angekündigt. Und weil Google so etwas nur sehr selten – und schon gar nicht mit so viel Vorlauf – macht, wird eines klar: Es muss verdammt wichtig sein.
Web Vital Metriken: das neue A und O für Pagespeed
Bereits im Frühjahr 2020 wurde das Page Experience Update für 2021 erstmalig angekündigt. Jetzt wurde es konkreter: Das große Update rund um die Google Web Vitals wird im Mai 2021 ausgerollt. Die lange Vorbereitungszeit gilt es nun für Webseiten-Betreiber und Entwickler zu nutzen, um sich mit den neuen Metriken anzufreunden. Denn spätestens ab Mai 2021 wird der neue Ranking-Faktor schlechte Performance mit entsprechenden Sichtbarkeitsverlusten quittieren.
Zu den zentralen Bereichen rund um das Update gehören Mobilfreundlichkeit, Safe Browsing, HTTPS, der Verzicht auf störende Interstitials sowie die neue Messung von Ladezeiten. Für deren Ermittlung werden in Zukunft ausschließlich die neuen Google Core Web Vitals zählen. Deswegen stellen wir heute die 3 neuen Metriken der Google Core Web Vitals im Detail vor und zeigen auf, was es zu beachten gibt, um keine Rankings zu verlieren.

User Experience (UX) wird zum neuen Ranking Faktor
Die Basis guter Rankings ist und bleibt auch weiterhin guter Content. Dazu gesellte sich seit geraumer Zeit die Anforderung von Mobile Friendliness und gutem PageSpeed. Mit den Core Web Vitals und den dazugehörigen neuen Metriken LCP, FIC und CLS macht Google klar, welche Disziplin nun auch noch stark auf die Rankings von Webseiten einfließen wird: Die User Experience (UX).
Google wies schon in der Vergangenheit immer wieder darauf hin, dass die Page Experience – oder auch UX – mitentscheidend dafür ist, ob den Besuchern eine Seite gefällt. Um das nachzuvollziehen, muss man kein Experte sein. Werden Inhalte auf dem Smartphone beispielsweise nicht responsiv und damit viel zu klein dargestellt, verabschieden sich viele Nutzer. Ähnlich sieht es aus, wenn mehrere Sekunden vergehen, ehe der Seitenaufbau so weit abgeschlossen ist, dass Nutzer etwas mit der Seite anfangen können.
UX als Webdisziplin ist aber mehr als nur Geschwindigkeit und Mobiloptimierung. Auch das Layout und die Interaktivität spielen für die Nutzererfahrung eine große Rolle. Das bedeutet, dass wir diese Disziplin besser verstehen müssen, um auf die neuen Ranking-Metriken reagieren zu können. Doch um dieses Verständnis aufzubauen, betrachten wird zuerst, wie Google derzeit die Nutzererfahrung einer Seite einstuft.
Googles bisherige Metriken: ungenau und kompliziert
Der Suchgigant aus Kalifornien entwickelte detaillierte Scores für das initiale Laden von Inhalten, das Laden von relevantem Content und die lnteraktionsfähigkeit von Webseiten. Bisher ließen sich die Metriken in folgende Bereiche einteilen:
Wie schnell wird Content geladen?
Time to First Byte
First Paint
First Contentful Paint
Ist der Content relevant oder sinnvoll?
First Meaningful Paint
Speed Index
Visually Complete
Ist der Content interaktiv?
Time to Interactive
Total Blocking Time
Läuft die Interaktion flüssig?
Frame Rate
Oft gab es allerdings Probleme genau zu erklären, was sich hinter gewissen Metriken verbirgt. Besonders der First Meaningful Paint war stets schwer nachzuverfolgen und durch Schwankungen im Rendering stark beeinflussbar. Diesen Metrik-Problemen soll mit den neuen Core Web Vitals ein Ende gesetzt werden. Doch was genau verbirgt sich hinter ihnen?
Erste neue Metrik: Largest Contentful Paint (LCP)
Dieser neue Wert löst den eher nebulösen Begriff des First Meaningful Paint (FMP) ab. Dieser war im mittleren Ladeprozess angesetzt, unterlag häufig starken Schwankungen und war daher kaum zu optimieren.
Google hat daher nach einer neuen Metrik gesucht, die neben dem First Contentful Paint und der Time to Interactive messbar macht, was in diesem Zeitabschnitt passiert. Und so kommt nun der LCP ins Spiel.
Was ist der Largest Contentful Paint?
Der Largest Contentful Paint (LCP) bezeichnet die Dauer für das Rendering des größten sichtbaren Elements im Viewport.
Mit Contentful spielt Google auf Bilder, Videos und Texte an. Dabei werden alle Bilder, egal ob im Vordergrund oder im Hintergrund geladen mit einbezogen. Genauso eingeschlossen sind Videos, deren Vorschaubilder und jegliche Arten von Text.
Das größte (largest) Element wird anhand der Größe und Breite ermittelt, allerdings wird dabei Margin, Padding und Border nicht beachtet. Für verkleinerte Bilder wird der kleinere Wert, für vergrößerte Bilder ebenso der kleinere Wert und für Bilder, die nur teilweise im Viewport sichtbar sind, wird der sichtbare Teil berechnet.
Die Dauer des Renderings wird dabei für Texte anders berechnet als für Bilder und Videos. Für Textelemente gilt hier das Zeichnen der ersten Schrift. Auch, wenn später Schriften nachgeladen werden und den Text erneut zeichnen.
Bei Bildern und Videos kommt es darauf an, woher diese geladen werden. Entstammen Bilder und Videos der gleichen Herkunft, so wird die Zeit der Zeichnung des Bildes oder des Videos nach dem Onload-Event zur Berechnung herangezogen. Bei unterschiedlicher Herkunft gilt der sogenannte Timing-Allow-Origin-Header. Wenn dieser nicht verfügbar ist, läuft es wie bei gleicher Herkunft der Elemente ab.
LCP-Ladezeiten bis 2,5 Sekunden sind OK
Jedes geladene Element wird kontinuierlich neu gewertet. Sobald ein User aber mit der Seite interagiert, also z.B. klickt, wird die Bewertung des LCP gestoppt. Der Stopp nach dem Klicken oder Scrollen ist nötig, weil nur der erste Eindruck innerhalb der User Experience gewertet werden soll. Elemente, die auf dynamischen Webseiten aus dem Document Object Model (DOM) der HTML- bzw. XML-Dokumente entfernt werden, fließen nicht mit in die Messung ein. Unklar ist aber derzeit noch, was beispielsweise mit Elementen innerhalb eines Karussells verfahren wird.
Nach Angaben von Google besteht für Seitenbetreiber Handlungsbedarf, sollten die Ladezeiten des LCP über 4 Sekunden liegen. LCP-Werte bis um die 2,5 Sekunden hingegen sind angemessen und können als Richtwert angesehen werden. Wichtig ist, dass Google sich aktuell auf Studienwerte beruft, die zeigen, wann Nutzer Seiten verlassen bzw. keine weiteren Interaktionen durchführen.
Zweite neue Metrik: First Input Delay (FID)
Im Mittelpunkt moderner Webseiten steht vor allem eines: die Interaktion der Nutzer mit der Seite selbst. Daher will Google nicht nur die Ladezeit einer Seite, sondern auch deren Interaktionsfähigkeit messen. Genau diesen Eigenschaften widmen sich die beiden anderen neuen Metriken. Kümmern wir uns aber zunächst um den First Input Delay (FID), denn dieser widmet sich einem gängigen Problem, das viele Nutzer regelmäßig dazu bringt, Webseiten schleunigst wieder zu verlassen.
Man glaubt, per Klick oder Push eine Interaktion auszuführen, aber die Seite reagiert einfach nicht. Dieses Verhalten beeinträchtigt die Nutzererfahrung immens. Eigentlich sollte alles, was ins Sichtfeld rückt, intuitiv die Customer Journey vorantreiben und kein Hindernis darstellen. Mit dem FID versucht Google den Eindruck zu erfassen, der einem User in dieser initialen Phase der Page Experience entsteht.
FID-Werte unter 100ms sind gut
Google selbst gibt an, dass Werte unter 100ms positiv gewertet werden. Um diese zu erreichen, dürfe die Auswertung aber nicht verzerrt werden. Daher empfiehlt Google:
„While choice of percentile for all Core Web Vitals thresholds is the 75th, for FID in particular we still strongly recommend looking at the 95th-99th percentiles, as those will correspond to the particularly bad first experiences users are having with your site. And it will show you the areas that need the most improvement.“
Dritte neue Metrik: Cumulative Layout Shift (CLS)
Eine negative Page Experience entsteht für viele User auch dann, wenn sich Elemente einer Webseite im Verlauf des Ladeprozesses verschieben. Während ein Button in einem Augenblick noch an der einen Position ist, springt er im nächsten an eine andere. Das Ergebnis ist, dass Nutzer auf nicht gewollte Seiten gelangen, oder unfreiwillig auf Werbebanner klicken. Aus Nutzerperspektive eine unglaublich frustrierende Erfahrung, die sich oft auch stark negativ auf die Wahrnehmung einer gesamten Domain oder Brand auswirkt.
Gerade auf mobilen Endgeräten ist dieses Problem weit verbreitet. Bedingt durch die unterschiedlichen Displaygrößen und nachgeladene Inhalte kommt es oft zu unerwarteten Verschiebungen auf der Webseite. Genau diesem Problem soll der Cumulative Layout Shift (CLS) als Metrik entgegenwirken.
Was genau macht den CLS aus?
Der Cumulative Layout Shift (CLS) ist eine Metrik, welche die Layout-Stabilität einer Webseite bewertet. Dabei werden ausschließlich die Layout-Bewegungen gemessen, die für den Nutzer unerwartet ablaufen.
Um solche Bewegungen messbar zu machen, werden verschiedene Teile innerhalb des Viewports in Beziehung zueinander gesetzt und anhand dessen ein sogenannter Layout Shift Score berechnet. Interessant für Entwickler ist die Tatsache, dass es bei CSS-Bilder-Karussellen zu wiederholten Verschiebungen im Layout kommen kann. Dadurch erhöht sich der CLS deutlich. Solange ein Karussell aber mit den Transform-Animationen implementiert wird, sollte sich – laut Google – der CLS-Wert nicht aufblähen. Außerdem soll Interaktion via Input – also beispielsweise durch einen Klick, der durch Ausklappen weitere Informationen lädt – mit einem Zeitfenster von 0,5 Sekunden erlaubt werden.
Messwerte für Pagespeed in Lighthouse 6.0 deutlich niedriger
Seit einiger Zeit gibt es die Lighthouse-Version 6.0, in der die neuen Metriken bereits integriert sind. Beim Vergleich mit Lighthouse 5.0 fallen die für Pagespeed relevanten Web Vital Metriken aber häufig anders, meist deutlich schlechter aus. Doch wie bereits erwähnt, basieren die Werte auf simulierten Laborwerten. Echte Felddaten führen so oft zu ganz anderen, meist niedrigeren Werten. Trotz allem dienen sie einem wichtigen Ziel: Für Website-Betreiber, Entwickler und SEOs sollen Schwachstellen nachvollziehbarer gemacht und eine verlässlichere Bewertung und Vergleichbarkeit zwischen Wettbewerberseiten ermöglicht werden.
Tools zum Prüfen der Core Web Vital Metriken
Die neue Version ermöglicht das Messen von LCP und CLS direkt im Chrome Browser. Der FID fehlt hingegen, da Lighthouse nur simuliert und ja kein echter, aktiver Input vom User selber kommt. Daher muss hier der Wert Total Blocking Time als Lab-Wert herhalten.
Hier wurde ein neuer Tab eingeführt, der die 3 Metriken für das verknüpfte Projekt ausgibt. Allerdings sind diese Werte in der GSC relativ oberflächlich und dienen nur einer ersten groben Orientierung.
Die Möglichkeit, gleich mehrere Werte per JSON für eine Vielzahl an URLs auf einmal automatisiert zu analysieren, bietet der alte Bekannte webpagetest.org an.
Mit den von Google bereitgestelltem Test-Tool lassen sich die Werte ebenso bestens auswerten. Für Pagespeed-Analysen bei TOWA nutzen unsere Entwickler ebenfalls dieses Tool, um Optimierungspotentiale zu identifizieren. Die anonymisierten Daten werden übrigens aus dem Chrome User Experience Report (CrUX) gezogen und sind auch jene, die – in verallgemeinerter Form – auch in der Google Search Console ausgespielt werden.
Screaming Frog SEO Spider(Link)
Mit dem etablierten SEO-Tool lassen sich die Werte für jede einzelne URL einer Webseite relativ einfach abholen. Bedingung ist lediglich ein gültiger API-Key zu Googles Pagespeed Insights API. Unter dem Menüpunkt „Lighthouse Metrics“ können dann LCP, FID und CLS abgefragt werden. Der Screaming Frog gibt nicht nur Laborwerte aus Google PageSpeed Insights aus, sondern gibt echte Nutzerdaten aus dem Chrome User Experience Report zurück.
Selbstverständlich werden darüber hinaus auch noch komplexere Abfrage-Methoden über Skripte und APIs angeboten, die in Googles Web-Dev Forum zu finden sind. Für schnelle Abfragen von Einzelseiten eignet sich darüber hinaus auch noch die Chrome Browser-Erweiterung Web Vital-Extension.

Tipps zur Optimierung
Die aktuellen Werte für den CLS und den LCP betrachtet man am besten mit den Chrome-Developer-Tools. Den CLS kann man über „More Tools“ –>“Rendering“ –> „Layout Shift Box“ sichtbar machen. Wenn die Checkbox angehakt ist, werden Änderungen des Layouts angezeigt.
Um nach der Analyse an die eigentliche Optimierung zu gehen, bietet es sich an, Googles bereitgestellte Info-Seiten aus dem Web-Developer-Forum heranzuziehen:
Ausblick
Für Webseiten-Betreiber, SEOs und Entwickler sollten diese neuen Metriken zentrale KPIs darstellen, und deren Werte regelmäßig geprüft werden. Denn wenn eine Domain viele URLs aufweist, die für eine der drei Metriken im negativen Bereich liegt, besteht dringender Handlungsbedarf. Es bleibt spannend und abzuwarten, wie sich die Ranking-Verluste oder Zugewinne ab Mai 2021 in der Realität abzeichnen. Es ist schwierig hier Prognosen abzugeben. Allerdings sollte man die Werte seiner direkten Konkurrenten und des Wettbewerberumfelds im Auge behalten, um eine Benchmark abschätzen zu können.
Keine Sorge, wir schaffen das.
Senden Sie mir eine E-Mail und ich melde mich bei Ihnen!