SEOkomm 2021 - Unser Rückblick mit Daten & Fakten

Veranstaltungen

Nach 2 Jahren und Corona-bedingter Pause in 2020 war es nun endlich wieder soweit - die SEOkomm, die wohl beste deutschsprachige Konferenz zum Thema „Suchmaschinenoptimierung“ hat im Rahmen der Online Expert Days wieder stattgefunden. Unser SEO-Experte Thomas hat die Konferenz besucht, um sich für unsere Kunden über aktuelle Entwicklungen im Bereich SEO zu informieren und sich mit anderen Experten vor Ort zu konkreten Problemstellungen auszutauschen.

Mit dem Veranstaltungstermin der SEOKomm 2021 haben die Veranstalter, Oliver und Uschi Hauser, eine Punktlandung hingelegt, denn es war der letzte Tag an dem Veranstaltungen dieser Größenordnung in Österreich noch erlaubt waren und bevor das Land Pandemie-bedingt erneut in einen Lockdown ging. Zudem wurde die Konferenz erstmalig auch als Livestream bereitgestellt. Die Freude über das Wiedersehen vor Ort war allen Anwesenden deutlich anzumerken, selten war auf einer Konferenz solch eine Verbundenheit in der Branche zu spüren, was vielleicht auch mit der reduzierten Anzahl an Teilnehmern zu tun hatte. Dafür großen Dank an die Organisatoren, die Konferenz trotz aller Widrigkeiten sowohl vor Ort als auch online stattfinden zu lassen.

Bei der Auswahl der Vorträge orientierte ich mich auch an den Herausforderungen unserer Kunden und deren Projekten, um diese noch erfolgreicher zu machen und als kompetenter Ansprechpartner zur Verfügung zu stehen. Bei 3 parallelen Tracks mit jeweils 9 Vorträgen fiel die Auswahl nicht leicht, letztendlich entschied ich mich für die folgenden Vorträge:

Keynote: „Action Replay: Alles auf Anfang“ - Bastian Grimm

Bastian Grimm von Peakace eröffnete die Konferenz mit seiner Keynote mit dem Titel „Action Replay: Alles auf Anfang“.

Bastian Grimm während der Keynote auf der Bühne der SEOkomm 2021
Bastian Grimm während seiner Keynote auf der SEOkomm 2021

Bastian blickte dabei auf die vergangenen 18 Monate zurück und sprach über das was war und das was - aus seiner Sicht - kommen wird. Themen waren beispielsweise die Vielzahl an Updates oder die Einführung von Continuous Scrolling in der mobilen Suche. Hinter letzterem vermutete Bastian übrigens wettbewerbsrechtliche Gründe bezüglich verschiedener Klagen gegen Google. Ein weiteres spannendes Thema im Kontext von E-A-T waren „Sentence Embeddings“ über die semantische Informationen von Sätzen als Vektoren abgebildet werden mit dem Ziel Kontext, Absicht und weitere Nuancen von Texten besser zu verstehen. BioSentVec ist beispielsweise ein Framework, welches mit mehr als 30 Mio. Texten überwiegend aus dem Gesundheitsbereich trainiert wurde, um die Vertrauenswürdigkeit und Genauigkeit von Texten maschinell besser zu beurteilen. Außerdem sprach er über das von Google angekündigte Multitask Unified Model (MUM), was Google dabei helfen soll, Antworten auf komplexe Suchanfragen zu liefern, sowie über Passage Ranking und Passage Indexing und BERT als Re-Ranker in einer neu implementierten Form, um sehr lange Texte besser zu verstehen und Passage-Ranking-Fähigkeiten zu erlangen.

Weitere Punkte waren beispielsweise „Serverless SEO“ mittels Cloudflare Workers, „Signed Exchanges (SXG)“ und „User-Agent Client Hints“. Zudem sprach er über die automatisierte Erstellung von Texten, die beispielsweise unter Nutzung von GPT-3 auf Plattformen wie Jarvis oder FRASE erstellt werden können und eine erstaunlich hohe Qualität erreichen, wie dieser Text bei „The Guardian“ beweist, der von einer Maschine geschrieben wurde.

Content Wildwuchs vs. Informationsarchitektur - Martin Höllinger

Martin Höllinger zeigt in seinem Vortrag, wie man eine sinnvolle Informationsarchitektur für seine Website aufbaut, in der sich sowohl Menschen als auch Maschinen zurechtfinden.

Martin Höllinger auf der Bühne der SEOkomm 2021
Martin Höllinger während seines Vortrages zu Content Wildwuchs auf der SEOkomm 2021

Die beiden wichtigsten Regeln beim Aufbau einer guten Informationsarchitektur sind aus seiner Sicht:

  1. Ein Thema eine Seite.
  2. Eine Seite eine Thema.

Die grundsätzliche Aussage dieser Regeln ist klar: eigenständige Themen gehören auf eine eigene URL und auf dieser URL sollten auch nur Inhalte zu diesem Thema veröffentlicht werden. Außerdem sprach er über das Konzept, Informationen in sogenannten „Silos“ zu strukturieren.

Zudem helfen eindeutige Linktexte sowohl Menschen als auch Maschinen zu erkennen, welche Inhalte sich hinter dem Link befinden und sind damit Bestandteil einer guten Informationsarchitektur. (Negatives) Praxisbeispiel in diesem Kontext war der sogenannte „Acrobat Reader“-Test bei dem man prüft, welche Webseiten für das Wort „hier“ bei Google prominent ranken. Der Ursprung dieses Tests liegt in dem Fakt, dass die Download-Seite für die kostenlose Software „Acrobat Reader“ überwiegend mit dem Linktext „hier“ verlinkt war. Obwohl auf der verlinkten Seite selbst nicht einmal das Wort „hier“ auftauchte, erschien die Seite auf Position 1 in den Google Suchergebnissen für die Suchanfrage „hier“. Aktuell ranken, der Corona-Pandemie geschuldet, Seiten mit Informationen zu Corona auf den Top-Positionen für diese generische Suchanfrage, die offensichtlich auch häufig mit den Linktext „hier“ verlinkt werden.

In die Hauptnavigation sollten nur wichtige Inhalte aufgenommen werden, die auch für die Suchmaschine relevant und demzufolge auch indexierbar sind. Ganz im Sinne von „Don’t make them think" sollte bei der Hauptnavigation auf gelernte Muster und Konzepte zurückgegriffen werden. Das oft im mobilen Kontext eingesetzte „Burger-Menu“ zählt laut seiner Aussage übrigens nicht dazu.

Eine schlechte Informationsstruktur kann sich laut Martin neben einer schlechten User Experience und einer schlechten Conversion Rate auch in einer hohen „Return to SERPs“-Ratio äußern, was zu Rankingverlusten führen kann.

Zur Identifikation von weiteren relevanten Themen, die auf einer Domain noch nicht hinreichend behandelt werden lautete sein Tipp, in der Google Search Console nach Suchbegriffen mit „aufflackernden“ Rankings recherchieren.

Um sogenannten „Content-Kannibalismus“ zu verhindern, bei dem mehrere URLs einer Domain für den selben Suchbegriff ranken empfahl Martin Höllinger die Erstellung von Content-Plänen, klare Seitenstrukturen und eine unmissverständliche interne Verlinkung.

Wenn trotz aller Bemühungen die falsche Seite für einen Suchbegriff rankt, kann eine Lösung sein, mit dem Suchbegriff von der rankenden Seite auf die Seite zu linken, die statt dessen für den Suchbegriff in den Suchergebnissen erscheinen soll.

Abschließend empfahl Martin das Tool „WriteMaps“ mit dem man Sitemaps erstellen und die Informationsarchitektur einer Website planen kann.

Fazit
Nicht nur aus SEO-Perspektive ist eine gute Informationsarchitektur ein entscheidender Faktor für den Erfolg einer Website und sollte demzufolge im Konzeptionsprozess entsprechend gewichtet werden. Getreu dem Ansatz „Form follow function“ sollten sich dabei gestalterische Aspekte unbedingt den Anforderungen an eine gute Informationsarchitektur unterordnen.

So nutzt du die Google Search Console API wie ein Profi -ohne zu programmieren - Stefan Fischerländer

Stefan Fischerländer auf der Bühne der SEOkomm 2021
Stefan Fischerländer spricht zur GSC API während der SEOkomm 2021

Stefan Fischerländer von Gipfelstolz zeigte in seinem Vortrag, wie man die Google Search Console API auch ohne Programmierkenntnisse nutzt. Die Vorteile einer Datenabfrage über die API liegen in

  • kombinierbaren Dimensionen,
  • dem deutlich höheren Datenlimit von 25.000 Ergebnissen und
  • dem möglichen automatisierten Export und der Speicherung der Daten.

Tools die eine Datenabfrage über die GSC API sind beispielsweise der

und ein von ihm eigenentwickeltes Tool, welches kostenfrei genutzt werden kann.

Als „dunkle Seiten“ der API bezeichnete Stefan unter anderem

  • das Limit von maximal 50.000 Datensätzen pro Tag und Property und
  • das query-spezifische Limit von maximal 5.000 Datensätzen pro Tag

welches aber durch den geschickten Einsatz von Filtern erweitert werden kann. Für eine mögliche Speicherung der über die API abgegriffenen Daten in einem SEO-Data-Warehouse empfahl Stefan, die Daten so umfangreich und granular wie möglich abzugreifen und diese gegebenenfalls im Warehouse mit anderen SEO-relevanten Daten zu kombinieren.

Fazit
Fragt man Daten aus der Google Search Console über die API ab, speichert man diese und kombiniert sie sogar mit anderen Daten erhält man deutlich tiefere Insights über die Probleme und Potentiale von Websites.

Als „darwinistisches Umfeld“ bezeichnete Markus Hövener von Bloofusion in seinem Vortrag die Suchergebnisseiten (SERP) und sah darin die Notwendigkeit, dort möglichst viel Raum einzunehmen und wichtige Botschaften zu kommunizieren. Schließlich würden 83% der Nutzer nach einem Klick auf ein Suchergebnis nicht zur SERP zurückkehren, womit die Chance auf einen zweiten Klick also sehr gering ist.

83% der Nutzer kehren nach einem Klick nicht zur SERP zurück.

Möglichkeiten, besonders viel Platz auf einer SERP zu beanspruchen, liegen in sogenannten „Featured Snippets“ oder „Rich Results“, auf die er in seinem Vortrag näher einging.

Featured Snippets

Sogenannte „Featured Snippets“ werden für ca. 20% aller Suchanfragen als hervorgehobenes Suchergebnis auf Position 1 über den restlichen Suchergebnissen ausgespielt, wenn die Suchanfrage dafür geeignet ist, ein Suchergebnis in Form einer Antwort zu liefern. Typische Suchanfragen sind beispielsweise klassische W-Fragen mit „Was“, „Wie“, „Wer“,„Wo“ oder „Wann“.

Google SERP mit Featured Snippet
Anzeige eines Suchergebnisses als Featured Snippet bei Google

Featured Snippets können in verschiedenen Ausprägungen, nämlich als

  • Text,
  • Liste oder auch als
  • Tabelle

ausgespielt werden. Möchte man also bestimmte Informationen auf einer Seite für Featured Snippets optimieren, sollte die Darstellung der Informationen zum Typ der Informationen passen.

Trotz der hervorgehobenen Darstellung und der damit verbundenen Präsenz in den Suchergebnissen, die ca. 35% der Klicks auf sich zieht, kann die Anzeige der eigenen Seite als Featured Snippet auch Nachteile mit sich bringen. Featured Snippets werden nicht immer geklickt, weil diese oft schon die Antwort für die in die Suchmaschine eingegebene Frage liefern. Zudem präferieren bestimmte Nutzer laut einer Studie von EngineScout reguläre Suchergebnisse und klicken deswegen nicht auf das Featured Snippet oder halten das Featured Snippet sogar für eine Ad.

Möchte man Inhalte optimiert für ein Featured Snippet erstellen, empfiehlt es sich, bereits in der Einleitung des Textes eine Zusammenfassung des Inhaltes zu formulieren, die Google als Inhalt für das Featured Snippet verwenden kann. Zudem ist die Verwendung von strukturierenden Elementen wie beispielsweise Zwischenüberschriften und Bullet Points im Text empfohlen.

Rich Results

Rich Results, also mit zusätzlichen Informationen angereicherte Suchergebnisse, erfordern im Gegensatz zu Featured Snippets fast immer den Einbau von zusätzlichem Markup. Beispiele für dieses Markup sind

  • Event,
  • AggregateRating,
  • FAQPage,
  • JobPosting und
  • Recipe Markup.

Die Herausforderungen beim Einbau von Markup sind laut Markus Hövener eher inhaltlicher statt technischer Natur, denn es gilt beispielsweise zu überlegen, welche Fragen mit FAQMarkup ausgezeichnet werden oder ob beispielsweise Inhalte für alle Attribute des JobPosting-Markup vorliegen.

Die Integration von bestimmtem Markup ermöglicht zudem die Aufnahme in Google Spezialsuchen, zeichnet man beispielsweise Produktseiten mit Product Markup aus, kann das beispielsweise die Anzeige in der Google Produktsuche ermöglichen.

Laut einer Studie von Searchengineland zu FAQ Markup kann die Einbindung von FAQMarkup zudem ein Uplift an Klicks von ca. 50% bedeuten, die Einbindung von AggregateRating ein Uplift an Klicks von 13%.

Die Einbindung von FAQ Markup kann 51% mehr Klicks bedeuten.

Trotzdem ist zu empfehlen die Einbindung von Markup, insbesondere die Einbindung von FAQMarkup, in Bezug auf die Klickrate zu testen - beispielsweise in dem man Kontrollgruppen von Seiten mit Markup ausstattet und diese mit Kontrollgruppen ohne Markup vergleicht.

Ein wirklich hilfreicher Tipp von Markus Hövener war, die Inhalte von FAQMarkup mit weiterführenden Links anzureichern, um so die Nutzer aus den Suchergebnissen auf die eigene Seite zu ziehen.

Fazit:
Die hervorgehobene Darstellung der eigenen Website als Featured Snippet oder Rich Result kann sich positiv auf den Erfolg auswirken, muss es aber nicht zwangsläufig und sollte daher beobachtet werden. Hilfreicher Tipp: FAQ Markup mit relevanten Links zur eigenen Webseite anreichern, um die Nutzer auf die eigene Webseite zu ziehen.

Google Indexmanagement Extreme - Darius Erdt, Jan-Peter Ruhso

Mit Indexmanagement befasste sich der Vortrag von Darius Erdt von Dept und Jan-Peter Ruhso von CrawlOptimizer.

Darius Erdt und Jan-Peter Ruhso auf der Bühne der SEOkomm 2021
Darius Erdt und Jan-Peter Ruhso während ihres Vortrags zum Google Indexmanagement

Die Steuerung der Indexierung hat laut ihrer Aussage einen Business Impact, daher sollte die effiziente Nutzung von URLs besonders bei großen Seiten nicht außer Acht gelassen werden.

Als Möglichkeiten zur Überprüfung der Indexierung nannten die beiden

  • eine site:- bzw. cache:-Abfrage bei Google selbst und die
  • Google Search Console

wobei die Google Search Console natürlich deutlich tiefere Analysen als die beiden erst genannten Möglichkeiten bietet. Wie der Indexierungsprozess bei Google stattfindet, zeigten die beiden in der folgenden komplexen Grafik. Wichtig ist hierbei zu erwähnen, dass dies eine vereinfachte Darstellung des Indexierungsprozesses ist, weil beispielsweise verschiedene Teilprozesse darin parallel ablaufen, was schwierig zu visualisieren ist.

Darstellung des Google Indexierungsprozesses
Vereinfachte Darstellung des Indexierungsprozesses bei Google (Quelle: CrawlOptimizer)

Da „Crawling kein Ranking aber kein Crawling kein Ranking garantiert“ empfahlen die beiden, das Crawling der Website zu überwachen und dazu beispielsweise die Crawling-Statistiken der Google Search Console zu nutzen oder die Logfiles der Webserver zu analysieren.

Crawling-Statistiken in der Google Search Console
Anzeige der Crawling-Statistiken im Einstellungsbereich der Google Search Console

Neben Möglichkeiten, um die Indexierung von Seiten anzustoßen, wie beispielsweise über

  • XML-Sitemaps,
  • die interne Verlinkung oder
  • die Google Search Console

erwähnten die beiden auch typische Phänomene und deren Gründe, die rund um die Indexierung auftreten können. Ein interessanter Tipp, um eine große Anzahl von URLs indexieren oder auch deindexieren zu lassen, war dafür die Google Indexing API zu nutzen unter Einsatz von Tools wie beispielsweise

 

Fazit:
Die Optimierung von Crawling und Indexierung kann entscheidenden Einfluss auf den die Performance einer Domain haben und sollte damit fester Bestandteil eines jeden SEO-Audits sein.

Serverless SEO: Ein Hands-On Guide - Bastian Grimm

Bastian Grimm, Mitgründer und Geschäftsführer von Peakace, ist ehemaliger Entwickler und mittlerweile der wohl bekannteste technische SEO Deutschlands. So war es nicht verwunderlich, dass sich sein zweiter Vortrag auf der SEOkomm 2021 mit der Frage beschäftigte, wie man Webseiten optimieren kann, ohne Zugriff auf das eigentliche System und den Quellcode zu haben.

Bastian Grimm auf der Bühne der SEOkomm 2021
Bastian Grimm spricht zu Serverless SEO

Sogenannte „Cloudflare Worker“ ermöglichen es, die HTTP-Antwort des Servers zu modifizieren und beispielsweise Inhalte zu hinzuzufügen, zu entfernen oder zu modifizieren. Damit sind also beispielsweise dringende Quickfixes möglich, ohne zwangsweise dafür auf IT-Ressourcen zurückgreifen zu müssen. Nachteilig ist hierbei allerdings, dass die spätere Übertragung der Änderungen vom Worker ins Produktivsystem nicht unproblematisch ist.

Typische Anwendungsfälle für den Einsatz von Cloudflare Workern sind

  • Einrichtung von Weiterleitungen ohne zusätzlichen IT-Aufwand,
  • Reverse Proxys,
  • User Agent basierte Dynamic Delivery,
  • Änderungen an robots.txt oder Meta Tags,
  • das Zurückgeben von korrekten Status-Codes oder
  • Caching.

Bastian wies in seinem Vortrag auch auf gewisse Risiken hin, die mit dem Einsatz von Cloudflare Workern verbunden sind und nannte dazu beispielsweise Code-Konfikte oder die Kosten, die ab einem bestimmten Traffic entstehen können. In der abschließenden Fragerunde wies Bastian noch einmal explizit darauf hin, dass Worker aufgrund ihrer Mächtigkeit nur mit entsprechender Expertise eingesetzt werden sollten. Die Frage ob Worker einen Einfluss auf den Pagespeed haben verneinte Bastian, da Worker mit einer Ausführungszeit von unter einer Millisekunde per se „raketenschnell“ sind. Allerdings kann der vom Worker auszuführende Task unter Umständen den Pagespeed negativ beeinflussen. Außerdem ermöglichen Worker die Implementierung von individuellem Caching. Die Frage, ob der Einsatz von Workern datenschutzrechtliche Aspekte berührt, blieb offen.

Fazit:
Über Cloudflare Worker sind Änderungen an Inhalten möglich, ohne Zugriff auf das eigentliche System haben zu müssen und eignen sich daher für Quickfixes oder beispielsweise dafür, um erste Optimierungen vorzunehmen und Entscheidungsträger so von weiteren Implementierungen zu überzeugen.

GSC WOW: Google Search Console richtig nutzen - Nora Taubert

Für Nora Taubert von der Seokratie GmbH war der Vortrag zur Google Search Console ihre Premiere als Speakerin auf der SEOkomm. In ihrem Vortrag gab sie unter anderem Tipps zum Leistungsbereich und zum Bereich „Indexabdeckung“ der Google Search Console sowie zu weiteren Bereichen und zu Tools, mit denen mit die Daten aus der Google Search Console mit anderen Daten kombinieren kann.

Nora Taubert auf der Bühne der SEOkomm 2021
Nora Taubert spricht auf der SEOkomm 2021 zur Google Search Console

Da die Datenbasis der Google Search Console auf 1000 Datensätze pro Property begrenzt ist, empfahl Nora zuerst für ein Projekt möglichst mehrere URL-Präfix-Properties anzulegen, um somit auf mehr Daten zurückgreifen zu können und für den Gesamtüberblick eine Domain-Property anzulegen.

Um Daten über die Google Search Console API aus der GSC auszulesen und sinnvoll miteinander zu kombinieren, empfahl Nora die „SEO-Tools for Excel“.

Ein weiterer hilfreicher Tipp war, oft genutzte gefilterte Ansichten in der GSC über ein Lesezeichen abzulegen und diese so zu speichern.

Nachdem Nora ausführlicher über RegEx-Filter sprach, erklärte sie anschließend, wie man Performanceveränderungen in der GSC richtig interpretiert. Sie wies beispielsweise daraufhin, dass der richtige zeitliche Kontext extrem wichtig ist, um Trafficverluste als saisonal induzierten Abschwung zu erkennen und empfahl daher, sich immer unbedingt die Daten für den in der GSC maximal möglichen Zeitraum von 16 Monaten auch anzuschauen.

Um Probleme zu erkennen und Ursachen zu verstehen empfahl sie, die Performancedaten von URLs oder Suchanfragen mit Vorjahresdaten zu vergleichen und diese nach Klickdifferenz zu sortieren. Zur frühzeitigen Erkennung von Rankingproblemen empfahl Nora automatisierte Reportings mit Hilfe des Google Data Studios anzulegen.

Als nächstes stellte Nora den Bereich „Indexabdeckung“ genauer vor und erläuterte, wie die einzelnen Punkte

  • „Fehler“,
  • „Gültige Seiten mit Warnungen“,
  • „Gültig“,
  • „Ausgeschlossen“

richtig zu interpretieren sind.

Beim Punkt „Ausgeschlossene Seiten“ empfahl Nora zum Beispiel auf das letzte Crawling-Datum zu achten und so zu bewerten, ob das mögliche Problem noch Bestand hat oder mögliche Muster wie beispielsweise immer wieder auftauchende URL-Parameter zu erkennen, die auf ein Problem hinweisen können. Bei Problemen ist es ratsam, mehr Daten zu sammeln und sich die Detailansicht der betroffenen URLs näher anzuschauen.

Der vielleicht wichtigste Hinweis aus ihrem Vortrag lautete, dass SEO nicht darauf abzielt, möglichst viele Seiten in den Index zu bekommen, sondern ausschließlich die richtigen, nämlich diese, die wertvolle Inhalte bieten.

SEO bedeutet nicht viele, sondern die richtigen Seiten indexieren zu lassen.

Ihre Empfehlungen dazu lauteten:

  • URL-Dopplungen aufzulösen und Duplikate zu kanonisieren,
  • dünne und nichtaktuelle Inhalte zu löschen und
  • Seiten, die von der Indexierung ausgeschlossen werden sollen, auf „noindex“ zu setzen.

Außerdem sollte darauf geachtet werden, dass Google Bots hauptsächlich die Seiten crawlen, die relevant und damit für die Indexierung vorgesehen sind und irrelevante Seiten, die in großer Zahl vorhanden sind, vom Crawling auszuschließen. Das sind häufig Seiten die durch filternde oder sortierende Parameter in der URL entstehen. Einblicke in das Verhalten der Crawler liefern Server-Logs oder die Crawling-Statistiken der GSC, die etwas versteckt in den Einstellungen zu finden sind. Abschließend stellte Nora kurz die weiteren Bereiche der Google Search Console vor und empfahl außerdem, die Google Search Console mit den Bing Webmaster Tools zu verknüpfen, um noch mehr Daten zu erhalten.

Fazit:
Wie schon Stefan Fischerländer in seinem Vortrag zeigte: Die Google Search Console liefert wichtige Insights zur Domainperformance. Automatisierte Reportings können dazu beitragen, Potentiale oder mögliche Probleme frühzeitig zu erkennen und darauf zu reagieren.

On-SERP SEO in turbulent times - Izzi Smith

Mit Izzi Smith von Ryte stand auch eine englischsprachige Speakerin bei der SEOkomm 2021 auf der Bühne. Ihr Vortrag drehte sich im Wesentlichen um die SEO-Herausforderungen in einem turbulenten Jahr 2021, die beispielsweise durch eine Vielzahl von Core Updates, dem neuen Rankingfaktor „Core Web Vitals“, dem Überschreiben der Seitentitel durch Google und vielen anderen Änderungen in den SERPs verursacht wurden.

izzi Smith auf der Bühne der SEOkomm 2021
Izzi Smith von Ryte während ihres Vortrages

Izzi sprach darüber, wie man auf diese Veränderungen reagiert und wie man sich auf unerwartete Änderungen vorbereitet. Wichtig dafür ist aus ihrer Sicht ein gutes SEO-Reporting und beispielsweise eine frühzeitige Erkennung von sogenannten „Top-10-Tests“, die Google regelmäßig durchführt. Die Erkennung dieser Tests ist ein neues Feature von Ryte.

Izzi empfahl außerdem zu versuchen, wann immer möglich, das eigene Snippet in den SERPs mit weiteren Daten anzureichern, was beispielsweise über

  • Product Ratings,
  • FAQs,
  • Table snippets,
  • Sprungmarken und
  • Bilder

möglich ist um mehr Klicks zu generieren und die Wahrnehmung der eigene Marke zu stärken.

Damit Google Videoinhalte um sogenannte „Keymoments“ anreichert, empfahl Izzi zum Einen, Schlüsselmomente mit Zeitstempel in der Videobeschreibung aufzulisten und zum Anderen Schema-Markup vom Typ „SeekToAction“ und „Clips“ einzusetzen. Anschließend sprach sie über Google „Web Stories“, die den Nutzern im Suchergebnis in einer Slideshow präsentiert werden und im Gegensatz zu den Social Media Pendants nicht nach einer bestimmten Zeit verschwinden, um somit SEO-Relevanz haben.

Um zu bewerten, welche der vorgestellten Maßnahmen welchen Impact auf die Performance haben, empfahl sie A/B-Tests durchzuführen und stellte konkrete Fallbeispiele vor.

Außerdem sprach sie über Page Experience Signals und wie man sich bestmöglich für zukünftige Google Updates bestmöglich vorbereitet. Dafür ist es laut ihrer Aussage wichtig, Googles wichtigste Prioritäten und Werte im Blick zu behalten und dafür zu sorgen, dass jeder auf Inhalte zugreifen und diese „genießen“ kann.

Abschließend erwähnte sie Googles Initiative, alle Produkte und Datencenter so zu gestalten, dass bis 2030 CO2-frei sind. Diese Initiative bewirbt Google gegenüber der CO2-intensiven Luftfahrtindustrie beispielsweise darüber, dass dort für die einzelnen Flüge angezeigt, wie viel CO2 durch den Flug freigesetzt wird. In diesem Kontext hielt es Izzi für durchaus denkbar, dass der CO2-Footprint einer Website zukünftig in die Rankingberechnung einer Website mit einfließt.

Fazit: Suchmaschinenoptimierung bleibt spannend und es ist wichtig, so gut wie möglich auf neue Entwicklungen von Google vorbereitet zu sein. Ryte ist ein Tool, was dabei unterstützen kann.

E-A-T, SEO zwischen Relevanz und Qualität - Alexander Holl

Bei Alexander Holl von 121 Watt drehte sich alles das Konzept E-A-T, was dieses Konzept bedeutet, für wen es relevant ist und wie man dafür optimieren kann.

Alexander Holl auf der Bühne der SEOkomm 2021
Alexander Holl auf der SEOkomm 2021 während seines Vortrages zu E-A-T

E-A-T ist seit den sogenannten "Medic-Updates" bekannt, die besonders die Sichtbarkeit sogenannter „Your Money Your Life“- Seiten, also Seiten aus dem Gesundheits- und dem Finanzbereich, beeinflusst haben.

E-A-T steht für

  • Expertise“,
  • Authority" und
  • Trustworthiness

und betrachtet demzufolge Faktoren wie die Expertise, Autorität und die Vertrauenswürdigkeit eines Autors bezogen auf ein bestimmtes Fachgebiet. Um diese Punkte besser zu verstehen, stellte er seine Person John Müller von Google und Avinash Kaushik, einem Google Analytics Experten, gegenüber und bewertete anschließend diese Faktoren für jede dieser Personen bezogen auf das Thema „SEO“. Wenig überraschend, dass John Müller von Google in diesem Vergleich am besten abschnitt.

Für wen E-A-T relevant ist, besprach Alexander anschließend und zitierte dazu Branchengrößen wie beispielsweise Lily Ray, die der Meinung ist, dass E-A-T für manche Seiten „nice to have“, für andere Seiten jedoch Anforderung ist und als Beispiel dafür Seiten zum Thema „Häkeln“ Seiten aus dem Gesundheitsbereich gegenüberstellte.

Alexander hingegen betonte in seinem Vortrag, dass aus seiner Sicht alle aus den Konzepten, die hinter E-A-T stehen, lernen können und dass die Art der Inhalte irrelevant sei, denn schließlich seien Expertise, Autorität und Vertrauenswürdigkeit Eigenschaften, die man mit jeder Marke verbinden sollte.

Ob man für E-A-T optimieren kann, besprach Alexander anschließend. Dazu zitierte er die Nielsen Norman Group und identifizierte die zwei großen Themenstellung von Nutzern aus Perspektive der Informationswissenschaft:

  • Ist dies eine wertvolle Quelle?
  • Kann ich hier mein Ziel erreichen?

und gab anschließend 2 Tipps zur E-A-T-Optimierung.

Eine wertvolle Quelle, um Seiten hinsichtlich E-A-T zu optimieren sind laut Alexander die Google Quality Rater Guidelines, die beispielsweise Marie Haynes in diesem Dokument aufgearbeitet hat. Alexander hat daraus einen Fragebogen entwickelt, um eigene und Wettbewerberseiten hinsichtlich dieser Guidelines zu bewerten.

Um gegenüber Google und Nutzern mehr Expertise, Autorität und Vertrauenswürdigkeit auszustrahlen empfahl Alexander außerdem, Hintergrundinformationen zu Autoren z.B. mit Autorenboxen und separaten Autorenseiten zu veröffentlichen und diese zusätzlich mit entsprechendem Schema-Markup auszuzeichnen. Mit sport-tiedje.de,leading-medicine-guide.de oder searchenginejournal.com zeigte er Beispielseiten, auf denen das bereits gut umgesetzt wurde.

Konkrete Tipps, um Autorenprofile zu optimieren lauteten:

  • Möglichst im oberen Bereich der Seite positionieren, um Expertise sofort darzustellen, sofern es sich nicht um eine Ecommerce-Seite handelt.
  • Kurze, relevante Biografie zeigen, Awards, Auszeichnungen und weiterführende Links.
  • Verlinkungen zu Social Media Profilen und Autoren mit ähnlicher Expertise.
  • Relevantes, authentisches Bild, das zu den Erwartungen passt (ein Arzt trägt beispielsweise einen Kittel).
  • Integration von Co-Expertinnen und -Experten.

Abschließend gab Alexander noch einige Tipps, wie man Expertise und Autorität aufbaut und vom Experten zur Autorität wird.

Fazit:
Expertise, Autorität und Vertrauenswürdigkeit sind sowohl für Marken als auch Websites wichtige Eigenschaften. Autorenseiten und Autorenprofile, versehen mit entsprechendem Markup können dabei unterstützen, diese Attribute gegenüber Nutzern und Suchmaschinen zu unterstreichen.

Interne Verlinkungsanalyse like a Pro - Johan von Hülsen

Johan von Hülsen auf der Bühne der SEOkomm 2021
Johan von Hülsen von Wingmen spricht zu interner Verlinkung auf der SEOkomm 2021

Zur internen Verlinkung sprach abschließend Johan von Hülsen von Wingmen. Wichtige Gründe, die für eine optimierte interne Verlinkung sprechen, sind aus seiner Sicht folgende:

  • Interne Links können zu vollständig kontrolliert werden.
  • Mit internen Links werden Inhalte priorisiert.
  • Mit internen Links werden Nutzer geleitet.
  • Mit internen Links wird das Crawling (und damit die Indexierung) gesteuert.
  • Johan zählte dann die Qualitätskriterien von linkgebenden Quellen auf, die wie folgt lauteten:

    1. Indexierbarkeit
    Damit Quellen in die Linkberechnung einfließen, müssen sie indexierbar sein.

    2. Umgebungstext

    3. Linkmenge
    Wie viele Links sind auf der linkgebenden Seite?

    4. Position
    Wo befindet sich der Link auf der Seite?

    5. Gestaltung
    Ist der Link auffällig gestaltet?

    6. Erreichbarkeit
    Ist der Link ohne weiteres Zutun erreichbar?

    7. PageRank

    Ein erster Tipp von Johan zur Optimierung der internen Verlinkung war, über eine site:-Abfrage Seiten zu identifizieren, die bereits für ein Keyword ranken und von dort interne Links auf die Seite einzubauen, die für das entsprechende Keyword ranken soll. Weiterhin empfahl er auf aussagekräftige und stringente Linktexte zu achten. Eine Methode, um die Aussagekraft eines Linktexts zu prüfen ann beispielsweise sein, den den Link umgebenden Text auszublenden und anschließend zu prüfen, ob dann noch festzustellen ist, wohin dieser Link führt. Diese klare Beschreibung hat nicht nur Vorteile für SEO, sondern auch für Accessibility und Usability. Qualitätskriterien auf die Google bei der verlinkten Quelle achtet, sind laut Johan Indexierbarkeit und die thematische Verwandtschaft zur Quelle. Je höher die thematische Verwandtschaft der verlinkten Seiten ist, desto höher ist der Wert des Links für die Suchmaschine und für den Nutzer. Nicht viele Links sind das Ziel, sondern Verlinkungen von möglichst relevanten Quellen, Qualität schlägt in diesem Fall die Quantität.

Qualität schlägt Quantität bei interner Verlinkung.

Um Strukturen für größere Websites zu planen, setzt Johan ein Content-Framework ein, in dem er vorhandene Seitentypen und deren Aufgabe erfasst und den Seiten eine Priorität zuweist.

Anschließend crawlt der diese Seiten mit dem Screaming Frog, um:

  • Links auf Fehlerseiten, Weiterleitungen,
  • Noindex,
  • Robots-gesperrte Seiten,
  • kanonisierte Seiten zu reduzieren,
  • verwaiste Seiten zu verlinken,
  • die Anzahl ausgehender Links zu reduzieren, zu maskieren oder zu steigern,
  • Unterschiede zwischen HTML und DOM zu prüfen und anzugleichen (wenn beispielsweise Links über Javascript nachträglich in den DOM eingefügt werden) und
  • Nofollow-Links zu prüfen und gegebenenfalls zu reduzieren.

Außerdem prüft er

  • ob mehrere Links auf einer Seite auf die selbe Zielseite zeigen und fasst diese zusammen,
  • die Anzahl von ausgehenden Links auf externe Seiten, um diese gegebenenfalls zu reduzieren oder zu steigern,
  • Ankertext-Konkurrenz, also ob mit dem selben Ankertext auf zwei unterschiedliche Seiten verlinkt wird,
  • den internen PageRank bzw. den LinkScore, um auf wichtige Seiten mehr PageRank zu lenken und
  • die Backlinks von Seiten um starke Seiten als Link-Hub zu nutzen.

Um diese Auswertungen per Screaming Frog zu erleichtern, konkrete Probleme zu finden und klar zu benennen, hat Johan hier eine Anleitung und ein Google Colab Script zur Verfügung gestellt. Wie man den internen PageRank korrekt berechnet, demonstrierte Johan anschließend, indem er

  • die Position des Links auf der Seite,
  • die Größe des Links und
  • die thematische Verwandtschaft der verlinkten Seiten
  • mit in die Berechnung einfließen lässt.

Um die interne Verlinkung zu prüfen empfahl Johan zu versuchen, wichtige Unterseiten auf einem mobilen Gerät zu erreichen, ohne dabei die Hauptnavigation, Links im Footer oder die Paginierung zu nutzen. Wenn dieser Pfad auch für einen beliebigen Nutzer nachvollziehbar ist, kann man laut Johan sehr wahrscheinlich von einer sehr guten Informationsarchitektur auszugehen. Um seine Seiten aus Perspektive der internen Verlinkung zu verbessern, sollten Links mit relevantem Linktext auf starken und verwandten Seiten ergänzt werden. Je auffälliger ein Link in Position und Gestaltung ist, je mehr Text er enthält, desto relevanter ist ein Link.

Fazit:
Eine optimierte interne Verlinkung kann die Rankings einer Webseite signifikant beeinflussen, daher sollte diese detailliert geplant werden. Tools wie der Screaming Frog, im Zusammenspiel mit Johans Script, können dafür notwendige Daten liefern.