5.4. Nutzen für die Suchmaschinenoptimierung

keine Übungen · ca. 12 Minuten

Start > Online-Kurs > 5. Technische Grenzen & Ausblick > 5.4. Nutzen für die Suchmaschinenoptimierung

Welchen Wert hat technische SEO?


Als technische Suchmaschinenoptimierung (SEO) werden die Maßnahmen der On-Page-Optimierung definiert, die Anpassungen und Verbesserungen auf einer Website vorsehen, die nicht rein inhaltlich sind. Während sich viele Aspekte der SEO, wie Keyword-Recherche und Content-Optimierung, darauf konzentrieren, für die Besucher sichtbare Verbesserungen zu schaffen, spielt die technische SEO eher im Hintergrund eine Rolle. Aber auch ihre Auswirkungen werden unmittelbar erlebbar. Beispiele sind mobil optimierte Seiten und schnelle Ladezeiten.

In den vergangenen Jahren hat Google immer wieder betont, welchen Stellenwert die technische Optimierung von Websites für die Sichtbarkeit im Google-Index hat. Nun wird aber immer häufiger in SEO-Kreisen darüber diskutiert, ob technische SEO auch zukünftig eine hohe Bedeutung für die Sichtbarkeit haben wird. Es werden Beispiele mangelhaft optimierter Websites angeführt, die belegen sollen, dass trotz nicht eingehaltener Core Web Vitals und ohne eine funktionierende Mobile-Version dennoch gute Rankings möglich sind.

Das sorgt bei weniger erfahrenen Suchmaschinenoptimierern für Verunsicherung. Haben sich die Ranking-Faktoren tatsächlich so weit verschoben, dass es nicht mehr notwendig ist, seine Website technisch zu optimieren? Du ahnst die Antwort bereits: Es kommt darauf an. Es ist wichtig vorab zu beurteilen, welche Auswirkungen bestimmte Maßnahmen haben können.

Die technische Basis

Eine technisch optimierte Website kann dazu beitragen, dass sie sichtbarer in den Suchergebnissen erscheint. Eine Website, die schneller lädt, gut strukturiert ist und eine hohe Benutzerfreundlichkeit aufweist, hat nach wie vor deutliche Vorteile gegenüber der Website eines Wettbewerbers, die mit diesen Optimierungen nicht punkten kann.

Fakt ist: Eine struktur-optimierte Website ist leichter zu crawlen und zu indexieren. Sind alle internen Verlinkungen richtig gesetzt, werden Canonical-Tags korrekt genutzt und Hreflang-Definitionen vollständig integriert, verstehen Suchmaschinen eine Website und können entsprechend die richtigen Ergebnisse für relevante Suchanfragen liefern.

Eine performance-optimierte Website, die schnell geladen wird und schnell bedienbar ist, wird ebenfalls mit besseren Ranking-Aussichten belohnt. Langsame Ladezeiten können hingegen einen negativen Effekt haben. Googles Benennung der Core Web Vitals, also die Vitalzeichen einer Website, hilft vermutlich beim Verständnis der Relevanz. Vergleichen wir die Website mit einem Patienten: Ein Patient ist entweder gesund oder (in unterschiedlicher Schwere) krank. Sein Gesundheitszustand kann anhand verschiedener Vitalzeichen (Körpertemperatur, Blutdruck, Ruhepuls, Zuckerspiegel usw.) gemessen werden. Liegen alle Vitalzeichen im Normalbereich, wird ein Patient auch dann als gesund bezeichnet, wenn seine Werte im Vergleich zu anderen Patienten ggf. leicht schlechter sind.

Übertragen auf Websites lässt sich dazu festhalten, dass nicht damit zu rechnen ist, dass eine bereits performante Website weiter große Sprünge in der Sichtbarkeit machen wird, wenn an ihr an den bereits guten Core Web Vitals nochmal nachjustiert wird.

Warum gelingt es nun aber auch in Ausnahmefällen Websites mit schlechter Technik-SEO, eine gute Sichtbarkeit zu erreichen? Die Gründe dafür sind in den Stärken dieser spezifischen Websites zu suchen. Technik ist eben bei Weitem nicht alles und die Vielzahl der Ranking-Faktoren bei Google und Bing lassen hin und wieder auch Überraschungen zu, wenn eben sehr gute Ergebnisse in anderen Bereichen erzielt werden. Vielleicht verfügt die Domain über ein ungewöhnlich starkes Backlink-Profil? Existiert die Domain schon sehr lang und werden Autoren und Inhalte als extrem vertrauenswürdig von Google eingestuft? Gibt es einen klaren Themenfokus mit außergewöhnlich guten und hochwertigen Inhalten?

Abwägungen von Aufwand und Nutzen

Du kannst technische SEO-Arbeiten als die Basis guter Suchmaschinenoptimierung ansehen. Es gibt Fehler und Probleme, die so schwerwiegend sind, dass sie sämtliche anderen Sichtbarkeitsbemühungen untergraben. Wenn beispielsweise Seiten in der robots.txt vom Crawling ausgeschlossen werden oder in einer unfertigen Sitemap fehlen, no-index-Anweisungen für relevante Inhalte gesetzt sind oder falsche Canonical-Angaben auftauchen, sind das schwerwiegende Fehler, die das Crawling und/oder die Indexierung verhindern. Wenn Du Probleme dieser Art mit dem SEO Spider für eine von Dir betreute Website feststellst und dadurch relevante Seiten nicht im Google-Index erscheinen, solltest Du handeln.

Anders sieht es aus, wenn durch diese Fehler Inhalte betroffen sind, die für Dich keine hohe Priorität haben. Dann kann es gerade für komplexere Websites richtig sein, Aufwand und Nutzen gegeneinander abzuwägen. Das gilt vor allem auch für weniger schwerwiegende Technikfehler, die Du durch ein SEO-Audit feststellen konntest. Gibt es eine Reihe von 404-Fehlern, die nur mit sehr großem Aufwand auf Entwicklerseite zu entfernen wären, machen diese Arbeiten unter Umständen aus SEO-Sicht keinen Sinn, weil dadurch keine signifikante Verbesserung der Sichtbarkeit erreicht wird.

Vielleicht sprechen aber durchaus andere Argumente dafür, auch kleinere Technikfehler letztendlich zu beheben.

Mehr als nur SEO

Spätestens durch die Veröffentlichung des Yandex-Quellcodes haben SEO-Experten Gewissheit darüber, dass zumindest Yandex auch die User Experience (Verweildauer, Seiten pro Session, Absprungraten, Kaufabschlüsse etc.) einer Website als Ranking-Kriterien berücksichtigt. Um es vorsichtig zu formulieren: Bei anderen großen Suchmaschinen könnte das ähnlich aussehen. Aus SEO-Sicht macht es also auch Sinn, etwas über den eigentlichen Tellerrand zu schauen und zu prüfen, wie sich Besucher auf der Website bewegen. Wer von Suchergebnis auf eine Website springt und direkt zum Suchergebnis zurückkehrt, hat entweder nicht bekommen, was gewünscht war oder technische Barrieren haben die Nutzung verhindert. In jedem Fall ein klares Signal, dass die Zielseite in diesem konkreten Fall nicht hilfreich war.

Kleinere Auffälligkeiten haben nicht immer die höchste Priorität im Rahmen technischer SEO-Arbeiten. Sie gewinnen aber nochmal an Bedeutung, wenn wir uns bewusst machen, dass sämtliche Optimierungen eben nicht für die Suchmaschinen, sondern auch für die Besucher passieren. Während in der Vergangenheit mitunter hitzige Debatten zwischen Usability- und SEO-Experten entbrannten, welcher Lösungsansatz für eine Website wertvoller sein könnte, ziehen beide zumindest in Hinblick auf technische Optimierungen an einem Strang.

Inhaltlich kann das anders aussehen. Gute SEO-Texte sind nicht zwangsläufig gut für die Besucher – und damit für die Conversion-Rate. Auch die Empfehlungen, die der SEO Spider zu Title-Tags und Meta-Beschreibungen ausgibt, sind nicht user-zentriert gedacht, sondern gründen auf den empfohlenen Zeichenlängen (alternativ auch Pixeln) von Google. Es bleibt daher im Einzelfall immer eine Abwägungsfrage, wie weit man SEO-Empfehlungen folgen mag, wie viel Sichtbarkeitspotenzial damit verbunden ist und welche möglichen Auswirkungen das auf die tatsächlichen Besucher einer Website hat.

Weitere Informationen
missing link – Yandex Code Leak

Letzte Aktualisierung: 11.05.2023

Du möchtest weiterlesen?

Du kannst Dich kostenlos registrieren und anschließend auf alle Inhalte im Online-Kurs zugreifen.
Du hast schon einen Account? Dann melde Dich an.

[ultimatemember form_id=“261″]