4.4. Google Looker Studio
1 Übung · ca. 10 Minuten
Daten sammeln, visualisieren und teilen
Google Looker Studio (bis Oktober 2022 Google Data Studio genannt) ist eine webbasierte Datenvisualisierungsplattform, die von Google kostenlos zur Verfügung gestellt wird. Looker Studio bietet eine Reihe an Verknüpfungen, um Daten aus verschiedenen Quellen auszulesen, miteinander zu verbinden und zu visualisieren.
Das Tool ermöglicht es, Berichte und Dashboards zu erstellen, die einfach zu verstehen und zu interpretieren sind. Es verfügt über eine Vielzahl von Funktionen, einschließlich Drag-and-Drop-Visualisierungstools, automatischer Datenaufbereitung und -modellierung sowie leistungsstarken Abfrage- und Analysefunktionen. Ein weiterer Vorteil: Looker Studio Reports können mit anderen Google-Usern geteilt und gemeinsam bearbeitet werden.
Die Plattform stellt dabei selbst keine Daten zur Verfügung, sondern erreicht ihren Anwendungszweck erst über die Anbindung externer Dienste (sogenannte Konnektoren – engl. Connectors), die dann Informationen zur Verfügung stellen. Datenquellen können dabei andere Google-Dienste wie Google Analytics, Google Ads oder die Google Search Console sein. Es können aber auch eigene Anbindungen umgesetzt oder bestehende Anbindungen von Drittanbietern genutzt werden. So stellt beispielsweise auch Sistrix einen eigenen Connector zur Verfügung, der es Kunden der Sistrix Toolbox erlaubt, ausgewählte Daten im Looker Studio zu verwenden.

Template für einen Search Console-Report in Looker Studio
Weitere Informationen
Google – Looker Studio
missing link – Datenvisualisierungen mit Googles Looker Studio
Sistrix – Google Looker Studio Connector
Automatisierte Crawl Reports im Google Looker Studio
Crawl-Daten im Google Drive speichern
Im Modul 3 hast Du in der Sektion 3.3. Automatisierte & geplante Crawls gelernt, dass es möglich ist, den SEO Spider so einzurichten, dass er zu bestimmten Zeiten und in bestimmten Intervallen eigenständig einen Crawl startet. Wenn Du die Ergebnisse dieser Crawls in einem verknüpften Google Drive ablegst, kannst Du auf diese Daten über das Google Looker Studio zugreifen und daraus Visualisierungen erstellen.

In Deinem Google Drive wird dazu ein Google Sheet angelegt und bei jedem Crawl aktualisiert und um eine neue Zeile ergänzt.

Ausschnitt aus einem fortlaufend aktualisiertem Google Sheet mit Crawl-Daten des SEO Spiders
Wichtig: Jeder geplanter Crawl wird beim Anlegen im SEO Spider mit einem eindeutigen Namen versehen. Dieser Name bestimmt auch den Namen des automatisch angelegten Sheets. Wenn Du den Namen der Aufgabe im SEO Spider später einmal änderst, wird beim nächsten Crawl eine neue Datei mit diesem Namen im Google Drive abgelegt. Die Daten werden also nicht in der ursprünglichen Datei fortgeschrieben.
Export für Google Looker Studio anpassen
Erst wenn Du für eine neue Aufgabe im Tab Export erfolgreich ein Google Drive hinterlegt hast, kannst Du die letzte Option auf dieser Konfigurationsseite auswählen: Export für Data Studio: Übersicht über benutzte Crawls. Ein Klick auf Konfigurieren gibt Dir die Möglichkeit, in der nachfolgend dargestellten Liste die Metriken zu wählen, die Du an diesen Export übergeben möchtest. Die Reihenfolge der Metriken, die Du in den Bereich Ausgewählt verschiebst, spiegeln später die Reihenfolge der Spalten im Google Sheet wider.

Wichtig: Es werden die Übersichtsdaten eines Crawls exportiert und nicht die Detaildaten für jede einzelne URL.
Ein Template für Looker Studio: Der Crawl Overview Report
Sobald Du Deinen automatisierten Crawl geplant und die notwendigen Exporteinstellungen getroffen hast, kannst Du Dich darum kümmern, wie die Du die Daten aus dem SEO Spider im Google Looker Studio visualisieren willst. Der einfachste Weg dafür ist die Verwendung des frei verfügbaren Templates von Screaming Frog für einen mehrseitigen Crawl Overview Report, der inzwischen in vielen Sprachen vorliegt.

Startseite des englischen Crawl Overview Reports
Aus diesen Seiten (Bereichen) setzt sich das Template zusammen:
- Überblick
Übersicht verschiedener Metriken zum allgemeinen Zustand der Website. - Antwortcodes
Die Anzahl verschiedener Antwortcodes (inkl. blockierter URLs). - URL-Typen
Die Anzahl interner HTML-, CSS-, Bild- und JS-Dateien (und weitere). - Indexierbarkeit
Die Entwicklung der Anzahl indexierbarer und nicht indexierbarer URLs. - Seitenstruktur
Veränderungen der internen Seitenstruktur anhand der Anzahl eingehender, interner Links. - Auf der Seite
Veränderungen in den Metadaten oder Überschriften der Website. - Inhaltliche Probleme
Erkennen Sie Änderungen am Seiteninhalt, doppelte Seitenzahlen oder Rechtschreibprobleme. - PageSpeed
Verfolgung der Core Web Vitals inkl. Visualisierung der Optimierungsmöglichkeiten. - Strukturierte Daten
Überwachung von Validierungsproblemen und der Verwendung strukturierter Daten auf der gesamten Website. - Sicherheit
Analyse erkennbarer Sicherheitsprobleme (beispielsweise unsichere HTTP-Nutzung / Mixed Content). - Hreflang
Darstellung von Problemen bei der Validierung von Hreflang. - Sitemaps
Identifizierung von Sitemap-Validierungsfehlern, verwaisten URLs und URLs, die nicht in Sitemaps enthalten sind. - JavaScript
Analyse der JavaScript-Nutzung und ihrer Auswirkungen auf Metadaten, Content und interne Verlinkung. - URL-Inspektion
Daten der Google URL-Inspection-API (erfordert die korrekte Anbindung der Google Search Console im SEO Spider, API-Limit beachten).
Weitere Informationen
Screaming Frog – Crawl Overview Report Template (englisch)
Screaming Frog – Crawling-Zusammenfassungsbericht Template (deutsch)
Übung zur Anbindung des Google Looker Studios
Du möchtest weiterlesen?
Du kannst Dich kostenlos registrieren und anschließend auf alle Inhalte im Online-Kurs zugreifen.
Du hast schon einen Account? Dann melde Dich an.
[ultimatemember form_id=“261″]