Content-Pruning wie ein Profi: Schwache Inhalte mit Screaming Frog und API-Daten aufspüren und optimieren

In der Welt der Suchmaschinenoptimierung ist mehr nicht immer besser. Eine Website mit tausenden von Seiten mag beeindruckend klingen, aber wenn ein Großteil dieser Seiten veraltet ist, kaum Traffic generiert oder thematisch irrelevant ist, kann das Ihrer gesamten Domain schaden. Google bevorzugt Qualität vor Quantität. Hier kommt das Content-Pruning ins Spiel – ein strategischer Prozess, bei dem leistungsschwache Inhalte identifiziert und entweder verbessert, zusammengelegt oder entfernt werden.

Als Ihre SEO-Experten bei DIXENO wissen wir, dass Content-Pruning eine der effektivsten, aber auch heikelsten Aufgaben ist. Die Angst, durch das Löschen von Seiten wertvollen Traffic zu verlieren, ist groß. Deshalb setzen wir auf einen rein datengesteuerten Ansatz, der Risiken minimiert und den Erfolg maximiert. Unser wichtigstes Werkzeug dafür: der Screaming Frog SEO Spider in Kombination mit verschiedenen APIs.

Screaming Frog pruning

In diesem Artikel zeigen wir Ihnen unseren praxiserprobten „Hack“, wie wir Content-Pruning für unsere Kunden skalierbar und nachvollziehbar umsetzen.

Warum ein datengesteuerter Ansatz entscheidend ist

Manuelle Content-Audits sind bei großen Websites nicht nur extrem zeitaufwendig, sondern auch subjektiv. Was ein Redakteur als „wertvoll“ erachtet, kann aus SEO-Sicht längst veraltet sein. Ein datengesteuerter Ansatz hingegen eliminiert das Rätselraten.

„Der größte Schrecken für SEOs bei groß angelegtem Content-Pruning ist der Traffic-Verlust nach dem Prozess. […] In solchen Situationen kann nur ein datengesteuerter Ansatz helfen.“

— Screaming Frog Blog

Wir verlassen uns nicht auf Bauchgefühl, sondern auf harte Fakten. Durch die Anbindung von Google Analytics 4 (GA4), der Google Search Console (GSC) und Ahrefs direkt an den Screaming Frog Crawler erhalten wir ein umfassendes Bild jeder einzelnen URL.

Schritt 1: Die Datenernte – APIs in Screaming Frog anzapfen

Der erste Schritt ist die Konfiguration des Screaming Frog SEO Spiders. Wir wollen Daten aus drei wichtigen Quellen sammeln:

  1. Google Search Console (GSC): Liefert uns Klicks, Impressionen, Klickrate (CTR) und die durchschnittliche Position.
  2. Google Analytics 4 (GA4): Zeigt uns das Nutzerverhalten auf der Seite, z.B. aktive Nutzer, neue Nutzer und die durchschnittliche Sitzungsdauer.
  3. Ahrefs: Gibt uns Einblicke in das Backlink-Profil einer URL (URL Rating, verweisende Domains).

Die Einrichtung ist denkbar einfach. Unter Configuration > API Access verbinden wir Screaming Frog mit den jeweiligen Konten. Wichtig ist, dass wir für GSC und GA4 einen identischen und ausreichend langen Zeitraum auswählen – idealerweise mindestens 12 Monate, um saisonale Schwankungen zu berücksichtigen.

Abbildung 1: Verbindung der Google Analytics, Google Search Console und Ahrefs APIs in Screaming Frog.

Anschließend crawlen wir die gesamte Website (oder eine Liste von URLs im „List Mode“) und exportieren die gesammelten Daten aus den Reitern „Google Analytics“, „Google Search Console“ und „External APIs“.

Schritt 2: Die Analyse – Scoring-Modell für klare Entscheidungen

Jetzt haben wir eine riesige Datenmenge. Um diese handhabbar zu machen, nutzen wir ein Scoring-Modell, das jeder URL eine klare Bewertung zuweist. Wir haben dafür drei Kern-Scores definiert:

Score Formel Zweck
GSC Score (Klicks pro Tag × Impressionen pro Tag) ÷ Ø Position Misst die Sichtbarkeit und das Engagement in den Suchergebnissen.
GA Score [Neue Nutzer/Tag × Seiten/Sitzung × (Ø Sitzungsdauer × 24)] ÷ Absprungrate Bewertet die Qualität des Traffics und das Nutzer-Engagement auf der Seite.
BL Score ½ × [(UR ÷ max(URs)) + (RD ÷ max(RDs))] Misst die relative Autorität der Seite basierend auf ihrem Backlink-Profil.

Tabelle 1: Scoring-Metriken zur Bewertung von Inhalten.

Zusätzlich zu diesen Scores setzen wir „Flags“, um bestimmte Seitentypen schnell zu identifizieren:

  • Outdated: Das Änderungsdatum der Seite ist älter als ein Jahr.
  • Underperforming: Die Seite rankt auf Position 20 oder schlechter und hat eine CTR von unter 1%.
  • Opportunity: Die Seite rankt bereits sehr gut (Position < 3), hat aber eine unterdurchschnittliche CTR.

Schritt 3: Die Umsetzung – Fünf klare Handlungsanweisungen

Basierend auf den Scores und Flags leiten wir fünf konkrete Aktionen ab. So stellen wir sicher, dass jede URL die richtige Behandlung erfährt.

Aktion Kriterien Empfohlene Maßnahme
PRUNE 0 tägliche Klicks UND ≤1 aktive Nutzer/Tag Entfernen (410) oder 301-Redirect auf thematisch passende Seite
UPDATE <5K Impressionen/Tag, Position <4, CTR ≤1% Inhaltliche Überarbeitung, Snippet-Optimierung
CHECK >5K Impressionen, Position <3, CTR unter Benchmark Manuelle Prüfung: Meta-Daten, Rich-Snippet-Konkurrenz
IMPROVE >5K Impressionen, Position 3-10 Interne Verlinkung, inhaltliche Ergänzungen, Backlink-Aufbau
KEEP Keine der obigen Kategorien Keine sofortige Aktion erforderlich

Tabelle 2: Handlungsanweisungen basierend auf dem Scoring-Modell.

Best Practices: Was wir aus hunderten Projekten gelernt haben

Aus unserer Erfahrung mit Content-Pruning-Projekten haben wir einige wichtige Lektionen gelernt:

  • Mindestens 12 Monate Daten verwenden: Nur so erfassen Sie saisonale Inhalte korrekt. Ein Weihnachtsratgeber hat im Juli natürlich wenig Traffic.
  • Neue Inhalte ausschließen: Seiten, die in den letzten 30-45 Tagen veröffentlicht wurden, brauchen Zeit, um Rankings aufzubauen.
  • Interne Links nicht vergessen: Wenn Sie eine Seite löschen, entfernen Sie auch alle internen Links zu dieser Seite. Sonst verschwenden Sie Crawl-Budget.
  • Monitoring ist Pflicht: Beobachten Sie die behaltenen Seiten 1-2 Monate nach dem Pruning genau.
  • Visualisierung für Stakeholder: Ein Looker Studio Dashboard überzeugt Entscheider besser als eine Excel-Tabelle.

Ihr Weg zu einer schlankeren, stärkeren Website

Content-Pruning ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Indem wir uns auf Daten aus Screaming Frog und den wichtigsten SEO-APIs stützen, verwandeln wir eine potenziell riskante Aufgabe in eine strategische Chance.

Dieser datengesteuerte Ansatz ermöglicht es uns bei DIXENO, für unsere Kunden nicht nur die SEO-Performance zu verbessern, sondern auch eine klare, nachvollziehbare Grundlage für alle Entscheidungen zu schaffen. Das überzeugt nicht nur uns, sondern auch die Stakeholder.

Sind Sie bereit, das ungenutzte Potenzial Ihrer Website zu heben und sich von leistungsschwachen Inhalten zu trennen? Kontaktieren Sie uns noch heute für eine unverbindliche Analyse!

Matthias Eggert
Geschäftsführer DIXENO GmbH