OXID eShop mit Screaming Frog crawlen: Der komplette Leitfaden für technisches SEO
Als E-Commerce-Agentur mit tiefgreifender OXID-Expertise sehe ich bei DIXENO immer wieder dasselbe Bild: Ein Shop sieht im Frontend fantastisch aus, doch unter der Haube – dort, wo Google crawlt und indexiert – schlummern ungenutzte Potenziale oder gar kritische Bremsklötze. Während Shopify-Betreiber oft mit starren Systemgrenzen kämpfen, bietet OXID eSales eine enorme Flexibilität. Genau diese Freiheit erfordert jedoch eine präzise technische Überwachung, denn jede Konfigurationsentscheidung hat direkte Auswirkungen auf die Sichtbarkeit in Suchmaschinen.
Hier kommt der Screaming Frog SEO Spider ins Spiel. Er ist nicht einfach nur ein Crawling-Tool, sondern das wichtigste Diagnoseinstrument, um die technische Gesundheit eines OXID-Shops vollständig zu durchleuchten. In diesem Beitrag zeige ich dir Schritt für Schritt, wie du Screaming Frog speziell für OXID eShop konfigurierst, welche typischen OXID-Fallen du damit aufspürst und wie du wertvolles Crawl-Budget rettest. Der Artikel richtet sich an OXID-Shop-Betreiber, Inhouse-SEOs und Agenturen, die das Maximum aus ihrem technischen Setup herausholen wollen.
Warum OXID eShop und Screaming Frog zusammengehören
OXID eShop generiert standardmäßig sogenannte „sprechende URLs“ und bietet damit eine solide SEO-Basis. Das System erzeugt automatisch lesbare URL-Pfade aus Kategorie- und Artikelnamen, löst Sonderzeichen und Umlaute auf und trennt Wörter mit Bindestrichen. Im Backend unter den Stammdaten in den Grundeinstellungen lassen sich Title-Präfixe, Title-Suffixe und Meta-Descriptions individuell konfigurieren.
Die Herausforderungen im E-Commerce-Alltag entstehen jedoch an ganz anderen Stellen: Facetten-Navigationen erzeugen tausende Parameter-URLs, komplexe Varianten-Strukturen mit Vater- und Kindartikeln vervielfachen den Content, und die Mehrsprachigkeit mit übersetzten Kategorie-Pfaden sorgt für Hreflang-Chaos. Wenn sich Googlebot in diesen endlosen URL-Varianten verfängt, leidet die Indexierung der wirklich umsatzstarken Produktseiten.
Mit Screaming Frog kann ich genau simulieren, wie Suchmaschinen den OXID-Shop wahrnehmen. Ich decke Duplicate Content auf, prüfe die Hreflang-Implementierung, validiere Strukturierte Daten und identifiziere Crawl-Budget-Verschwendung – alles automatisiert und in großem Maßstab. Das Ergebnis ist eine datengetriebene Grundlage für gezielte Optimierungen, die sich direkt in besseren Rankings und mehr organischem Traffic niederschlagen.
Vor dem Start: Grundeinstellungen in Screaming Frog
Bevor du auf Start klickst, solltest du den Crawler an die spezifischen Eigenheiten von OXID anpassen. Ein unkonfigurierter Crawl eines großen OXID-Shops füllt dir sonst schnell den Arbeitsspeicher und liefert irrelevante Daten.
OXID-Shops mit mehreren tausend Produkten, Kategorien und CMS-Seiten können leicht 50.000 oder mehr URLs umfassen. Standardmäßig speichert Screaming Frog alle Crawl-Daten im Arbeitsspeicher, was bei großen Shops schnell an Grenzen stößt. Wechsle daher in den Einstellungen auf den Database Storage Mode. Der Crawl wird dadurch etwas langsamer, aber du kannst auch Shops mit hunderttausenden URLs problemlos analysieren, ohne dass der Prozess abstürzt.
OXID-Shops laufen auf eigener Infrastruktur. Anders als bei SaaS-Plattformen hast du hier volle Kontrolle über den Server – aber auch die Verantwortung, ihn nicht zu überlasten. Ich empfehle für den Anfang maximal drei parallele Threads und eine Verzögerung von 200 Millisekunden zwischen den Requests. Wenn dein Server gut dimensioniert ist, kannst du die Werte schrittweise erhöhen. Beobachte dabei die Server-Response-Zeiten im Crawl – steigen sie deutlich an, drosselst du wieder.
Die OXID-spezifische Screaming Frog Konfiguration
OXID nutzt verschiedene URL-Parameter, die für das Crawling irrelevant oder sogar schädlich sind. Besonders berüchtigt ist der force_sid Parameter, der angehängt wird, wenn der Shop die Session-ID in der URL erzwingt. Auch Such-, Filter- und Sortierparameter fressen Crawl-Budget, ohne Mehrwert zu liefern. Du solltest in der Konfiguration unter Exclude entsprechende Regex-Regeln hinzufügen, um diese Parameter auszuschließen. Dazu gehören Session-IDs, interne Suchseiten, der Kundenbereich, der Warenkorb, Registrierungsseiten, Passwort-vergessen-Seiten, Newsletter-Seiten sowie Warenkorb- und Vergleichslisten-Funktionen.
Zusätzlich solltest du die Funktion zum Entfernen von Parametern nutzen. Trage hier Parameter wie listorderby, listorder, pgNr, cur, lang, searchparam, searchcnid sowie etwaige Tracking-Parameter wie utm_source, utm_medium und utm_campaign ein. Screaming Frog entfernt diese vor dem Crawlen und konsolidiert die URLs, sodass du ein sauberes Bild der tatsächlichen Seitenstruktur erhältst.
Eine der wertvollsten Funktionen in Screaming Frog ist die Segmentierung. Damit kannst du die gecrawlten URLs nach Seitentypen gruppieren und gezielt analysieren. Für OXID-Shops empfehle ich Segmente für Produktseiten, Kategorieseiten, CMS-Seiten, Herstellerseiten und paginierte Seiten. Die genauen Regex-Muster hängen von deiner individuellen URL-Struktur ab. In OXID folgen Produkt-URLs typischerweise einem Muster, das auf .html endet, während Kategorien als Verzeichnisse ohne Dateiendung dargestellt werden.
Die älteren OXID-Themes Azure und Wave liefern ihre Kerninhalte serverseitig aus und kommen in der Regel ohne JavaScript-Rendering aus. Wenn du jedoch das neuere Apex Theme nutzt oder stark auf asynchron nachgeladene Inhalte setzt – etwa Lazy Loading bei Produktbildern, dynamische Preisaktualisierungen oder AJAX-basierte Filternavigationen – solltest du das JavaScript-Rendering aktivieren. Bedenke jedoch, dass dies den Crawl deutlich verlangsamt und mehr Ressourcen benötigt. Mein Tipp: Führe zunächst einen Crawl im reinen Textmodus durch und vergleiche die Ergebnisse stichprobenartig mit dem JavaScript-Rendering. Wenn die Inhalte identisch sind, sparst du dir den Mehraufwand.
OXID liefert in älteren Versionen strukturierte Daten im RDFa-Format über das GoodRelations-Vokabular aus. Im neueren Apex Theme habe ich festgestellt, dass weder JSON-LD noch RDFa standardmäßig implementiert sind – lediglich Open Graph Tags werden ausgegeben. Für Rich Snippets in Google ist das nicht ausreichend. Viele OXID-Shops setzen daher auf Zusatzmodule von Drittanbietern, um das von Google bevorzugte JSON-LD-Format für Schema.org/Product zu implementieren. Um den Status deines Shops zu prüfen, aktiviere die entsprechenden Extraktionsoptionen für JSON-LD, Microdata, RDFa sowie die Validierung für Schema.org und Google Rich Results. Nach dem Crawl kannst du genau sehen, welches Format auf welchen Seiten verwendet wird, ob Preise, Verfügbarkeiten und Bewertungen korrekt ausgezeichnet sind und ob Validierungsfehler oder -warnungen vorliegen.
Typische OXID-SEO-Baustellen aufspüren
Sobald der Crawl abgeschlossen ist, geht es an die Analyse. OXID ermöglicht die Erstellung multidimensionaler Varianten – ein Produkt kann in verschiedenen Farben, Größen oder Materialien angeboten werden. Im System wird zwischen dem Vaterartikel und den Kindartikeln unterschieden. Das Problem entsteht, wenn sowohl der Vaterartikel als auch die einzelnen Kindartikel über eigene, indexierbare URLs erreichbar sind und dabei denselben oder nahezu identischen Text sowie dieselben Bilder verwenden. Das Ergebnis ist massiver Duplicate Content, der die Ranking-Signale verwässert.
Im Screaming Frog prüfst du dies über die Canonical-Tags. OXID setzt diese automatisch und verweist dabei auf die Produktdetailseite mit der Hauptkategorie in der URL. Nutze die entsprechenden Filter, um zu verstehen, wie dein Shop die Canonical-Logik umsetzt. Wenn Kindartikel eigenständige URLs haben, aber keinen eigenständigen Suchwert bieten, solltest du entweder das Canonical-Tag auf den Vaterartikel setzen oder die Kindartikel per Meta-Robots auf noindex stellen.
OXID ist traditionell stark im internationalen E-Commerce vertreten. Die Mehrsprachigkeit wird über Sprachpräfixe in der URL oder über unterschiedliche Domains beziehungsweise Subdomains gelöst. Das System gibt korrekte Hreflang-Tags inklusive x-default aus. Allerdings werden dabei die Kategorie-Namen übersetzt, was eine saubere bidirektionale Verknüpfung erfordert. Im Screaming Frog siehst du sofort, ob die Return Links korrekt funktionieren – also ob die deutsche Version auf die englische verweist und umgekehrt. Häufige Fehler bei OXID sind fehlende Hreflang-Tags auf einzelnen Seiten, inkonsistente x-default-Verweise oder Hreflang-Tags, die auf nicht-kanonische URLs zeigen. Screaming Frog zeigt dir diese Inkonsistenzen schonungslos auf.
Im Gegensatz zu vielen anderen Shop-Systemen hat OXID eShop keinen dynamischen XML-Sitemap-Generator im Standard. Das bedeutet: Ohne Zusatzmodul existiert keine Sitemap, und in der robots.txt fehlt die Sitemap-Referenz. Für Shops mit tausenden Produkten ist das ein gravierendes Problem, da Google ohne Sitemap deutlich länger braucht, um alle relevanten Seiten zu entdecken und zu indexieren. Die Lösung liegt in entsprechenden Modulen. Sobald eine Sitemap existiert, crawlst du sie in Screaming Frog separat. Prüfe anschließend, ob die Sitemap URLs enthält, die im regulären Crawl als nicht indexierbar markiert sind – etwa durch 404-Fehler, Redirects oder Noindex-Tags. Eine saubere Sitemap sollte ausschließlich URLs mit Status Code 200 und dem Status indexierbar enthalten.
Die Standard-robots.txt von OXID ist erfreulich umfangreich und schließt bereits viele irrelevante Bereiche aus: das Admin-Backend, Core-Dateien, temporäre Verzeichnisse, den Warenkorb, Kundenkonten, die interne Suche und Session-Parameter. Allerdings fehlt die Sitemap-Referenz. Außerdem werden die Disallow-Regeln für jede Sprachversion separat aufgeführt, was bei vielen Sprachen schnell unübersichtlich wird. In Screaming Frog prüfst du die robots.txt-Konformität und siehst, welche URLs blockiert werden und ob wichtige Seiten versehentlich ausgeschlossen sind. Besonders bei OXID-Shops, die nach einem Relaunch neue URL-Strukturen verwenden, passiert es häufig, dass alte Disallow-Regeln noch aktiv sind und neue Seiten blockieren.
Standardmäßig verwendet OXID den Bildnamen als Alt-Attribut, was aus SEO-Sicht suboptimal ist. Ein Dateiname sagt weder Google noch einem Screenreader etwas über den Bildinhalt. Eigene Alternativtexte lassen sich in OXID oft nur über Zusatzmodule pflegen. In Screaming Frog wendest du den Filter für fehlende Alt-Texte an. Exportiere die Liste und priorisiere die Bilder nach Seitentyp: Produktbilder auf Detailseiten haben die höchste Priorität, gefolgt von Kategoriebildern und CMS-Inhalten. Bilder ohne Alt-Text verschenken nicht nur Potenzial in der Google Bildersuche, sondern beeinträchtigen auch die Barrierefreiheit deines Shops.
OXID bietet mit Cross-Selling-Funktionen und Hersteller-Übersichten gute Möglichkeiten zur internen Verlinkung. Allerdings sehe ich häufig, dass wichtige Produktseiten eine Crawl-Tiefe von fünf oder mehr Klicks aufweisen – zu tief für eine effiziente Indexierung. Screaming Frog visualisiert die Seitenarchitektur. Damit erkennst du auf einen Blick, welche Bereiche deines Shops zu tief verschachtelt sind. Idealerweise sollte jede wichtige Produktseite innerhalb von maximal drei Klicks von der Startseite erreichbar sein.
Custom Extraction: OXID-spezifische Daten auslesen
Eine der mächtigsten Funktionen von Screaming Frog ist die Custom Extraction. Damit kannst du mittels XPath oder Regex gezielt Informationen aus dem HTML-Quelltext deines OXID-Shops ziehen, die über die Standard-Crawl-Daten hinausgehen. Du kannst beispielsweise die Produktnummer auslesen, um sie mit deiner Warenwirtschaft abzugleichen. Den Verfügbarkeitsstatus kannst du extrahieren, um Out-of-Stock-Produkte zu identifizieren. Auch der Produktpreis lässt sich extrahieren, um Preisfehler im Frontend aufzudecken. Die Anzahl der Bewertungen hilft dir, Produkte mit vielen Reviews zu priorisieren. Die Breadcrumb-Tiefe lässt sich messen, um die Navigationstiefe zu bewerten. Ebenso kannst du die Anzahl der Produkte pro Kategorie ermitteln, um Kategorien mit wenig Inhalt zu finden. Die genauen XPath-Ausdrücke hängen von deinem verwendeten Theme und individuellen Template-Anpassungen ab.
Neben der Custom Extraction bietet Screaming Frog auch eine Custom Search-Funktion. Damit durchsuchst du den HTML-Quellcode aller gecrawlten Seiten nach bestimmten Zeichenketten. Für OXID-Shops ist es besonders aufschlussreich, nach Texten zu suchen, die auf nicht verfügbare Produkte hinweisen, oder nach Seiten, die Session-IDs im HTML ausgeben. Auch das Aufspüren aller Seiten mit einer Noindex-Direktive oder das Finden von Platzhaltertexten, die noch nicht ersetzt wurden, ist sehr hilfreich. Ebenso kannst du Standard-OXID-Inhalte identifizieren, die angepasst werden sollten.
API-Integrationen: Daten anreichern
Screaming Frog wird noch mächtiger, wenn du externe Datenquellen anbindest. Die Google Search Console Integration ermöglicht es, Impressionen, Klicks, Klickraten und die durchschnittliche Position direkt den gecrawlten URLs zuzuordnen. So erkennst du auf einen Blick, welche Seiten zwar technisch sauber sind, aber trotzdem keine Sichtbarkeit haben – oder umgekehrt, welche Seiten trotz technischer Probleme gut ranken.
Die Google Analytics 4 Integration reichert die Crawl-Daten um Traffic- und Umsatzdaten an. Damit kannst du priorisieren: Eine Produktseite mit hohem Umsatz und einem fehlenden Canonical-Tag hat eine höhere Dringlichkeit als eine Seite ohne Traffic.
Die PageSpeed Insights Integration liefert Core Web Vitals für jede gecrawlte URL. Gerade bei OXID-Shops, die auf eigener Infrastruktur laufen, sind Performance-Probleme häufig und direkt beeinflussbar.
Reporting und laufendes Management
Ein einmaliger Crawl ist gut, ein regelmäßiger Audit ist besser. Screaming Frog bietet hierfür mehrere Funktionen, die den Workflow erheblich vereinfachen. Speichere deine OXID-spezifische Konfiguration als Profil. So musst du die Einstellungen nicht bei jedem Crawl neu vornehmen und stellst sicher, dass die Ergebnisse vergleichbar bleiben.
Mit der Scheduling-Funktion kannst du automatische Crawls einrichten, die wöchentlich oder monatlich laufen. Die Ergebnisse werden automatisch gespeichert und können per E-Mail-Benachrichtigung gemeldet werden.
Du kannst auch zwei Crawls desselben Shops gegenüberstellen. Das ist besonders nach OXID-Updates, Theme-Wechseln oder größeren Content-Änderungen unverzichtbar. Du siehst sofort, ob neue 404-Fehler entstanden sind, ob sich die Anzahl indexierbarer Seiten verändert hat oder ob Canonical-Tags verloren gegangen sind.
Technische Kontrolle als Wachstumshebel
OXID eSales ist ein leistungsstarkes und performantes Shop-System, das dank seiner Architektur mit flachen Hierarchien eine gute Grundlage für schnelle Ladezeiten bietet. Doch gerade weil es so flexibel und modular aufgebaut ist, können sich technische SEO-Fehler einschleichen, die das Crawl-Budget belasten, Duplicate Content erzeugen und Rankings verhindern.
Der Screaming Frog SEO Spider ist das perfekte Werkzeug, um diese Fehler systematisch aufzudecken. Mit der richtigen Konfiguration – angepasst an die Besonderheiten von OXID wie Session-Parameter, Varianten-URLs, übersetzte Kategoriepfade und fehlende Standard-Sitemaps – erhältst du ein vollständiges Bild der technischen Gesundheit deines Shops. Die Custom Extraction und die API-Integrationen liefern darüber hinaus Business-relevante Daten, die weit über einen reinen SEO-Check hinausgehen.
Ein regelmäßiger technischer Audit gehört zur Pflichtaufgabe jedes ambitionierten OXID-Shop-Betreibers. Wenn du die Konfiguration richtig vornimmst, Parameter bändigst und die Custom Extraction clever nutzt, erhältst du tiefgreifende Insights, die direkt in Umsatzwachstum resultieren können.
Du brauchst Unterstützung bei der Analyse deines OXID-Shops oder bei der Behebung der gefundenen Fehler? Als erfahrene E-Commerce-Agentur stehen wir dir bei DIXENO gerne mit Rat und Tat zur Seite. Lass uns gemeinsam dein technisches SEO aufs nächste Level heben.
FAQ: Häufig gestellte Fragen
Brauche ich die kostenpflichtige Version von Screaming Frog für einen OXID-Audit?
Die kostenlose Version crawlt bis zu 500 URLs und bietet die grundlegenden Funktionen. Für einen vollständigen OXID-Shop-Audit empfehle ich jedoch die Lizenzversion, da sie unlimitiertes Crawling, Custom Extraction, Scheduling, API-Integrationen und den Database Storage Mode umfasst.
Wie oft sollte ich meinen OXID-Shop crawlen?
Für aktive Shops mit regelmäßigen Sortimentsänderungen empfehle ich einen wöchentlichen Crawl. Mindestens jedoch nach jedem OXID-Update, Theme-Wechsel oder größeren Content-Import. Die Scheduling-Funktion automatisiert diesen Prozess.
Kann Screaming Frog auch die Performance meines OXID-Shops messen?
Ja, über die PageSpeed Insights API-Integration werden Core Web Vitals für jede gecrawlte URL ermittelt. Zusätzlich zeigt Screaming Frog die Server-Response-Zeit direkt im Crawl an.
Mein OXID-Shop nutzt noch das Azure Theme. Gelten die Tipps trotzdem?
Ja, die grundlegende Konfiguration und die meisten Analyse-Schritte gelten für alle OXID-Themes. Die Ausdrücke für die Custom Extraction müssen jedoch an die jeweilige HTML-Struktur des Themes angepasst werden.