Dieser Vortrag ist kostenlos für dich!

Darius Erdt, Jan-Peter Ruhso, SEOkomm 2021

»Google Indexmanagement Extreme«

Darius und Jan-Peter zeigen, wie du mit Indexmanagement Google dazu bringst, wichtige Seiten zu indexieren und Müll-URLs zu entfernen – mit klaren Signalen, sauberer Architektur sowie Tools aus der Search Console und der Indexing API.

Darius Erdt

Darius ist seit 2010 als Online-Marketer aktiv und hat seitdem verschiedene Führungspositionen inhouse und in Agenturen bekleidet. Seine größte Leidenschaft besteht darin, Prozesse und Rahmenbedingungen zu schaffen, damit Menschen aufblühen und Erfolg planbar wird. In den letzten Jahren lag sein fachlicher Schwerpunkt vor allem im Bereich SEO, weshalb er oft als Speaker auf der SEOkomm u.a. SEO-Konferenzen anzutreffen war. Nun folgt sein erster Auftritt auf der OMX mit seinem neuen Leidenschaftsthema: Leadership.

Jan-Peter Ruhso

Jan-Peter Ruhso absolvierte gleich mehrere Studiengänge und hat u.a. einen Master in Online Media Marketing. Als SEO-Manager arbeitete er in (Führungs-)Positionen wie z.B. bei Peek & Cloppenburg Düsseldorf, FASHION ID, Planet Sports München, Allgemeine Bausparkasse, A1 und vielen mehr. Seit 2016 ist Jan-Peter selbstständig unter dem Namen eCom VIKINGS (SEO Beratung für E-Commerce) und seit 2018 Founder der SEO-Spezialsoftware crawlOPTIMIZER (SEO Logfile Analysen). Sein Know-how zeigt er auch als Lehrbeauftragter für E-Commerce SEO an der Werbeakademie Wien im „Diplomlehrgang E-Commerce“.

Inhalt

Vortrags-Abstract: Google Indexmanagement & Deindexierung

Im Kern geht es um ein Problem, das viele bei großen Websites kennen: Wichtige, neue Seiten werden nicht zuverlässig indexiert – während Google gleichzeitig irrelevante oder unerwünschte URLs im Index behält. Darius und Jan-Peter zeigen, warum Indexmanagement mehr ist als „SEO-Fleißarbeit“: Es beeinflusst die wahrgenommene Website-Qualität, den Ressourceneinsatz beim Crawling und damit indirekt auch Sichtbarkeit und Business-Impact. Leitgedanke: Fokus auf die „Cash Cows“ und konsequentes Aufräumen – denn effiziente URL-Nutzung ist ein Qualitätshebel.

Indexierung verstehen: Status, Prüfung und Ursachen

  • Drei Zustände: indexiert, nicht indexiert, partiell indexiert (z. B. durch Mobile-First, fehlerhaftes JavaScript, Layout-/Qualitätsprobleme).
  • Prüfmethoden: Site-Abfragen (ggf. mit Textfragment), URL-Prüfung in der Search Console (Crawl-/Index-/Cache-Datum), sowie Cache:-Abfrage (nicht jede Seite wird gecacht, nur Raw-HTML).
  • Grundfaktoren: Technik + Qualität. Beide entscheiden, ob Inhalte überhaupt im Index landen.

Wie Google verarbeitet: Vom Crawling bis zum Index

Jan-Peter skizziert den Prozess in „extrem“: Nach dem Crawling übernimmt Googles Indexing-System die Verarbeitung. Dabei passieren u. a. Konvertierung (z. B. PDF zu HTML), Normalisierung, sowie ein wichtiges Error-Page-Handling (Soft-404-Erkennung trotz 200-Status). Danach werden Meta-Signale (noindex, Canonical, strukturierte Daten) extrahiert, Inhalte per Rendering im Web Rendering Service interpretiert und Signale wie Duplicate Content, Sprache/Land und SafeSearch berücksichtigt. Kernaussage: Crawling ist Voraussetzung – garantiert aber kein Ranking.

Indexierung steuern: Signale & Effizienz

  • Strategie vor Taktik: Nur Seiten mit „Daseinsberechtigung“ in den SERPs fördern; klare Informationsarchitektur und kurze Klicktiefe.
  • Monitoring: Crawl-Statistiken in der Search Console oder Logfile-Analyse (Googlebot filtern).
  • Steuerungshebel: robots.txt (Crawling), noindex für Index-Steuerung; Canonical nur als „Kann“-Signal.
  • Hygiene fürs Crawl-Budget: Serverfehler, Soft-404, Redirect-Ketten, Parameter-/Facet-URLs, Thin-/Duplicate-Content reduzieren; entfernte Inhalte klar per 404/410 kennzeichnen.
  • Indexierungsanstöße: XML-Sitemaps (Lastmod, nur Ziel-URLs, pingbar), interne Verlinkung (prominent, sprechende Ankertexte), URL-Prüfung/„Indexierung beantragen“.
  • Rendering absichern: Kritische Inhalte früh im Raw-HTML bereitstellen; Tools wie „View Rendered Source“ helfen beim Vergleich Raw vs. gerendert.

Deindexierung in der Praxis: typische Google-Phänomene

Darius zeigt, warum „einfach noindex setzen“ oft nicht reicht: Google muss die URL erneut crawlen, bekommt aber bei ausgelisteten Produkten oder entfernten Links oft keine Signale mehr. Weitere Fälle: URLs im Index trotz Nicht-200 (z. B. 301-Weiterleitungen), alte HTTP-Varianten trotz HTTPS, oder Domainumzüge mit überraschenden Snippets. Auch Canonical wird teils ignoriert, und selbst robots.txt-gesperrte URLs können im Index auftauchen (häufig ohne Traffic, aber als Qualitätswarnsignal).

Wenn Standardmittel nicht reichen: Tools zum Aufräumen

  • „URL entfernen“ in der Search Console: blendet URLs (auch per Präfix) für mindestens 6 Monate aus – wichtig: Protokoll/WWW-Varianten werden zusammen betrachtet; Ursachen müssen trotzdem behoben werden.
  • „Entfernen veralteter Inhalte“: stößt Recrawl an und kann echte Deindexierung bewirken, gedacht für stark veränderte/entfernte Inhalte.
  • Google Indexing API als Notlösung: offiziell für Jobs/Livestreams, in Tests aber sehr wirksam zum Forcieren von Crawls/Indexierung – inklusive schneller Reaktionen nach Push.

Takeaways

  • Cash-Cow-Fokus + klare Signale schlagen Aktionismus.
  • Crawling, Rendering und Indexierung sind eng verwoben: Fehler dort führen zu (Teil-)Nichtindexierung.
  • Indexmanagement ist Hygiene: selten der „Wachstums-Hebel“, aber Grundlage für Stabilität, Qualität und effiziente Ressourcennutzung.
  • Monitoring & Alerts helfen, Index-Probleme früh zu erkennen und gezielt zu beheben.

Was sind die Online Expert Days?

Die Online Expert Days vereinen, was schon immer zusammengehört: die OMX und die SEOkomm. Die Fachkonferenzen für Online Marketing und Suchmaschinenoptimierung am 26. & 27.11.2026 im Herzen von Salzburg.
Gleich Ticket sichern!

Weitere kostenlose Videos von den Online Expert Days