Technisches SEO bezeichnet alle Maßnahmen, die sicherstellen, dass Suchmaschinen deine Website fehlerfrei crawlen, indexieren und bewerten können. Ohne ein solides technisches Fundament verpuffen selbst die besten Inhalte und stärksten Backlinks wirkungslos. Denn was Google nicht findet, kann Google nicht ranken. Und was Google zwar findet, aber nur mit Mühe verarbeitet, wird gegenüber technisch sauberen Wettbewerbern verlieren.
Wir sehen bei unseren Kunden immer wieder das gleiche Muster: Unternehmen investieren Tausende Euro in Content-Produktion, vernachlässigen aber die technische Infrastruktur. Das ist, als würdest du einen Porsche kaufen und dann Fahrradreifen montieren. Der Motor ist da, aber du kommst nicht vom Fleck.
Was unterscheidet technisches SEO von OnPage- und OffPage-SEO?
Die drei Disziplinen der Suchmaschinenoptimierung greifen ineinander, haben aber unterschiedliche Schwerpunkte. OnPage-Optimierung beschäftigt sich mit Inhalten, Überschriften, Meta-Tags und interner Verlinkung. OffPage-Optimierung dreht sich um externe Signale wie Backlinks und Brand Mentions. Technisches SEO bildet die Schicht darunter: die Infrastruktur, auf der alles andere aufbaut.
Konkret geht es um Fragen wie: Kann der Googlebot alle relevanten Seiten erreichen? Werden Seiten korrekt indexiert? Lädt die Seite schnell genug? Ist die URL-Struktur logisch? Gibt es Duplicate Content? Funktioniert die Website mobil einwandfrei?
Ein praktisches Beispiel: Ein Onlineshop mit 50.000 Produktseiten hatte trotz exzellenter Inhalte und starker Backlinks stagnierende Rankings. Die Ursache war ein fehlerhaftes Faceted-Navigation-Setup, das Google mit Millionen von URL-Varianten flutete. Der Crawl-Budget-Verbrauch explodierte, während wichtige Kategorieseiten kaum noch gecrawlt wurden. Nachdem wir die Faceted Navigation per Canonical Tags und robots.txt bereinigt hatten, stiegen die organischen Sitzungen innerhalb von acht Wochen um 34 Prozent.
Crawling und Crawl-Budget: Wie Google deine Website entdeckt
Bevor Google eine Seite ranken kann, muss der Googlebot sie zuerst finden und auslesen. Dieser Prozess heißt Crawling. Der Bot folgt Links von Seite zu Seite, liest den HTML-Quellcode und speichert die Inhalte zur weiteren Verarbeitung.
Das Problem: Google hat für jede Website ein begrenztes Crawl-Budget. Das ist die Anzahl an Seiten, die der Bot innerhalb eines bestimmten Zeitraums crawlen wird. Für eine kleine Website mit 200 Seiten ist das kein Thema. Für einen Shop mit Hunderttausenden URLs wird Crawl-Budget zum kritischen Engpass.
So optimierst du dein Crawl-Budget:
- robots.txt richtig konfigurieren: Blockiere Seiten, die Google nicht indexieren soll, aber achte darauf, keine wichtigen Ressourcen (CSS, JavaScript) zu sperren. Ein häufiger Fehler: Staging-Umgebungen werden nicht blockiert und Google crawlt doppelte Inhalte.
- XML-Sitemap aktuell halten: Die Sitemap ist dein Inhaltsverzeichnis für Google. Sie sollte ausschließlich indexierbare, kanonische URLs enthalten. Seiten mit noindex, Redirects oder 404-Fehler gehören nicht hinein. Bei großen Websites nutze Sitemap-Indexdateien mit maximal 50.000 URLs pro Einzeldatei.
- Interne Verlinkung stärken: Seiten, die tief in der Seitenarchitektur vergraben sind, werden seltener gecrawlt. Jede wichtige Seite sollte maximal drei Klicks von der Startseite entfernt sein.
- Unnötige URL-Parameter vermeiden: Tracking-Parameter, Session-IDs und Sortieroptionen erzeugen Duplicate Content und verschwenden Crawl-Budget. Nutze die Parameterbehandlung in der Google Search Console oder setze Canonical Tags.
Indexierung: Von der gecrawlten Seite zum Suchergebnis
Nicht jede Seite, die Google crawlt, landet auch im Index. Indexierung ist der Prozess, bei dem Google entscheidet, ob eine Seite aufgenommen und für Suchanfragen in den SERPs berücksichtigt wird. Und genau hier gehen viele Rankings verloren, ohne dass Website-Betreiber es bemerken.
Die Google Search Console zeigt dir unter “Seiten” den Indexierungsstatus. Typische Gründe für Nicht-Indexierung:
- Noindex-Tag gesetzt: Bewusst oder versehentlich. Nach einem Relaunch vergessen Teams regelmäßig, die noindex-Tags der Staging-Umgebung zu entfernen. Wir haben das bei mindestens 15 Kundenprojekten erlebt.
- Crawl-Fehler: Server-Fehler (5xx), Timeouts oder blockierte Ressourcen verhindern das Crawling.
- Duplicate Content: Google indexiert nur eine Version. Ohne Canonical Tags wählt Google selbst aus, welche das ist, und trifft dabei nicht immer die richtige Entscheidung.
- Thin Content: Seiten mit wenigen Wörtern, kaum Mehrwert oder rein automatisch generierten Inhalten werden als qualitativ minderwertig eingestuft.
- Discovered, currently not indexed: Google kennt die URL, hat sie aber noch nicht gecrawlt. Ein Zeichen für Crawl-Budget-Probleme oder mangelnde interne Verlinkung.
Canonical Tags verdienen besondere Aufmerksamkeit. Sie signalisieren Google, welche URL die maßgebliche Version einer Seite ist. Bei Produktseiten, die über verschiedene Kategorien erreichbar sind, bei paginierter Content-Serie oder bei HTTP/HTTPS- und www/non-www-Varianten sind Canonicals unverzichtbar. Ohne sie verteilt Google die Ranking-Signale auf mehrere URLs, und keine davon rankt optimal.
Site Speed und Core Web Vitals: Performance als Ranking-Faktor
Seitenladegeschwindigkeit ist seit 2018 ein Ranking-Faktor, und mit den Core Web Vitals hat Google 2021 konkrete, messbare Metriken definiert. Die drei Kennzahlen LCP (Largest Contentful Paint), INP (Interaction to Next Paint) und CLS (Cumulative Layout Shift) bewerten Ladegeschwindigkeit, Reaktionsfähigkeit und visuelle Stabilität.
Für technisches SEO sind die Core Web Vitals zentral, weil sie direkt von der technischen Umsetzung abhängen:
Server-Performance: Der TTFB (Time to First Byte) legt die Basis. Wenn dein Server 800 Millisekunden braucht, um überhaupt zu antworten, wird ein LCP unter 2,5 Sekunden fast unmöglich. Schnelles Hosting, ein CDN (Content Delivery Network) und Server-Side Caching sind die Hebel.
Bildoptimierung: Bilder sind auf den meisten Websites der größte Performance-Killer. WebP oder AVIF statt JPEG, responsive Bildgrößen per srcset, Lazy Loading für Bilder außerhalb des Viewports und Preloading für das LCP-Element sind Pflicht, keine Kür.
JavaScript-Management: Jedes zusätzliche Script blockiert potenziell den Main Thread und verschlechtert INP-Werte. Third-Party-Scripts wie Tracking-Pixel, Chat-Widgets und Consent-Manager summieren sich. Wir empfehlen unseren Kunden, jedes Script regelmäßig auf seinen ROI zu überprüfen. Ein Script, das niemand auswertet, darf den Browser nicht belasten.
CSS-Optimierung: Critical CSS inline ausliefern, den Rest asynchron laden. Unbenutztes CSS per PurgeCSS oder ähnlichen Tools entfernen. Bei großen Websites reduziert das die CSS-Dateigröße um 60 bis 80 Prozent.
Aus unserer Erfahrung mit über 110 aktiven Kunden: Websites, die alle drei Core Web Vitals im grünen Bereich haben, zeigen im Durchschnitt 12 bis 18 Prozent niedrigere Absprungraten und eine bessere Conversion Rate. Das ist kein Zufall, sondern das direkte Ergebnis besserer User Experience.
Mobile-First-Indexierung: Dein mobiler Auftritt entscheidet
Google nutzt seit März 2021 ausschließlich die mobile Version einer Website für Indexierung und Ranking. Mobile-First ist kein Trend mehr, sondern Standard. Was auf dem Smartphone nicht funktioniert, existiert für Google faktisch nicht.
Das bedeutet konkret:
- Responsive Design ist Pflicht. Die mobile Version muss denselben Content zeigen wie die Desktop-Version. Versteckte Inhalte auf Mobile werden nicht indexiert.
- Touch-Elemente brauchen ausreichend Abstand. Buttons, die zu nah beieinander liegen, erzeugen eine schlechte User Experience und Google erkennt das.
- Schriftgrößen unter 16 Pixel erzwingen Zoomen und werden als mobilunfreundlich gewertet.
- Viewport-Meta-Tag muss korrekt gesetzt sein. Ohne
<meta name="viewport" content="width=device-width, initial-scale=1">skaliert die Seite nicht korrekt. - Interstitials: Aggressive Pop-ups, die den Content auf Mobile verdecken, werden von Google abgestraft. Erlaubt sind Cookie-Banner (rechtlich erforderlich) und altersbedingte Verifizierung.
Ein Test mit Googles Mobile-Friendly-Test oder der Lighthouse-Analyse in Chrome DevTools deckt die häufigsten Probleme auf. Die Search Console zeigt unter “Nutzerfreundlichkeit auf Mobilgeräten” alle betroffenen URLs.
Strukturierte Daten und Schema Markup
Schema Markup ist strukturierter Code (JSON-LD, Microdata oder RDFa), der Suchmaschinen zusätzlichen Kontext über den Seiteninhalt liefert. Damit können Rich Snippets in den SERPs erzeugt werden: Sternebewertungen, FAQ-Akkordeons, Rezeptangaben, Event-Daten, Produktpreise und mehr.
Rich Snippets steigern die Klickrate (CTR) nachweislich. Eine Studie von Search Engine Journal zeigt, dass FAQ-Rich-Snippets die CTR um bis zu 87 Prozent steigern können. Für technisches SEO ist Schema Markup deshalb kein Nice-to-have, sondern ein Wettbewerbsvorteil.
Die wichtigsten Schema-Typen für Unternehmen:
- Organization: Firmenname, Logo, Kontaktdaten, Social-Media-Profile.
- LocalBusiness: Für lokales SEO mit Adresse, Öffnungszeiten und Geo-Koordinaten.
- FAQ: Häufig gestellte Fragen direkt in den SERPs darstellen.
- HowTo: Schritt-für-Schritt-Anleitungen mit Bildern.
- Product: Preis, Verfügbarkeit, Bewertungen für E-Commerce.
- Article / BlogPosting: Für Nachrichtenartikel und Blogbeiträge mit Autor und Veröffentlichungsdatum.
- BreadcrumbList: Zeigt den Navigationspfad in den SERPs.
Die Implementierung erfolgt bevorzugt über JSON-LD im <head> der Seite. Googles Rich Results Test validiert, ob der Code korrekt ist. Häufige Fehler: fehlende Pflichtfelder, veraltete Markup-Versionen oder Markup, das nicht zum sichtbaren Seiteninhalt passt (das wertet Google als Spam).
HTTPS, Sicherheit und URL-Architektur
HTTPS ist seit 2014 ein Ranking-Signal und heute Voraussetzung für jede seriöse Website. Ohne SSL-Zertifikat zeigt Chrome eine “Nicht sicher”-Warnung, die Nutzer abschreckt und die Absprungrate in die Höhe treibt.
Bei der Migration von HTTP auf HTTPS oder bei einem Relaunch mit geänderten URLs sind 301-Redirects entscheidend. Jede alte URL muss per 301-Redirect auf die neue URL weiterleiten. Redirect-Ketten (A leitet auf B, B leitet auf C) sollten vermieden werden, da sie Crawl-Budget verschwenden und Ladezeit kosten. Maximal ein Redirect pro URL ist die Regel.
URL-Struktur beeinflusst Crawling und User Experience:
- Kurze, sprechende URLs:
/glossar/technisches-seo/statt/index.php?cat=glossar&id=4872 - Bindestriche statt Unterstriche als Trennzeichen
- Lowercase URLs als Standard (kein Mischmasch aus Groß- und Kleinschreibung)
- Logische Verzeichnishierarchie:
/blog/kategorie/artikelname/ - Keine Session-IDs, Tracking-Parameter oder unnötige Ordnertiefen in der URL
Die URL-Architektur bestimmt auch die Seitenstruktur. Eine flache Hierarchie, bei der jede wichtige Seite maximal drei Klicks von der Startseite entfernt ist, fördert sowohl das Crawling als auch die User Experience. Tiefere Ebenen werden seltener gecrawlt und weniger oft von Nutzern gefunden.
Technische SEO-Audits: So findest du die Probleme
Ein technisches SEO-Audit ist die systematische Analyse aller technischen Aspekte deiner Website. Ohne Audit arbeitest du im Blindflug. Mit Audit weißt du exakt, welche Probleme existieren und welche Priorität sie haben.
Tools für technische SEO-Audits:
- Google Search Console: Kostenlos und direkt von Google. Zeigt Indexierungsprobleme, Core Web Vitals, Mobile Usability und Crawl-Statistiken.
- Screaming Frog: Crawlt deine Website wie ein Suchmaschinen-Bot. Findet Broken Links, fehlende Meta-Tags, Duplicate Content, Redirect-Ketten und Server-Fehler. Bis 500 URLs kostenlos.
- Ahrefs / Semrush Site Audit: Automatisierte Audits mit priorisierten Empfehlungen. Nützlich für regelmäßige Überwachung.
- PageSpeed Insights / Lighthouse: Performance-Analyse einzelner URLs mit konkreten Optimierungsvorschlägen.
- Chrome DevTools: Für die tiefgehende Analyse von Rendering, JavaScript-Ausführung und Netzwerk-Requests.
Typischer Audit-Ablauf:
- Crawl durchführen: Gesamte Website mit Screaming Frog oder ähnlichem Tool crawlen. Bei großen Websites Crawl-Regeln setzen, um bestimmte Bereiche gezielt zu analysieren.
- Indexierungsstatus prüfen: Search Console-Bericht “Seiten” auswerten. Wie viele Seiten sind indexiert? Wie viele sind ausgeschlossen und warum?
- Performance messen: Core Web Vitals über CrUX-Daten analysieren. Seiten mit hohem Traffic und schlechten Werten priorisieren.
- Crawl-Fehler identifizieren: 404-Seiten, Server-Fehler, Redirect-Ketten und -Schleifen aufdecken.
- Duplicate Content finden: Seiten mit identischen oder sehr ähnlichen Inhalten identifizieren. Canonical Tags prüfen.
- Strukturierte Daten validieren: Rich Results Test für die wichtigsten Seitentypen durchführen.
- Mobile Usability testen: Lighthouse Mobile Audit durchführen und Search Console Mobile Usability prüfen.
- Maßnahmenplan erstellen: Alle Findings priorisieren nach Impact und Aufwand. Quick Wins zuerst umsetzen.
Log-File-Analyse: Verstehe, wie Google deine Seite sieht
Ein fortgeschrittenes Instrument des technischen SEO ist die Log-File-Analyse. Server-Logfiles zeichnen jeden einzelnen Request auf, auch die von Googles Crawlern. Durch die Auswertung siehst du exakt, welche Seiten der Googlebot wie oft crawlt, welche Seiten ignoriert werden und wo Crawl-Fehler auftreten.
Daraus ergeben sich wertvolle Erkenntnisse:
- Crawl-Frequenz pro Seitentyp: Werden deine wichtigsten Seiten regelmäßig gecrawlt? Oder verschwendet Google sein Budget für unwichtige URL-Parameter?
- Crawl-Fehler in Echtzeit: Die Search Console zeigt Fehler mit Verzögerung. Logfiles zeigen sie sofort.
- Bot-Verhalten nach Änderungen: Nach einem Relaunch oder Sitemap-Update kannst du direkt beobachten, wie Google reagiert.
Tools wie Screaming Frog Log File Analyser oder Botify machen die Analyse handhabbar. Für Websites mit weniger als 10.000 Seiten ist die Log-File-Analyse optional. Ab 50.000 Seiten wird sie zum unverzichtbaren Werkzeug.
Think11-Praxis
Technisches SEO ist bei Think11 die erste Phase jedes SEO-Projekts. Bevor wir einen einzigen Text schreiben oder einen Backlink aufbauen, stellen wir sicher, dass die technische Basis stimmt. Als Google Premium Partner (Top 3 % aller Google-Partner weltweit) wissen wir aus über 110 aktiven Kundenprojekten: Ohne saubere Technik ist jede andere SEO-Maßnahme eine Wette mit schlechten Quoten.
Unser technisches SEO-Audit deckt in der Regel 40 bis 80 konkrete Findings auf. Davon sind erfahrungsgemäß 10 bis 15 Quick Wins, die innerhalb der ersten zwei Wochen umsetzbar sind und sofort messbare Verbesserungen bringen. Die restlichen Findings arbeiten wir nach Impact priorisiert über drei bis sechs Monate ab.
Ein konkretes Beispiel: Ein B2B-Softwareanbieter kam mit stagnierenden Rankings zu uns. Das technische Audit ergab: 23 Prozent aller Seiten waren nicht indexiert wegen einer fehlerhaften Canonical-Tag-Implementierung im CMS. Dazu kamen ein LCP von über 5 Sekunden durch unkomprimierte Hero-Bilder und eine fehlende XML-Sitemap für die Blog-Sektion. Innerhalb von vier Monaten nach Behebung der technischen Probleme stieg der organische Traffic um 52 Prozent, noch bevor die Content-Marketing-Strategie richtig angelaufen war.
Unser CEO Schahab Hosseiny bringt es auf den Punkt: Technisches SEO ist nicht die glamouröse Seite des Online-Marketings. Aber es ist die Seite, die den Unterschied macht, ob deine anderen Investitionen sich auszahlen oder nicht.
Du willst wissen, wie es um die technische SEO-Gesundheit deiner Website steht? Lass uns ein Audit machen und finde heraus, welches Potenzial brachliegt.