← Zurück zur Übersicht

Technisches SEO umfasst alle Maßnahmen die sicherstellen, dass Suchmaschinen eine Website korrekt finden, lesen und in den Index aufnehmen können. Es ist das Fundament auf dem Onpage-Optimierung und Content-Strategie aufbauen — wenn das Fundament Löcher hat, hilft der beste Content nichts.

Die gute Nachricht: Du musst kein Programmierer sein um technisches SEO zu verstehen. Die drei wichtigsten Elemente — XML-Sitemap, robots.txt und Canonical-Tags — lassen sich mit Alltagslogik begreifen und ohne eine Zeile Code umsetzen. Diesen Artikel kannst du als Nachschlagewerk nutzen: Einmal lesen, dann bei Bedarf zurückkommen.

Merksatz: „Eine XML-Sitemap ist die Landkarte deiner Website — für Maschinen."

Was technisches SEO ist und warum es dich betrifft

Technisches SEO vs. Onpage-SEO — der Unterschied

Onpage-SEO optimiert was auf deiner Seite steht: Texte, Überschriften, Meta-Descriptions, Bilder. Technisches SEO optimiert wie deine Seite funktioniert: Kann Google sie finden? Kann Google sie lesen? Versteht Google welche Version die richtige ist?

Stell dir eine Buchhandlung vor. Onpage-SEO ist der Inhalt deiner Bücher — die Qualität der Texte, die Titel, die Klappentexte. Technisches SEO ist die Architektur der Buchhandlung — die Beschilderung, das Ordnungssystem, die Eingangstür. Wenn die Tür klemmt, kommt niemand rein um deine Bücher zu lesen.

Für KMU-Websites bedeutet das: Bevor du Stunden in Content investierst, stell sicher dass Google deine Seiten überhaupt finden und indexieren kann. In den meisten Fällen dauert das weniger als eine Stunde — und du musst es nur einmal richtig einrichten.

XML-Sitemap — Die Landkarte deiner Website für Google

Eine XML-Sitemap ist eine maschinenlesbare Datei die alle wichtigen Seiten deiner Website auflistet. Sie sagt Google: „Das sind die Seiten die du kennen solltest, und hier findest du sie." Google kann Websites auch ohne Sitemap crawlen — aber eine Sitemap macht es schneller und zuverlässiger, besonders bei neuen oder großen Websites.

Wann brauche ich eine XML-Sitemap?

Jede Website profitiert von einer Sitemap. Besonders wichtig ist sie in drei Fällen:

Erstens: Deine Website ist neu. Google kennt sie noch nicht und hat wenige oder keine Links die dorthin führen. Die Sitemap ist dann der schnellste Weg um Google auf deine Seiten aufmerksam zu machen.

Zweitens: Deine Website hat mehr als 50 Seiten. Bei kleinen Websites findet Google meist alles über interne Links. Bei größeren Websites — etwa einem Online-Shop mit Hunderten Produktseiten — stellt die Sitemap sicher dass nichts übersehen wird.

Drittens: Deine Website wird regelmäßig aktualisiert. Die Sitemap enthält Zeitstempel die Google zeigen wann eine Seite zuletzt geändert wurde. Das beschleunigt die Indexierung neuer und aktualisierter Inhalte.

Wie erstelle ich eine XML-Sitemap ohne Code?

Die meisten Website-Systeme erstellen Sitemaps automatisch:

WordPress: Seit Version 5.5 generiert WordPress automatisch eine Sitemap unter deinedomain.de/wp-sitemap.xml. Plugins wie Yoast SEO oder Rank Math bieten erweiterte Optionen — etwa das Ausschließen bestimmter Seiten oder das Hinzufügen von Bildern.

Shopify: Erstellt automatisch eine Sitemap unter deinedomain.de/sitemap.xml. Du musst nichts tun.

Wix, Squarespace, Jimdo: Alle generieren automatisch Sitemaps. Bei Wix findest du sie unter deinedomain.de/sitemap.xml.

Statische Websites oder Next.js: Hier musst du die Sitemap manuell erstellen oder ein Build-Tool nutzen. Für Next.js-Projekte gibt es die next-sitemap-Library die das automatisiert.

Ohne CMS: Kostenlose Online-Tools wie XML-Sitemaps.com crawlen deine Website und erstellen eine Sitemap zum Download. Du lädst sie dann in das Hauptverzeichnis deiner Website hoch.

Sitemap in der Google Search Console einreichen

Nachdem deine Sitemap existiert, meldest du sie bei Google an:

1. Öffne die Google Search Console

2. Wähle deine Website (Property)

3. Gehe zu „Sitemaps" im linken Menü

4. Gib die URL deiner Sitemap ein (z.B. https://deinedomain.de/sitemap.xml)

5. Klicke „Senden"

Google bestätigt den Empfang und zeigt dir nach einigen Tagen wie viele Seiten erkannt und wie viele indexiert wurden. Wenn die Zahlen stark auseinandergehen, gibt es ein Problem — dazu mehr in der Checkliste am Ende.

Merksatz: „robots.txt sagt Google was es NICHT anschauen soll. Nicht was es soll."

robots.txt — Was Google anschauen darf und was nicht

Die robots.txt-Datei ist eine einfache Textdatei im Hauptverzeichnis deiner Website die Suchmaschinen-Crawlern sagt welche Bereiche sie besuchen dürfen und welche nicht. Sie liegt immer unter deinedomain.de/robots.txt — jeder kann sie aufrufen, auch du bei deiner Konkurrenz.

Die Metapher: Wenn die XML-Sitemap die Landkarte ist, dann ist robots.txt das Schild an der Tür — „Bitte hier nicht eintreten" oder „Willkommen, schau dich um".

robots.txt Grundregeln — Allow und Disallow

Die Syntax ist simpler als sie aussieht:

User-agent: *
Disallow: /admin/
Disallow: /warenkorb/
Disallow: /interner-bereich/
Allow: /
Sitemap: https://deinedomain.de/sitemap.xml

User-agent: * bedeutet: Diese Regeln gelten für alle Suchmaschinen-Crawler.

Disallow: /admin/ bedeutet: Alles unter /admin/ soll nicht gecrawlt werden.

Allow: / bedeutet: Alles andere ist erlaubt.

Sitemap: verweist Google auf deine XML-Sitemap — ein praktischer Shortcut.

Was du typischerweise blockierst: Admin-Bereiche, Login-Seiten, Warenkörbe, interne Suchseiten, doppelte Filterseiten in Online-Shops. Was du nie blockierst: deine CSS- und JavaScript-Dateien (Google braucht sie um deine Seite zu rendern), deine Bilder (es sei denn du willst sie nicht in der Bildersuche), deine normalen Inhaltsseiten.

Häufige robots.txt Fehler die Rankings kosten

Fehler 1: Alles blockieren. Die Zeile Disallow: / blockiert die gesamte Website. Das passiert häufiger als man denkt — besonders nach einem Website-Relaunch wenn die Staging-Einstellungen versehentlich auf die Live-Seite übernommen werden. Prüfe nach jedem Relaunch als erstes deine robots.txt.

Fehler 2: CSS und JS blockieren. Alte Anleitungen empfehlen manchmal, CSS- und JavaScript-Dateien zu blockieren. Das war vor 2015 sinnvoll. Heute braucht Google diese Dateien um deine Seite korrekt zu rendern. Blockierst du sie, sieht Google eine leere oder kaputte Seite — und bewertet entsprechend.

Fehler 3: Verwechslung von Blockieren und De-Indexieren. robots.txt verhindert das Crawling, nicht die Indexierung. Wenn andere Seiten auf eine Seite verlinken die in robots.txt blockiert ist, kann Google die URL trotzdem im Index aufnehmen — nur ohne Inhalt. Für echte De-Indexierung brauchst du das noindex-Meta-Tag.

Canonical-Tags — Duplicate Content technisch lösen

Ein Canonical-Tag ist ein HTML-Element das Google sagt: „Diese Seite hat möglicherweise mehrere URLs, aber DIESE hier ist die offizielle Version." Es löst das Problem von Duplicate Content auf technischer Ebene — ohne dass du Seiten löschen oder Inhalte ändern musst.

Die Metapher: Stell dir vor du hast drei Visitenkarten mit unterschiedlichen Telefonnummern, aber alle führen zu demselben Anschluss. Der Canonical-Tag sagt: „Die Nummer auf der weißen Karte ist die offizielle — bitte nur diese ins Telefonbuch aufnehmen."

Wann brauche ich einen Canonical-Tag?

Das häufigste Szenario: Deine Website ist unter mehreren URLs erreichbar. https://deinedomain.de/produkt, https://www.deinedomain.de/produkt und https://deinedomain.de/produkt?ref=newsletter zeigen alle denselben Inhalt — aber für Google sind es drei verschiedene Seiten.

Weitere typische Fälle für KMU:

Online-Shops mit Filterseiten: Wenn deinshop.de/schuhe und deinshop.de/schuhe?farbe=rot&groesse=42 denselben oder ähnlichen Inhalt zeigen, brauchst du Canonicals die auf die Hauptseite verweisen.

Paginierte Seiten: Seite 1, 2, 3 einer Kategorie. Die Canonical-URL sollte jeweils auf sich selbst zeigen (self-referencing), nicht auf Seite 1 — das ist ein häufiger Fehler.

Syndizierte Inhalte: Wenn du denselben Artikel auf deiner Website und auf Medium oder LinkedIn veröffentlichst, sagt der Canonical-Tag Google welche Version die Originalquelle ist.

Canonical vs. 301-Redirect — wann was?

Beide lösen das Duplikat-Problem, aber auf unterschiedliche Weise:

Canonical-Tag sagst du bei: „Beide URLs dürfen existieren, aber bitte werte nur diese eine." Die andere Seite bleibt erreichbar für Nutzer. Nutze das wenn beide Versionen einen Zweck haben — etwa Filterseiten die Nutzer direkt ansteuern.

301-Redirect sagst du bei: „Diese URL gibt es nicht mehr. Leite alle Besucher und alle SEO-Werte dauerhaft auf die neue URL um." Nutze das bei Domain-Umzügen, URL-Änderungen und nach einem Website-Relaunch.

Faustregel: Wenn ein Nutzer die alte URL nie sehen soll → 301. Wenn beide URLs für Nutzer sinnvoll sind → Canonical.

Google Search Console — Dein kostenloses SEO-Cockpit

Die Google Search Console (GSC) ist das einzige Tool das dir direkt zeigt wie Google deine Website sieht. Es ist kostenlos, von Google selbst, und jede KMU-Website sollte es eingerichtet haben. Die meisten technischen SEO-Probleme erkennst du hier zuerst.

Search Console einrichten in 10 Minuten

1. Gehe zu search.google.com/search-console

2. Klicke „Property hinzufügen"

3. Wähle „URL-Präfix" und gib deine Domain ein

4. Verifiziere die Inhaberschaft — am einfachsten über deinen DNS-Anbieter oder ein HTML-Tag

5. Warte 24-48 Stunden bis erste Daten erscheinen

Bei WordPress geht die Verifizierung am schnellsten über Yoast SEO oder Rank Math — dort trägst du den Bestätigungscode direkt ein.

Die 5 wichtigsten Search Console Reports

1. Leistung: Zeigt für welche Suchbegriffe deine Seiten erscheinen, wie oft sie angeklickt werden und auf welcher Position sie stehen. Das ist dein Keyword-Monitoring ohne externes Tool.

2. Indexierung: Zeigt welche Seiten Google indexiert hat und welche nicht — und warum nicht. Wenn hier Seiten als „Ausgeschlossen" markiert sind, liegt oft ein technisches Problem vor (robots.txt, noindex, Canonical-Fehler).

3. Sitemaps: Zeigt den Status deiner eingereichten Sitemap. Hier siehst du ob alle Seiten erkannt und verarbeitet wurden.

4. Mobile Nutzbarkeit: Zeigt Probleme die Nutzer auf Smartphones betreffen — zu kleine Schrift, zu enge Links, Inhalte die über den Bildschirm hinausragen. Relevant weil Google Mobile-First indexiert.

5. Sicherheitsprobleme: Zeigt ob Google Malware, gehackte Inhalte oder andere Sicherheitsrisiken auf deiner Website gefunden hat. Diesen Report solltest du regelmäßig prüfen.

Die technische SEO-Checkliste für KMU

Du musst nicht alles an einem Tag machen. Geh die Liste einmal durch, hake ab was passt, und arbeite den Rest Schritt für Schritt ab. Die meisten Punkte sind einmalig — danach laufen sie von allein.

Sitemap:

robots.txt:

Canonical-Tags:

Search Console:

Grundlagen:

Merksatz: „Ein Relaunch ohne Redirects ist wie Umziehen ohne Nachsendeauftrag."

Quellen & Vertiefung

  • Erlhofer, S. (2025): Suchmaschinen-Optimierung. 11. Auflage, Rheinwerk Verlag. Kap. 8.16 (Sitemaps), Kap. 9.4 (robots.txt), Kap. 8.14 (Canonical).
  • Google Search Central (2024): „Sitemaps-Übersicht." developers.google.com/search/docs/crawling-indexing/sitemaps/overview.
  • Google Search Central (2024): „robots.txt-Spezifikation." developers.google.com/search/docs/crawling-indexing/robots/robots_txt.
  • Google Search Central (2024): „Canonical-URLs konsolidieren." developers.google.com/search/docs/crawling-indexing/consolidate-duplicate-urls.