[robots.txt]

Eine für SEO sehr wichtige Textdatei

Home » SEO Glossar » robots.txt

Suchmaschinen wie Google, Bing oder Yahoo sind ständig unterwegs, um neue und bestehende Inhalte zu finden und zu indexieren. Aber heißt das automatisch, dass wirklich jede Seite einer Website für sie offenstehen soll? Genau an diesem Punkt kommt die robots.txt-Datei ins Spiel. Sie wirkt ein wenig wie ein stiller Türsteher am Eingang einer Website: freundlich, klar und mit einer ziemlich wichtigen Aufgabe.

Was ist eine robots.txt-Datei?

Die robots.txt ist eine einfache Textdatei, die im Root-Verzeichnis einer Website liegt. Dort hinterlegt sie Anweisungen für Webcrawler, also die Bots von Suchmaschinen. Diese Hinweise sagen den Crawlern, welche Bereiche sie besuchen dürfen und welche sie besser auslassen sollen. Grundlage dafür ist der Robots Exclusion Standard, der bereits 1994 eingeführt wurde, damit Suchmaschinen die Vorgaben von Website-Betreibern berücksichtigen können.

In der Praxis wird die Datei oft genutzt, um bestimmte Bereiche einer Website gezielt auszunehmen. Das kann sinnvoll sein, wenn sensible Inhalte, interne Bereiche oder Testseiten nicht öffentlich auftauchen sollen. Nicht alles, was technisch erreichbar ist, muss schließlich auch in den Suchergebnissen landen.

Relevante Artikel zum Thema: "Crawler"

Wie funktioniert die robots.txt-Datei?

Wenn ein Crawler eine Website besucht, schaut er in der Regel zuerst nach der robots.txt. Dort findet er die Regeln, die für ihn gelten. Die Datei ist dabei bewusst schlicht gehalten, aber gerade das macht sie so praktisch. Typische Anweisungen sind:

  • User-agent: Legt fest, für welchen Crawler die Regeln gelten. Das kann zum Beispiel Googlebot sein.
  • Disallow: Sperrt bestimmte Verzeichnisse oder Seiten für den jeweiligen Crawler.
  • Allow: Erlaubt den Zugriff auf einzelne Seiten oder Unterbereiche, auch wenn ein übergeordnetes Verzeichnis gesperrt ist.
  • Sitemap: Verweist auf die Sitemap der Website und hilft Suchmaschinen dabei, die Struktur besser zu erfassen.

Wozu dient die robots.txt-Datei?

Die robots.txt ist vor allem ein Werkzeug zur Steuerung. Sie entscheidet nicht über alles, aber sie setzt klare Leitplanken für Suchmaschinen. Je nach Website kann das aus ganz unterschiedlichen Gründen sinnvoll sein:

  • 1. Vertrauliche Bereiche schützen: Login-Seiten, interne Verzeichnisse oder Nutzerbereiche sollen oft nicht in den Suchergebnissen auftauchen.
  • 2. Duplicate Content vermeiden: Wenn mehrere Seiten sehr ähnliche Inhalte haben, kann die robots.txt helfen, bestimmte Varianten auszuschließen.
  • 3. Crawling-Ressourcen bündeln: Gerade bei großen Websites ist es hilfreich, Crawler auf die wirklich relevanten Seiten zu lenken.

Man sollte die robots.txt allerdings nicht mit einer echten Sicherheitsbarriere verwechseln. Sie ist kein Schloss an der Tür, sondern eher ein Hinweis darauf, welche Wege bevorzugt oder eben nicht genutzt werden sollen. Trotzdem ist sie ein nützliches Mittel, um die Sichtbarkeit von Inhalten gezielt zu steuern und Suchmaschinen die Arbeit ein Stück weit zu erleichtern.

Ein kurzer Überblick

ElementFunktion
User-agentBestimmt, für welchen Crawler die Regel gilt
DisallowVerbietet den Zugriff auf bestimmte Bereiche
AllowErlaubt gezielten Zugriff trotz Sperre
SitemapVerweist auf die Sitemap der Website
Background ElementBackground Element Background Element Background Element Background Element Background Element Background Element