Web-Analytik Schlüsselbegriffe

Was ist robots.txt?

Image of Iron Brands

Veröffentlicht am 31. März 2023 und bearbeitet am 4. Mai 2023 von Iron Brands

Dieser Artikel wird automatisch übersetzt. Wechsle zur englischen Version, um das Original zu lesen.

Robots.txt ist eine Datei, mit der Webroboter oder "Bots" angewiesen werden, eine Website zu crawlen und zu indizieren. Robots.txt ist eine einfache Textdatei, die im Stammverzeichnis einer Website platziert wird und dazu dient, Web-Robotern die Crawling- und Indizierungsregeln für die Website mitzuteilen.

Die Datei Robots.txt ist nicht obligatorisch und ihre Verwendung ist freiwillig. Es handelt sich jedoch um eine weit verbreitete und akzeptierte Konvention, die von den meisten Web-Robotern und Suchmaschinen unterstützt wird.

Die Datei Robots.txt besteht aus Anweisungen, so genannten "Direktiven", die die Regeln für das Crawlen und Indizieren der Website festlegen. In den Richtlinien kann festgelegt werden, welche Seiten oder Verzeichnisse der Website gecrawlt und indiziert werden sollen und welche Seiten oder Verzeichnisse ausgeschlossen werden sollen. Mithilfe der Datei Robots.txt können Website-Besitzer und Administratoren sensible oder private Seiten vom Crawlen und Indizieren ausschließen. Sie können auch verhindern, dass Webroboter ihre Website mit übermäßigen Anfragen überlasten.

GA4 ist komplex. Versuchen Sie Simple Analytics

GA4 ist wie im Cockpit eines Flugzeugs zu sitzen, ohne einen Pilotenschein zu haben

14-Tage-Testversion starten