Ihre robots.txt regelt seit Jahren, welche Suchmaschinen-Crawler auf Ihre Website zugreifen dürfen. Doch neben Googlebot gibt es inzwischen ein halbes Dutzend KI-Crawler, die Ihre Inhalte lesen — und in ihren Antworten verwenden. Wer diese Crawler nicht kennt und nicht steuert, verliert die Kontrolle über seine KI-Sichtbarkeit. Dieser Guide zeigt, welche KI-Crawler es gibt, wie Sie sie konfigurieren und was der neue llms.txt-Standard bedeutet.
GPTBot ist der Crawler von OpenAI und sammelt Daten für ChatGPT. ClaudeBot gehört zu Anthropic und speist den KI-Assistenten Claude. PerplexityBot durchsucht das Web für Perplexity AI, eine KI-Suchmaschine, die Quellen mit Links zitiert. Google-Extended ist Googles Crawler für Gemini und andere KI-Produkte — getrennt vom normalen Googlebot. Bingbot wird ebenfalls für Microsofts Copilot genutzt. Jeder dieser Crawler hat einen eigenen User-Agent-String und kann separat in Ihrer robots.txt gesteuert werden. Die Entscheidung, welche Crawler Sie zulassen, beeinflusst direkt, in welchen KI-Systemen Ihre Inhalte auftauchen.
Die Konfiguration folgt dem gleichen Muster wie für Googlebot. Mit „User-agent: GPTBot“ und „Allow: /“ erlauben Sie OpenAI den vollständigen Zugriff. Mit „Disallow: /intern/“ sperren Sie einzelne Verzeichnisse. Für maximale KI-Sichtbarkeit empfehlen wir: Erlauben Sie GPTBot, ClaudeBot und PerplexityBot den Zugriff auf öffentliche Inhalte. Sperren Sie nur sensible Bereiche wie Admin-Panels oder interne Dokumente. Wichtig: Wenn Sie KI-Crawler komplett blockieren, werden Ihre Inhalte in ChatGPT, Claude und Perplexity nicht mehr zitiert. Das mag für manche Inhalte gewollt sein — für Ihre Produkte und Dienstleistungen ist es ein Wettbewerbsnachteil.
Neben robots.txt gibt es einen neuen Standard: llms.txt. Diese Datei liegt im Root-Verzeichnis Ihrer Website und liefert KI-Systemen eine kompakte Zusammenfassung Ihres Unternehmens. Während robots.txt nur den Zugang steuert, liefert llms.txt aktiv Informationen: Wer sind Sie? Was bieten Sie an? Was sind Ihre Kernprodukte? KI-Systeme können diese Datei nutzen, um Ihr Unternehmen besser zu verstehen und genauer zu empfehlen. Luminara AI generiert Ihre llms.txt automatisch aus Ihren Produktdaten und Schema.org-Informationen. In Kombination mit dem Integrations-Guide von Luminara richten Sie robots.txt und llms.txt in wenigen Minuten ein — ohne Entwickler und ohne technisches Vorwissen.
robots.txt und llms.txt sind die Grundlage Ihrer KI-Sichtbarkeit. Wer beide Dateien korrekt konfiguriert, bestimmt aktiv, in welchen KI-Systemen seine Inhalte erscheinen. Luminara AI hilft Ihnen dabei — von der automatischen llms.txt-Generierung bis zum vollständigen Integrations-Guide.
Jetzt mit Luminara AI startenStarten Sie jetzt mit Luminara AI und optimieren Sie Ihre Präsenz in KI-Suchmaschinen.
Jetzt starten