Tu robots.txt ha regulado durante anos que crawlers de motores de busqueda pueden acceder a tu sitio web. Pero mas alla de Googlebot, ahora hay media docena de crawlers de IA leyendo tu contenido — y usandolo en sus respuestas. Si no conoces y controlas estos crawlers, pierdes el control sobre tu visibilidad IA. Esta guia muestra que crawlers de IA existen, como configurarlos y que significa el nuevo estandar llms.txt.
GPTBot es el crawler de OpenAI, que recopila datos para ChatGPT. ClaudeBot pertenece a Anthropic y alimenta al asistente de IA Claude. PerplexityBot busca en la web para Perplexity AI, un motor de busqueda de IA que cita fuentes con enlaces. Google-Extended es el crawler de Google para Gemini y otros productos de IA — separado del Googlebot regular. Bingbot tambien se usa para el Copilot de Microsoft. Cada crawler tiene su propia cadena de user-agent y se puede controlar por separado en tu robots.txt. La decision sobre que crawlers permites influye directamente en que sistemas de IA aparece tu contenido.
La configuracion sigue el mismo patron que para Googlebot. Con "User-agent: GPTBot" y "Allow: /" concedes a OpenAI acceso completo. Con "Disallow: /internal/" bloqueas directorios especificos. Para maxima visibilidad IA, recomendamos: Permite a GPTBot, ClaudeBot y PerplexityBot acceso al contenido publico. Solo bloquea areas sensibles como paneles de administracion o documentos internos. Importante: Si bloqueas completamente los crawlers de IA, tu contenido ya no sera citado en ChatGPT, Claude y Perplexity. Eso puede ser deseable para cierto contenido — para tus productos y servicios, es una desventaja competitiva.
Mas alla de robots.txt, existe un nuevo estandar: llms.txt. Este archivo se ubica en el directorio raiz de tu sitio web y proporciona a los sistemas de IA un resumen compacto de tu negocio. Mientras robots.txt solo controla el acceso, llms.txt entrega activamente informacion: ¿Quien eres? ¿Que ofreces? ¿Cuales son tus productos principales? Los sistemas de IA pueden usar este archivo para entender mejor tu negocio y recomendarlo con mayor precision. Luminara AI genera tu llms.txt automaticamente a partir de tus datos de productos e informacion Schema.org. Combinado con la guia de integracion de Luminara, puedes configurar robots.txt y llms.txt en minutos — sin necesidad de desarrollador ni conocimientos tecnicos.
robots.txt y llms.txt son la base de tu visibilidad IA. Configurar correctamente ambos archivos te permite determinar activamente en que sistemas de IA aparece tu contenido. Luminara AI te ayuda con esto — desde la generacion automatica de llms.txt hasta la guia de integracion completa.
Empezar con Luminara AIComience con Luminara AI y optimice su presencia en motores de busqueda IA.
Empezar ahora