Saltar al contenido

 Tráfico agéntico: así navegan los agentes de IA y qué tienes que saber

El tráfico agéntico trata de visitas, rastreos o llamadas a tu contenido realizadas por agentes de IA, no por humanos ni por crawlers clásicos. A diferencia de un bot tradicional, que recorre páginas en masa, un agente actúa por delegación del usuario, se mueve por la web para completar tareas concretas y lo hace de forma contextual, puntual y orientada al resultado. El intercambio de valor es directo y medible.

¿A qué se le llama tráfico angéntico?

En el contexto digital, tráfico agéntico se refiere al tráfico de red generado por agentes automáticos, como bots o agentes de IA, lo cual involucra temas de seguridad digital, confiabilidad y cuidados para proteger la información.

Durante décadas, las webs han estado (o deberían estar) centradas en los humanos: cómo buscan, cómo hacen clic, cómo se mueven por una página. Todo medido desde una unidad simple, la URL. Pero este modelo está empezando a cambiar. ¿Por qué? Porque hoy, parte del tráfico web ya no proviene de personas, sino de agentes: sistemas de IA que actúan en nombre de los usuarios y que acceden al contenido, lo interpretan y lo reutilizan sin verlo como una web, sino como un grafo de datos. Bienvenidos al tráfico agéntico.

El debate técnico y ético que ha empezado por tráfico agéntico:

  • ¿Deben los agentes respetar robots.txt si actúan en nombre de un humano?
  • ¿Estamos ante rastreo, scraping o asistencia?
  • ¿Quién tiene derecho a acceder, procesar y monetizar el contenido?

Existen dos grandes tipos de agentes tráfico agéntico:

  • Agentes con navegador, que operan sobre navegadores reales (a menudo en modo headless), renderizan las páginas, leen el DOM y pueden hacer clic o rellenar formularios. Estos se guían también «visualmente» analizando lo que ven en el layout. Un ejemplo claro de los primeros son navegadores IA como Comet (Perplexity), Dia (The Browser Company), ChatGPT Operator (OpenAI) o Claude for Chrome (Anthropic). Incorporan agentes directamente en la experiencia de navegación. El usuario busca algo, el agente visita tu página, extrae una afirmación concreta y desaparece. No hay página vista, ni scroll, ni clic hecho por un usuario. Y mucho ojo, la carrera de navegadores de IA no va solo de modelos. Va de capturar datos de uso reales (historial, perfiles, patrones de tarea…) que servirán para entrenar y optimizar futuros agentes.
  • Agentes sin navegador, que acceden a la web mediante llamadas HTTP o APIs, sin renderizar la página. Procesan directamente las respuestas y extraen lo que necesitan. Aquí entran herramientas como Firecrawl, pensadas para integrarse en workflows autónomos, o muchos chatbots de IA (como ChatGPT o Claude) cuando hacen fetch de una URL en segundo plano para responder al usuario sin mostrar visualmente la página.

Esta distinción es clave para entender cómo acceden al contenido, cómo se identifican y qué margen tienes para gestionarlos.

Te recomendamos leer también sobre la inteligencia organoide, además del tráfico agéntico.

El rendimiento del trágico agéntico

Aunque la promesa del tráfico agéntico es enorme, la ejecución sigue estando muy verde. Donde mejor encajan hoy los agentes es en herramientas de código pero en tareas web «complicadas», la fiabilidad aún cojea. Llevo meses trabajando con ellos y, en general, resultan bastante decepcionantes. El benchmark de TheAgentCompany lo confirma: incluso el mejor agente probado (Gemini 2.5 Pro) falló el 70% de las veces al ejecutar tareas reales. Y eso contando también las tareas parcialmente completadas.

Las principales causas de fallo del tráfico agéntico son:

  • Mala navegación por interfaces web.
  • Incapacidad para manejar datos privados o incompletos.
  • Alta vulnerabilidad a errores acumulativos y alucinaciones.

Esto repercute directamente para cualquier negocio que dependa de tareas online estructuradas, como compras, formularios, CRM, consultas médicas… Si el contenido no está bien estructurado o si requiere demasiada interacción no estandarizada, es probable que el agente no lo entienda, o lo haga mal. Tal y como veremos a continuación.

tráfico agéntico

¿Qué cambia para el SEO y para los responsables de sitios web?

Ya no importa tanto que una URL posicione para «precio lavadora X», sino que la máquina pueda entrar, entender cómo navegar por la web, recuperar y validar que «la lavadora X cuesta 399€».

Para que eso funcione, el contenido tiene que ser legible para humanos, pero también accesible y procesable por máquinas.

El nacimiento de la AX (Agent Experience)

AX es UX para agentes. Si los agentes no pueden completar sus objetivos, los usuarios tampoco. Una mala AX se traduce en mala UX = usuarios insatisfechos o perdidos. Creo que esto da pié a abrir un nuevo debate como el del SEO vs GEO 😛

En mis pruebas con browser agents, he visto cómo abandonaba la web de un cliente DTC y se iba a un marketplace, simplemente porque allí sí podían completar la tarea que le había pedido.

Os lanzo un reto. Pedidle al agente de ChatGPT, Operator, que complete una tarea en vuestra web, cualquiera que sea razonable para lo que ofrecéis. Veréis la cantidad de errores que se va a encontrar. ¿Qué problemas me he encontrado yo?

  • Bloqueos por firewalls.
  • Tareas que no se completan por timeouts.
  • Errores al distinguir el producto principal de los recomendados, por una mala jerarquía del HTML.
  • Problemas de interacción por una maquetación deficiente a nivel de accesibilidad.
  • Y mi favorita: equivocaciones derivadas de problemas de usabilidad. El agente se comporta como un usuario nuevo (ojo: entrando en un desktop con una resolución y viewport pequeño, con todo lo que esto significa) y sin la «maldición del conocimiento». Esto es brutal e ideal para test de «usuarios».

Y no hablo de webs pequeñas. He visto todos estos problemas en webs de clientes que están entre los principales ecommerce del país.

HTML semántico y APIs como base de la AX

Más allá del SEO técnico, creo firmemente que el HTML semántico ya no es solo un tema de accesibilidad (aquí te dejo una guía que he hecho al respecto). Es el punto de anclaje para agentes, navegadores inteligentes, scraping ético y modelos de lenguaje. Cuanto más claro y coherente sea tu marcado, menos errores le causarás a este nuevo tipo de tráfico. No es opinión, me baso en evidencia y en un buen puñado de papers que demuestran cómo los sitios que siguen estándares de accesibilidad y usan HTML semántico ayudan a los agentes en grounding y en tareas de navegación agéntica.

Además, ya estamos viendo asociaciones entre agentes y empresas para acceder a sus datos via API y mejorar así la fiabilidad y velocidad de las respuestas. Ahí están los acuerdos de OpenAI y Perplexity con TripadvisorBooking o Uber. Tal y como ya comenté hace meses, que se pondría de moda ofrecer alternativas al scraping de estos bichos ya sea mediante APIs, feeds o datos estructurados (JSON, XML).

En este punto también entra en juego la especificación OpenAPI que sirve para describir y validar cómo se usan las APIs: qué endpoints hay, qué parámetros admiten, qué devuelven y qué errores pueden dar. Para los agentes, tener un contrato OpenAPI bien publicado significa poder ejecutar acciones de forma fiable y segura, más allá de simplemente leer el contenido de la página.

De hecho, OpenAPI ya lo usan en producción agentes como ChatGPT (en sus plugins y GPTs personalizados, donde el modelo necesita un esquema OpenAPI para saber qué endpoints puede llamar), Google (Gemini + APIs de Workspace ) o Anthropic (Claude con Tools / APIs externas). Y en paralelo, compañías como Stripe, Twilio, Shopify, Slack, Booking o Uber publican sus APIs en OpenAPI para que sean consumidas de forma segura, documentada y predecible. 

AX también implica seguridad

Pero hay otra dimensión, porque AX también implica seguridad. No sirve de nada que un agente complete bien una tarea si al mismo tiempo abre la puerta a un ataque mediante prompt injection. Brave lo ha demostrado con Comet (Perplexity), con un simple post en Reddit han podido engañar al agente para robar mails, OTPs y más. El otro día descubrí que ChatGPT podría estar empezando a protegerse de ello.

A día de hoy, la mejor forma de protegerse de estos ataques es no usar este tipo de navegadores. Son un riesgo.

El problema de la medición y los bloqueos tráfico agéntico

Detectar el tráfico agéntico hoy es un reto técnico bastante serio. Los métodos clásicos (user-agent, IP, ASN) no son fiables, porque muchos agentes:

  • Usan ASNs de terceros, como BrowserBase.
  • Cambian de IP constantemente o rotan encabezados.
  • Se hacen pasar por navegadores reales (por ejemplo, impersonando Chrome).

Este descontrol ya está generando conflictos, como el reciente caso Cloudflare vs Perplexity. Cloudflare los acusó de evadir robots.txt y simular ser tráfico humano. Perplexity respondió que esas llamadas eran realizadas por usuarios reales a través de servicios en la nube. ¿Quién tiene razón? Técnicamente, los dos. Y eso deja al descubierto el verdadero problema, que es que no existe un estándar fiable para autenticar bots y agentes.

Etiquetas: