Headless browsing: el tráfico fantasma que puede reordenar la economía del open w
Durante años, el headless browsing fue una herramienta de nicho para pruebas de QA o automatizaciones de SEO. La novedad en 2025 es que los agentes de IA lo han convertido en una capa operativa del día a día: sistemas que abren páginas, hacen scroll, interactúan con formularios y extraen contenido sin mostrarle nada al usuario final. En lugar de identificarse como bots con su user-agent propio, muchas de estas sesiones se presentan como visitantes estándar (por ejemplo, Chromium). El resultado para un Publisher es una paradoja incómoda: el tráfico automatizado se parece al tráfico humano justo en las señales que alimentan la analítica y la monetización.
En la práctica, esto supone que la cadena de valor: crawl → render → ad call → medición, empieza a recibir impulsos de sesiones que no responden a un comportamiento humano, aunque lo imiten con solvencia. Y ahí está el giro económico: si parte de esas sesiones disparan llamadas publicitarias y consumen recursos de servidor, la mezcla humano/no humano contamina KPIs críticos (RPM por sesión, viewability, attention, frequency capping, post-bid). Los anunciantes perciben ruido en la señal; los traders ajustan precios y, con ello, los CPM’s efectivos terminan bajo presión. No es una historia de ciencia ficción, es una historia de contabilidad del tráfico.
En el origen de esta ola hay nuevos interfaces: navegadores impulsados por IA o agentes que orquestan tareas completas. Te sonarán Comet (Perplexity), Dia (Browser Company of New York) y Project Mariner (Google) como ejemplos de este enfoque centrado en agentes. También circulan rumores sobre iniciativas similares en otros actores.
Las implicaciones para un Publisher son tres. La primera es transparencia: no se puede gobernar lo que no se ve. Si la analítica no distingue con fiabilidad el origen y la naturaleza de las sesiones, cualquier decisión de producto o de yield se vuelve frágil. La segunda es economía: servir páginas a agentes de IA tiene un coste que no siempre se compensa con ingresos, y que además puede erosionar métricas que sostienen la venta programática. La tercera es poder: si el punto de entrada del usuario se desplaza hacia agentes propietarios integrados en navegadores o plataformas, el estándar de facto, qué se muestra, cómo se mide y quién cobra, se redefine fuera del perímetro del publisher.
Distinto del bot clásico, el headless moderno ejecuta JavaScript, resuelve navegaciones, simula eventos y varía huellas. Cuando además opera desde IP’s residenciales (por ejemplo, orquestando la petición desde el propio dispositivo del usuario), las defensas basadas en user-agent o filtrado de ASNs de centro de datos pierden dientes. Algunos informes sectoriales han observado un aumento notable en bloqueos a bots de IA y un cambio en la relación visitas humanas/visitas de agentes.
Para los publishers, la prioridad no es “bloquear todo”, una promesa que nadie serio debería vender, sino recuperar el control. Esto empieza en el edge: etiquetar sesiones con señales server-side (huellas de ejecución headless, patrones de timing, discrepancias en APIs del navegador) antes de liberar recursos caros o de exponer ad slots. Continúa en el modelo de monetización: si ciertas rutas de suministro concentran sesiones de riesgo, hay que desmonetizarlas aguas arriba (no después) y mover la demanda hacia supply paths con mayor garantía de calidad y de verificación. Y culmina en el producto comercial: menos empaquetados genéricos y más deals con SLAs verificables (latencia máxima, viewability/attention floors, límites de frecuencia y políticas de remedy si se supera un umbral de tráfico no humano).
Para el buy-side, el reto es simétrico. Atribuciones last-click o post-view que ingieren inventario con mezcla incierta trasladan el sesgo al ROAS. Los anunciantes que operan con modelos incrementales o con data clean rooms necesitan SIVT-adjusted delivery por supply path, y una gobernanza del inventario donde el filtro se aplique antes del ad call. Cualquier otra cosa es trasladar el coste al final de la tubería y llamarlo “optimización”.
Conviene además no perder de vista la política de estándares. La conversación sobre headless se suele dar en foros de seguridad y anti-fraude, pero su desenlace práctico se decidirá en la mesa donde se fijan defaults técnicos: qué acepta un Ad Server por defecto, cómo etiqueta un wrapper, qué manda una CMP, cómo valida un verificador. La industria conoce este patrón: quien controla el default controla la renta. Si los agentes de IA quedan integrados en navegadores y buscadores, y estos definen unilateralmente cómo “deben” consumir contenido y disparar mediciones, el open web volverá a vivir una fase de regulación por interfaz. No es la primera vez.
¿Qué hacer en los próximos 90 días sin teatralidad? Primero, medir con intención: un tablero interno que muestre la mezcla humano/no humano por canal, su impacto en fill, CPM y coste de servir, y la fracción de ad calls descartadas a nivel edge. Segundo, ajustar rutas: si parte de la demanda entra por caminos con peor higiene (resellers opacos, latencias altas, verificación débil), hay que reequilibrar supply path hacia marketplaces editoriales o rutas con net CPM demostrablemente superior tras limpieza. Tercero, contratar con precisión: SLAs con verificadores que incluyan métricas por path y reportes de filtrado; y donde tenga sentido licencias de contenido con proveedores de IA que establezcan acceso, rate limits, reporting y compensación. Nada de esto “garantiza” resultados (evitemos esa palabra), pero sí alinea incentivos y acota el riesgo.
Queda una última reflexión, más incómoda. La batalla técnica es necesaria, pero no sustituye la política industrial. Si los agentes de IA se consolidan como nueva capa de intermediación del tráfico y todo indica que esa es la dirección, los medios tendrán que decidir si quieren pelear la fricción caso a caso o comprar influencia donde se deciden los estándares: grupos de trabajo, políticas de crawling/licensing, acuerdos de interoperabilidad. Es menos vistoso que anunciar un nuevo blocker, pero más eficaz para proteger márgenes a tres años vista.