por Anthony Katsur - Chief Executive Officer at IAB Tech Lab
La industria publicitaria se encuentra en un punto de inflexión. Los grandes modelos lingüísticos, las arquitecturas transformadoras y los avances en la computación GPU están cambiando radicalmente la forma en que conectamos a los anunciantes con el público a través de agentes autónomos o semiautónomos que facilitan el descubrimiento, la planificación y la compra de medios, entre otras funciones.
Hablé de esta evolución en mi discurso inaugural en la cumbre IAB Tech Lab Summit el pasado mes de junio y no he dejado de pensar en ello desde entonces. Es emocionante. Pero, en medio de la emoción, corremos el riesgo de perder de vista lo más importante: los componentes a los que este ecosistema está destinado a servir.
Antes de ampliar nuestra infraestructura para un futuro basado en la IA, debemos plantearnos las preguntas adecuadas. No «¿cómo podemos automatizar más la publicidad?», sino «¿qué necesitan realmente las personas que forman parte de este ecosistema y cómo puede la IA ayudarnos a satisfacer mejor esas necesidades?».
Toda innovación en tecnología publicitaria debe evaluarse en función de su capacidad para satisfacer cuatro necesidades fundamentales:
Una vez aclarado este punto, la pregunta es: ¿cómo pueden la IA y los sistemas agenticos ayudarnos a satisfacer mejor estas necesidades?
La respuesta no es «automatizarlo todo y eliminar a los humanos del proceso». La respuesta es: lubricar los puntos de fricción que impiden que el valor fluya entre estas partes interesadas.
Pensemos en lo que ocurre hoy en día cuando un planificador de medios quiere lanzar una campaña de CTV. Tiene un profundo conocimiento de los clientes de su marca, adquirido a lo largo de años de correo directo, programas de fidelización y datos propios. Ha segmentado cuidadosamente esta base de datos. Ha elaborado un informe detallado sobre cómo quiere llegar a nuevos clientes.
Ahora necesitan hacer coincidir esta intención con el inventario del editor. Utilizarán DSP para acceder a datos demográficos. Seleccionarán programas, aplicaciones y canales que crean que llegarán a su público objetivo. Llevarán a cabo la campaña, analizarán paneles de control tabulares, volverán a segmentar en función de lo que funcione y repetirán el proceso.
Cada paso implica un esfuerzo manual, la traducción de datos y la pérdida de información. El resumen que tiene en mente el planificador no se traduce completamente en los parámetros de segmentación disponibles en el DSP. El rico contexto sobre el contenido de un editor no se refleja completamente en los feeds de inventario estandarizados. El ciclo de retroalimentación entre el rendimiento de la campaña y los conocimientos de planificación es lento y con pérdidas.
Un agente con un profundo conocimiento del inventario de los editores, las taxonomías de la audiencia y el contexto del contenido puede ayudar a ajustar la intención del anunciante con la oportunidad de forma mucho más precisa. Las interfaces de lenguaje natural pueden captar matices que los menús desplegables no pueden. Los LLM pueden revelar conexiones entre los segmentos de clientes de una marca y la composición de la audiencia de un editor que a los humanos les llevaría semanas descubrir.
Pero aquí está la idea fundamental: esta creación de valor depende por completo de unos estándares precisos y deterministas que la sustentan.
Cuando los seres humanos están al tanto de cada paso, la ambigüedad se puede resolver mediante el juicio, la conversación y la intuición. Cuando los agentes coordinan flujos de trabajo complejos en múltiples sistemas, la ambigüedad se convierte en algo catastrófico.
Imaginemos un agente que negocia un acuerdo programático entre tres SSP diferentes. Si cada SSP representa el «inventario de video» de forma diferente, con definiciones sutilmente incompatibles de los métodos de reproducción, la medición de la visibilidad o las categorías de contenido, el agente fracasará silenciosamente o producirá resultados que nadie deseaba.
Ya hemos visto lo que ocurre cuando los sistemas de IA operan sin una base determinista: alucinan. Confunden conceptos. Generan tonterías que suenan convincentes. En publicidad, esto se traduce en difuminar las audiencias, tergiversar las ubicaciones, clasificar erróneamente los contenidos y crear oportunidades para el fraude a gran escala. Las definiciones compartidas, las interfaces transparentes y la gobernanza aplicable permiten la confianza y la responsabilidad. Y la confianza debe estar integrada en los sistemas agenticos.
La solución no es ralentizar la adopción de la IA. La solución es garantizar que los sistemas agenticos se basen en modelos de objetos y taxonomías que proporcionen precisión semántica. Cuando un agente dice «impresión de video con reproducción automática sin sonido en un sitio web de noticias que llega a adultos de entre 25 y 54 años interesados en la cocina», cada término de esa frase debe resolverse con una definición específica y acordada por el sector.
Por eso, el enfoque de IAB Tech Lab sobre el futuro de los agentes se basa en los estándares actuales del sector. No es porque seamos reacios al cambio, sino porque estos estándares representan el conocimiento condensado del sector, perfeccionado a través de miles de millones de transacciones.
Todo ello se une gracias a las taxonomías estandarizadas de Tech Lab, incluidas nuestras taxonomías de audiencia, contenido y privacidad, que proporcionan un lenguaje común para describir a qué audiencia se dirige, en qué contexto (sus parámetros de segmentación), al tiempo que garantizan el cumplimiento de la privacidad cuando los agentes intercambian y comparan los datos de los consumidores.
Es fundamental destacar que todos ellos comparten en gran medida los mismos modelos de objetos subyacentes. Una impresión de video significa lo mismo tanto si se está ejecutando una puja en tiempo real como si se está configurando un acuerdo programático garantizado. Esta coherencia semántica es precisamente lo que los agentes necesitan para operar de forma fiable en una gran variedad de flujos de trabajo.
La capa de innovación, donde se producen el descubrimiento, la negociación y la coordinación, puede construirse sobre protocolos como A2A (Agent2Agent), que proporciona coordinación agencial de primitivas, o MCP (Model Context Protocol), que proporciona una interfaz estandarizada para que la IA acceda de forma sincrónica a herramientas y fuentes de datos dentro de una única sesión o contexto de aplicación. El término «contexto de aplicación» es fundamental aquí, ya que estas capas de coordinación deben hacer referencia a los esquemas y objetos de dominio ampliamente adoptados y acordados que la industria ya ha definido y que se utilizan activamente en miles de aplicaciones publicitarias en la actualidad, en lugar de reinventarlos.
Piénsese en los mercados financieros. El comercio de alta frecuencia no requirió redefinir qué es una acción o qué significa una operación. Requirió una infraestructura de ejecución más rápida construida sobre definiciones establecidas. Los operadores algorítmicos más sofisticados del mundo se basan en modelos de objetos estándar. Simplemente operan con ellos de forma más rápida y con mayor inteligencia. Y el aprendizaje profundo en el comercio de alta frecuencia no es solo para los operadores intradía; los mayores inversores institucionales del mercado de servicios financieros aprovechan océanos de datos de transacciones y computación de IA a gran escala para comprender mejor sus inversiones a largo plazo y tomar decisiones de inversión a largo plazo.
Sigue leyendo la columna de Anthony Katsur en https://www.linkedin.com/pulse/agentic-future-advertising-built-first-principles-ai-anthony-katsur-gk5we/
Te presentamos las últimas noticias del marketing digital nacional, de nuestros socios y de la industria mundial.