La GenAI gana popularidad en el Marketing, pero aún no se salta la supervisión humana

Equipos adoptan GenAI de forma masiva, pero mantienen control humano en cada decisión

Aunque 85% de los marketers emplea GenAI en su trabajo diario, apenas 5% confía en dejar decisiones sin validación humana, revela SAS

La adopción de inteligencia artificial generativa dentro del sector marketing dejó de ser marginal. Sin embargo, el nivel de confianza sigue siendo limitado. Aunque 85% de los equipos de marketing utiliza GenAI en sus procesos, solo 5% confía plenamente en que la IA opere sin supervisión humana, de acuerdo con un reporte de SAS compartido con NotiPress el 27 de enero.

Este contraste define una brecha clara entre uso técnico y aceptación organizacional. Las herramientas basadas en modelos de lenguaje ya participan en generación de contenido, análisis de tendencias y segmentación de audiencias. Aun así, la mayoría de las organizaciones mantiene mecanismos de control humano antes de ejecutar cualquier decisión relevante. Casi la mitad de los marketers exige aprobación humana en cada acción impulsada por IA, incluso cuando existen resultados positivos de retorno de inversión.

Durante el segundo semestre de 2025, el estudio de SAS, Marketers and AI: Navigating New DepthsNavigating Depths, analizó a 300 organizaciones de distintas regiones y sectores. Los resultados muestran un avance del uso de GenAI más rápido frente al nivel de confianza interna. El documento indica un 90% de equipos con confianza en la IA solo "hasta cierto punto", siempre bajo esquemas de supervisión humana.

Uno de los factores centrales detrás de esta cautela es el riesgo reputacional. Equipos de marketing operan en entornos visibles, donde un error automatizado puede impactar marcas, audiencias o cumplimiento normativo. El mismo reporte identifica preocupaciones recurrentes relacionadas con sesgos, explicabilidad de resultados y gobernanza interna. Estos temores no se asocian a fallas técnicas inmediatas, sino a consecuencias organizacionales difíciles de revertir.

En paralelo, la discusión sobre agentes de inteligencia artificial refuerza este enfoque prudente. El reporte "Los agentes de IA ya están aquí, pero ¿cuán autónomos deberían ser?" señala que los sistemas autónomos pueden planificar, decidir y ejecutar tareas con mínima intervención humana, aunque el nivel de autonomía incrementa la complejidad de la rendición de cuentas. El texto advierte que, a mayor autonomía, mayor necesidad de marcos éticos, transparencia y control humano explícito.

Dentro del marketing cotidiano, este enfoque se traduce en esquemas conocidos como "human-in-the-loop". Bajo este modelo, la IA propone, analiza o ejecuta acciones preliminares, mientras personas revisan, validan o corrigen resultados antes de su aplicación final. Según el reporte, 48% de los marketers considera indispensable revisar cada decisión generada por IA, sin excepción.

Además, la baja confianza total tampoco responde a una falta de beneficios. Ocho de cada diez equipos reportan retorno de inversión positivo gracias a GenAI, con mejoras en personalización, eficiencia operativa y análisis de datos. No obstante, solo una minoría cuenta con marcos de gobernanza sólidos. Menos de 10% describe su estructura de control de IA como bien establecida y completa, según SAS.

Este escenario sugiere que la desconfianza no es tecnológica. El reto principal reside en la cultura organizacional, los procesos internos y la definición clara de responsabilidades. Sin lineamientos compartidos, la autonomía plena de la IA resulta inviable, incluso con resultados medibles.