
Foto: Sergio F Cara (NotiPress)
A medida que la inteligencia artificial (IA) asume un papel más autónomo en las decisiones económicas, la confianza emerge como un factor determinante en la interacción entre personas y agentes digitales. Tal como advirtió el Premio Nobel Kenneth Arrow, toda transacción conlleva un componente de confianza, principio que hoy se traslada a un entorno dominado por algoritmos y modelos predictivos.
Estudios recientes han revelado que los niveles de confianza en las instituciones están en declive. Según el Barómetro de Confianza de Edelman, existe una creciente "crisis de agravios", donde el malestar social reduce significativamente la disposición a confiar en la IA, especialmente cuando es implementada por empresas o gobiernos. Las economías avanzadas, por ejemplo, registran menores índices de aceptación y confianza frente a las emergentes, de acuerdo con una investigación conjunta entre KPMG y la Universidad de Melbourne.
Este escenario coincide con un cambio estructural en los modelos de negocio. El Hype Cycle de Gartner prevé que, para 2028, un tercio de las aplicaciones empresariales incluirán agentes de IA, y al menos 15% de las decisiones laborales se ejecutarán sin intervención humana. Ante esta evolución, se plantea una cuestión central: ¿cómo construir una nueva forma de confianza en la economía agencial?
Para los expertos, el eje está en dos factores: competencia e intención. Mientras el rendimiento técnico de la IA es cada vez menos cuestionado, la intención detrás de sus decisiones sigue siendo un territorio incierto. Ejemplos como los vehículos autónomos, que operan con mayores márgenes de seguridad que los conductores humanos, generan desconfianza precisamente por la opacidad en los valores que determinan su comportamiento en situaciones críticas.
Desde una perspectiva de diseño, los agentes inteligentes deberán demostrar identidad persistente y coherencia en sus interacciones. La confianza se construye cuando hay consistencia, y se pierde si los sistemas actúan de forma errática o engañosa. De este modo, elementos como la memoria contextual y la transparencia en las motivaciones resultan esenciales.
Actividades con propósito
En entrevista con NotiPress, Rubén Mancha, profesor asociado en Babson College, afirmó que la IA representa un punto de inflexión que reconfigura los roles laborales al reemplazar tareas rutinarias. Esta transformación, explicó, podría liberar tiempo para que las personas se dediquen a actividades con propósito, fortalezcan sus vínculos personales y profundicen en aspectos intelectuales o filosóficos. "Tenemos que encontrar qué es lo que nos hace sentir completos e interactuar con otros entorno social y tener propósito. Es parte de ello".
Una analogía útil es el impacto que tuvo el uso masivo de los sistemas GPS en la orientación geográfica. Al delegar esta función a dispositivos, muchas personas perdieron la necesidad —y con ello, la práctica— de usar mapas o desarrollar sentido de ubicación. La inteligencia artificial podría seguir un camino similar: liberar a los humanos de ciertas tareas, al tiempo que redefine qué habilidades se desarrollan o se delegan. Este cambio afecta la eficiencia y el equilibrio entre automatización y crecimiento personal.
De fondo, se impone un reto más amplio: transformar los marcos institucionales, educativos y tecnológicos para que acompañen una economía basada en agentes digitales. Según Mancha, la IA también puede desempeñar un rol positivo en contextos educativos, ofreciendo acompañamiento personalizado y mayor acceso a contenidos en regiones con baja cobertura.
Me gusta pensar que los agentes de IA tienen el potencial de convertirse en maestros personalizados al impartir conocimientos con sentido para los aprendices. En casos de personas neurodivergentes con configuraciones mentales que difieren de una mayoría de la sociedad, esto es clave. Por ejemplo, ayudar a un alumno con hiperfoco en estudiar algo puntual y momentáneo u ofrecer a una persona con autismo herramientas para equilibrar desbalances dado su nivel de sensibilidad.
La irrupción de la IA en la vida cotidiana requiere nuevos estándares éticos, regulatorios y de gobernanza. Según Sequoia Capital, el liderazgo en esta nueva economía dependerá del desarrollo tecnológico como también de la capacidad para entender las limitaciones de los agentes y establecer mecanismos de rendición de cuentas. Sin embargo, también puede verse a la IA como una oportunidad para desarrollar más consciencia y mermar las regulaciones públicas de los países. Con ello, alcanzar una madurez ética como sociedad, que se oriente a una vida con propósito de evolución y en conexión con el universo. Un ejemplo de ello son los deepfakes verdes, donde se debate entre regulación y consciencia. Más consciencia, menos regulaciones y con ello menos impuestos, más bienestar. Suena lógico pero la política -en general- rechaza la idea por su incapacidad transformadora.
A medida que el mundo avanza hacia una economía de agentes de IA, la confianza será una arquitectura sistémica construida en torno a entidades digitales. La forma en que se diseñen, gobiernen y comuniquen estos sistemas marcará la diferencia entre una era de progreso compartido y un entorno fragmentado por la desconfianza. Pero claro, siempre que interprete desde la cara de la moneda un mundo con más consciencia y menos automatización zombie.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS