Foto: Sergio F Cara (NotiPress/Composición)
En un mundo cada vez más digitalizado, la inteligencia artificial generativa (GenAI) avanza a un ritmo vertiginoso, revolucionando industrias y redefiniendo procesos en sectores clave. Sin embargo, sus capacidades también están siendo utilizadas para fines menos éticos, como el diseño de fraudes que explotan las emociones humanas. La inteligencia emocional (IE), que implica reconocer, comprender y gestionar nuestras emociones, se ha convertido en una herramienta fundamental para mitigar los riesgos asociados a estas amenazas.
Un caso reciente en Canadá expuso cómo un fraude impulsado por GenAI logró engañar a una mujer de 75 años simulando la voz de su nieto en una llamada angustiante. El estafador, apelando a emociones como el miedo y la urgencia, consiguió que la víctima entregara dinero en cuestión de horas. Situaciones similares se multiplican en el ámbito empresarial, donde directivos fueron objetivo de deepfakes que imitan a sus superiores para obtener información confidencial o transferencias de dinero.
Dichos estudios revelan que hasta el 74% de las violaciones de datos están vinculadas a errores humanos, muchas veces causados por manipulaciones emocionales. En este contexto, la inteligencia emocional emerge como un escudo para prevenir reacciones impulsivas y fomentar respuestas informadas.
La inteligencia emocional como defensa ante amenazas de IA
La inteligencia emocional es clave para enfrentar tres riesgos principales de GenAI:
- Manipulación emocional deliberada: GenAI puede explotar respuestas humanas como la compasión o la urgencia, utilizando datos personales para diseñar mensajes persuasivos y fraudes personalizados.
- Riesgos éticos y sesgos automatizados: La eficiencia de la IA puede llevar a decisiones impulsivas, priorizando resultados rápidos sobre la ética o las implicaciones sociales.
- Tensión emocional en el trabajo: La presión causada por las interacciones con IA puede generar decisiones apresuradas, con consecuencias negativas para las personas y las organizaciones.
Cómo aplicar la inteligencia emocional frente a amenazas
- Educación para detectar manipulaciones: Las empresas deben formar a sus equipos para identificar situaciones en las que las emociones puedan ser utilizadas como arma. Talleres que enseñen a detectar patrones de manipulación y simulaciones prácticas pueden mejorar esta habilidad.
- Fomentar la reflexión crítica: Reflexionar sobre cómo las emociones influyen en las decisiones puede ayudar a evitar respuestas impulsivas. Ejercicios grupales, como la técnica de la "mosca en la pared", permiten analizar escenarios de IA desde múltiples perspectivas, revelando riesgos éticos y mejores prácticas.
- Establecer respuestas deliberadas: Convertir reacciones inmediatas en respuestas reflexivas requiere una cultura laboral que permita cuestionar instrucciones y expresar dudas sin temor. Respuestas como solicitar confirmaciones adicionales o posponer decisiones hasta verificar los datos pueden prevenir manipulaciones.
Si bien las herramientas tecnológicas avanzadas, como FakeCatcher de Intel, prometen ayudar a identificar contenido generado por IA, la precisión y adopción de estas soluciones aún no son suficientes para garantizar una protección integral. En este escenario, la inteligencia emocional se podría posicionar como una fortaleza indispensable, complementando la tecnología con habilidades humanas únicas para detectar y contrarrestar amenazas.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS