Sin ética, no hay innovación: alertan riesgos de implementar IA sin políticas claras

 24-07-2025
Carlos Ortíz
   
Foto: Sergio F Cara (NotiPress/Composición)

Foto: Sergio F Cara (NotiPress/Composición)

El 76% de los líderes en Recursos Humanos considera que sus organizaciones perderán ventaja competitiva en menos de dos años si no adoptan herramientas de inteligencia artificial. Sin embargo, expertos declaran que no se trata sólo de incorporar esta tecnología, sino de hacerlo con estructura, ética y empatía, mediante políticas internas que definan límites claros y prácticas responsables.

Con base en el estudio "Market Research 2025", compartido con NotiPress, el 34% de las empresas en México y América Latina identifica la automatización de procesos en Recursos Humanos como una de las principales tendencias laborales.

Para Haydeé Jaime, Content Strategy Manager de Pandapé, "la verdadera urgencia no está en usar IA, sino en hacerlo con estructura y responsabilidad". Añadió que sin reglas claras, estas herramientas pueden amplificar sesgos o vulnerar la privacidad del personal.

En este contexto se proponen tres claves para construir una política interna efectiva:

1. Identificar riesgos y desmitificar funciones: La IA puede automatizar tareas como redactar vacantes o enviar notificaciones, pero dejar decisiones como el filtro de candidatos o el análisis emocional a algoritmos no supervisados puede resultar sesgado o poco ético. Por ello, recomiendan auditar cada herramienta junto con áreas de TI, legal y cumplimiento.

2. Establecer principios y límites prácticos: Su política debe definir qué datos se usan, qué procesos requieren revisión humana y cómo se protege la privacidad. "La IA puede sugerir promociones o despidos, pero si no hay contexto, puede ser injusto para quienes están detrás de esos datos", subrayó Jaime. También señaló que en México el ghosting laboral afecta a 48% de los reclutadores, por lo que automatizar el contacto con candidatos puede ser útil, siempre que se mantenga la empatía.

3. Evaluar, revisar y comunicar: Esas políticas deben actualizarse de manera constante y comunicar con claridad al personal cómo se implementan las herramientas de IA. Esto incluye explicar qué decisiones están automatizadas y cuáles siguen bajo supervisión humana, para evitar incertidumbre y fomentar la confianza organizacional.

Finalmente, Jaime concluyó que "una Inteligencia Artificial sin supervisión es como una caja negra. Y lo que hoy parece una solución, mañana puede ser una crisis de reputación". En este sentido, la ética tecnológica ya no es un valor agregado, sino parte de una estrategia de negocio centrada en el talento humano.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS