Foto: Sergio F Cara (NotiPress)
OpenAI, la empresa detrás de tecnologías como ChatGPT, está financiando un proyecto académico que explora el desarrollo de algoritmos capaces de predecir juicios morales humanos. La iniciativa, liderada por investigadores de la Universidad de Duke, forma parte de una subvención de tres años y un millón de dólares destinada al estudio de la creación de una inteligencia artificial moral, según informó la organización en una presentación ante el IRS.
Walter Sinnott-Armstrong, profesor de ética práctica en Duke, y Jana Borg, coinvestigadora del proyecto, trabajaron en estudios previos que plantean el uso de la IA como un "GPS moral" para apoyar la toma de decisiones en áreas sensibles como la medicina, el derecho y los negocios. Aunque los detalles del estudio financiado por OpenAI aún no se han revelado completamente, el objetivo es entrenar algoritmos para abordar conflictos éticos complejos, como la asignación de recursos médicos o dilemas empresariales, refirió Techcrunch.
Desafíos de una IA moral
La tarea de crear una IA que emule la moralidad humana enfrenta múltiples obstáculos. En el pasado, intentos similares, como la herramienta Ask Delphi del Instituto Allen de Inteligencia Artificial, mostraron limitaciones evidentes. Aunque esta herramienta podía juzgar dilemas éticos simples, su capacidad para emitir juicios consistentes colapsaba ante preguntas reformuladas o escenarios más complejos.
Esto se debe a que los sistemas de IA actuales, basados en modelos estadísticos, carecen de un entendimiento intrínseco de la ética, el razonamiento y las emociones humanas. Los algoritmos tienden a replicar los sesgos presentes en sus datos de entrenamiento, dominados por puntos de vista occidentales e industrializados, y no reflejan necesariamente la diversidad global de valores.
Además, la moralidad es subjetiva y cambia según contextos culturales, sociales y filosóficos. Mientras algunos sistemas de IA tienden hacia marcos éticos como el utilitarismo, otros priorizan perspectivas kantianas. Sin embargo, no existe consenso universal sobre cuál de estas teorías es superior, lo que complica la posibilidad de un modelo ético aplicable a todos los contextos.
El proyecto financiado por OpenAI plantea interrogantes sobre la capacidad real de la IA para abordar problemas éticos sin amplificar sesgos ni simplificar excesivamente dilemas complejos. Aunque la idea de algoritmos "moralmente alineados" es prometedora, expertos advierten que el diseño de sistemas éticos universales para la IA podría ser inalcanzable. De hecho, Elon Musk fue crítico con OpenAI al afirmar que el principal sesgo del entrenamiento de esta IA consume ideologías "Woke" y está alineado con el "progresismo" y el socialismo moderno.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS