Ciudad de México,
Sergio F Cara
Crédito foto: Twitter @VP
Kamala Harris, vicepresidente de Estados Unidos enfatizó el "deber ético y moral" que tienen las empresas líderes en inteligencia artificial (IA) de proteger a la sociedad de los posibles peligros que esta tecnología conlleva. Durante una reunión en la Casa Blanca con directivos de Google, Microsoft, Open AI, Anthropic y miembros del poder Ejecutivo, Harris destacó que el sector privado tiene la responsabilidad de garantizar la seguridad de sus productos.
Harris reconoció que si bien la IA tiene el potencial de mejorar la vida cotidiana y abordar desafíos importantes, también puede plantear amenazas a la seguridad, así como reducir los derechos humanos, la privacidad y socavar la confianza pública en la democracia. Tanto ella como el presidente Joe Biden respaldan la implementación de nuevas regulaciones y legislaciones para abordar estos problemas. "Es imperativo mitigar los riesgos actuales y potenciales que la inteligencia artificial representa para las personas, la sociedad y la seguridad nacional", destacó un comunicado al que tuvo acceso NotiPress.
La presencia de la inteligencia artificial en la vida diaria se ha vuelto cada vez más evidente, desde las redes sociales hasta los electrodomésticos de alta gama y los programas de reclutamiento de personal. Los riesgos asociados van desde la discriminación hasta la automatización de tareas humanas, el robo de propiedad intelectual y la propagación de desinformación a gran escala.
El lanzamiento exitoso de ChatGPT, la interfaz de IA generativa de OpenAI, despertó entusiasmo y preocupación, en particular, cuando Sam Altman, director de OpenAI, anticipó una próxima generación de IA "general", en la que los programas serían "más inteligentes que los humanos en general".
La Casa Blanca ha mostrado interés en abordar estos desafíos y ha publicado un "Plan para una Declaración de Derechos de la IA", así como un "marco para la gestión de riesgos" diseñado por el Instituto Nacional de Estándares y Tecnología (NIST).
Aunque las empresas de IA reconocen los riesgos, también expresan preocupación de que regulaciones excesivamente restrictivas puedan frenar la innovación. Mientras tanto, en Europa, se espera que el continente lidere la regulación de la IA, siguiendo el ejemplo de la ley de protección de datos personales. Elon Musk recomendó la regulación de la inteligencia artificial en varias oportunidades y advirtió sobre el mal uso que esta tecnología podría tener.
Para Kamala Harris es crucial que las empresas líderes en inteligencia artificial asuman la responsabilidad ética y moral de proteger a la sociedad de los peligros potenciales de esta tecnología. Su llamado se produce en medio de preocupaciones sobre los riesgos asociados con la IA y la necesidad de establecer regulaciones adecuadas para abordarlos.