OpenAI busca transparencia y mostrar confianza en seguridad y protección sin Sam Altman

 18-09-2024
Axel Olivares
   
Portada | Negocios
Foto: Sergio F Cara (NotiPress/Composición)

Foto: Sergio F Cara (NotiPress/Composición)

OpenAI está transformando el comité de Seguridad y Protección para que haga recomendaciones sobre decisiones críticas en la materia. Esta iniciativa se está llevando a cabo con la ayuda de un grupo de supervisión independiente, el cual realizó una revisión de 90 días de los procesos y salvaguardas relacionados con la seguridad y protección, formulando recomendaciones a la Junta en pleno. El nuevo organismo no cuenta con la participación del CEO de la compañía, Sam Altman.

A partir de un análisis exhaustivo de los criterios de seguridad que OpenAI, el comité planteó una serie de recomendaciones en cinco áreas clave. La empresa aseguró que trabajarán en los sectores señalados para mejorar las prácticas de gobernanza, seguridad y protección. El comité también analizó la idoneidad en materia de seguridad de OpenAI o1 para su lanzamiento.

En primer lugar, el comité sugiere establecer una gobernanza independiente para la seguridad y la protección. Esta misma estará presidida por Zico Kolter, director del Departamento de Aprendizaje Automático de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon, e incluirá a Adam D'Angelo, cofundador y director ejecutivo de Quora, el general retirado del ejército de EE. UU. Paul Nakasone y Nicole Seligman , exvicepresidenta ejecutiva y asesora general de Sony Corporation. Su trabajo será supervisar los lanzamientos de modelos y tendrán la autoridad para retrasar un lanzamiento hasta que se aborden los problemas de seguridad.

Por otro lado, el comité buscará una mayor segmentación de la información interna, más personal para profundizar los equipos de operaciones de seguridad las 24 horas y una inversión continua en iniciativas en curso para mejorar la seguridad de la infraestructura de investigación y productos de OpenAI. A su vez, estará encargado de identificar oportunidades adicionales para la colaboración y el intercambio de información en la industria con el fin de mejorar la seguridad de la industria de la IA.

Otro de los objetivos será mejorar la comunicación. Se buscarán nuevas formas de compartir y explicar nuestro trabajo de seguridad. Además, se explorarán nuevas oportunidades para realizar pruebas independientes de los sistemas y así, liderar en los estándares de seguridad en toda la industria.

Para cumplir con estas metas, el organismo también sostiene que se requerirá la unificación de los equipos de toda la organización. A medida que la empresa creció a niveles descomunales, se volvió cada vez más necesario un marco de seguridad integrado. Ese marco se basará en evaluaciones de riesgos y será aprobado por el Comité de Seguridad. Para eso, recomiendan reorganizar los equipos de investigación, seguridad y políticas para fortalecer la colaboración y garantizar conexiones más estrechas.

La decisión de omitir a Altman se debe al intento de la firma de abordar las preocupaciones sobre seguridad a partir de otro sistema estructural. De acuerdo con Helen Toner y Tasha McCauley, exmiembros de la junta directiva de OpenAI, la estructura actual de control no garantiza la seguridad amplia de los productos. Ambos aseguran que el "autogobierno" no puede soportar la presión de los incentivos de lucro. Con esta operación, la valoración privada de la firma podría superar los 150,000 millones de dólares y la empresa podría abandonar su estructura corporativa sin fines de lucro y adoptar un modelo de negocio totalmente comercial.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS