Exdirectivos de OpenAI acusan que la empresa debilitó sus controles de seguridad en IA

 07-05-2026
Patricia Manero
   
Portada | Negocios
Foto: Patricia Manero (NotiPress/Composición)

Foto: Patricia Manero (NotiPress/Composición)

El juicio relacionado con la demanda de Elon Musk contra OpenAI avanzó este jueves 7 de mayo de 2026 en un tribunal federal de Oakland, California. Exempleados y exintegrantes de la junta directiva señalaron que la compañía redujo sus prioridades en seguridad de inteligencia artificial mientras aceleraba el desarrollo y comercialización de productos.

Según recabó TechCrunch, durante la audiencia, Rosie Campbell, exintegrante del equipo de preparación para inteligencia artificial general de OpenAI, declaró que la organización cambió su enfoque interno conforme aumentó la presión comercial y el lanzamiento de herramientas de IA.

"Cuando me incorporé, la organización estaba muy centrada en la investigación y era habitual hablar de la IA general y de cuestiones de seguridad", afirmó Campbell. "Con el tiempo, se convirtió en una organización más centrada en el producto".

Campbell trabajó en OpenAI entre 2021 y 2024. Su equipo fue disuelto en el mismo periodo en que desapareció el equipo de Super Alineación, otra unidad enfocada en riesgos avanzados de inteligencia artificial.

La exempleada mencionó un incidente relacionado con el despliegue de una versión de GPT-4 en India a través del buscador Bing, operado por Microsoft, antes de que el Comité de Seguridad de Implementación evaluara el sistema. "Queremos contar con procesos de seguridad eficaces que sepamos que se siguen rigurosamente", señaló.

Durante el interrogatorio, Campbell reconoció que el desarrollo de inteligencia artificial avanzada requiere grandes inversiones económicas. No obstante, sostuvo que construir sistemas superinteligentes sin medidas adecuadas de seguridad no correspondía con la misión original de OpenAI.

El caso judicial impulsado por Musk busca demostrar que OpenAI abandonó su estructura y objetivos iniciales como laboratorio enfocado en beneficio público para transformarse en una empresa centrada en ganancias comerciales.

La audiencia también incluyó el testimonio de Tasha McCauley, exmiembro de la junta directiva de OpenAI, quien describió tensiones internas relacionadas con la gestión del director ejecutivo Sam Altman. "Somos una junta directiva sin fines de lucro y nuestro mandato era supervisar las empresas con fines de lucro que están bajo nuestra administración", declaró McCauley. "No teníamos ninguna confianza en que la información que se nos transmitía nos permitiera tomar decisiones con conocimiento de causa".

McCauley sostuvo que existían preocupaciones por la falta de transparencia de Altman respecto a decisiones estratégicas y posibles conflictos de interés. Entre los episodios mencionados estuvo el lanzamiento público de ChatGPT, del cual —según dijo— la junta no fue informada previamente.

La exdirectiva también afirmó que la crisis interna que llevó al despido temporal de Altman en 2023 ocurrió en medio de cuestionamientos sobre seguridad y gobernanza corporativa. Posteriormente, el director ejecutivo fue reinstalado tras el respaldo público de empleados y de Microsoft.

David Schizer, académico de la Universidad de Columbia y perito contratado por el equipo legal de Musk, señaló ante el tribunal que OpenAI había presentado la seguridad de IA como una parte central de su misión. "OpenAI ha recalcado que la seguridad es una parte fundamental de su misión y que la priorizarán sobre las ganancias", declaró.

El proceso judicial ocurre mientras crecen los debates globales sobre regulación, seguridad y supervisión de sistemas avanzados de inteligencia artificial. McCauley sostuvo que las fallas internas de gobernanza mostradas en el caso evidencian la necesidad de regulaciones gubernamentales más estrictas.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS