Ciudad de México ,
Carlos Ortíz
Crédito foto: Sergio F Cara (NotiPress/Composición)
La misma inteligencia artificial que hoy ayuda a diseñar medicamentos y entender enfermedades podría, sin controles adecuados, facilitar la creación de patógenos peligrosos. Sin embargo, mientras estos modelos avanzan y se publican con creciente potencia, expertos advierten que existe un vacío de gobernanza: no hay evaluaciones formales de seguridad ni reglas claras sobre el acceso a los datos biológicos sensibles que los hacen posibles.
En un Foro de Políticas publicado en febrero de 2026 por la American Association for the Advancement of Science (AAAS), Doni Bloomfield y colaboradores analizaron la ausencia de marcos regulatorios adecuados para los datos biológicos utilizados en el desarrollo de inteligencia artificial avanzada.
Los sistemas de inteligencia artificial entrenados con datos biológicos han avanzado con rapidez y hoy permiten diseñar nuevas moléculas, predecir la estructura y función de proteínas, así como analizar conjuntos de datos biológicos extensos y complejos. Estas capacidades, de acuerdo con el análisis, han abierto nuevas vías para comprender la naturaleza y mejorar la salud humana mediante el uso de modelos computacionales de alto desempeño.
Sin embargo, los autores subrayan que estas mismas herramientas también pueden ser utilizadas con fines peligrosos. Entre los riesgos identificados se encuentra el diseño de patógenos dañinos y la generación de secuencias genéticas capaces de evadir controles de seguridad existentes. El estudio enfatiza que estos riesgos no son teóricos, sino reconocidos por la comunidad científica, dado el nivel de sofisticación alcanzado por los modelos actuales.
El Foro advierte que, pese a estos riesgos, la gobernanza vigente resulta insuficiente. Según el análisis, modelos cada vez más poderosos son puestos a disposición pública sin evaluaciones previas de seguridad, lo cual incrementa la posibilidad de usos indebidos. Esta situación se ve agravada por la falta de mecanismos específicos que regulen el acceso y uso de los datos biológicos empleados para entrenar estos sistemas.
Bloomfield y sus coautores destacan un vacío informativo en el debate público y regulatorio. Mientras gran parte de la atención se concentra en la regulación general de la inteligencia artificial, el control de los datos biológicos subyacentes recibe menor atención. El texto sostiene que estos datos constituyen un insumo crítico, ya que el acceso a conjuntos específicos y altamente sensibles puede facilitar el desarrollo de modelos con potencial de daño.
La gobernanza de datos biológicos podría abordarse mediante esquemas similares a los ya aceptados para la información genética personal, donde existen límites de acceso para proteger la privacidad sin detener la investigación científica. Bajo esta lógica, los autores proponen restringir únicamente un grupo reducido de datos sensibles relacionados con patógenos, manteniendo abierta la mayor parte de la información científica.
Este enfoque, indican, dificultaría que actores maliciosos obtengan los conjuntos de datos raros y costosos necesarios para entrenar modelos peligrosos, sin afectar de forma significativa a la investigación legítima. El análisis agrega que estas medidas serían más efectivas si se implementan junto con entornos digitales de investigación seguros.
El Foro también advierte sobre los riesgos de una supervisión excesiva. Para evitar abusos o controles burocráticos innecesarios, se propone que la comunidad científica tenga posibilidad de apelar clasificaciones de datos y que las agencias responsables garanticen procesos de revisión rápidos y transparentes.
"Formalizar un sistema de acceso a los datos permitiría a los investigadores examinar y desarrollar estos controles y daría a los científicos y a las empresas claridad en un entorno que actualmente es algo impredecible", escribieron los autores. Asimismo, señalaron: "Iniciar este trabajo también permitirá a los científicos y a los gobiernos aprender más sobre la naturaleza del riesgo de la IA y revisar los controles de acceso a los datos a la luz de evidencia tangible, en lugar de conjeturas".En plano de salud pública y seguridad, el texto expone que la ausencia de controles sobre datos biológicos sensibles puede ampliar los riesgos asociados al uso indebido de la inteligencia artificial. Al facilitar el desarrollo de aplicaciones con potencial para causar daños a gran escala si no existen salvaguardas adecuadas.