
Foto: Unsplash
Un equipo de investigadores de la Universidad de Waterloo desarrolló un sistema que permite a una inteligencia artificial (IA) verificar la seguridad de otra. Mediante el uso conjunto de redes neuronales y herramientas matemáticas, los científicos buscan garantizar que tecnologías complejas, como redes eléctricas y vehículos autónomos, funcionen de forma segura y estable.
A medida que la inteligencia artificial asume funciones críticas en infraestructura y transporte, aumenta la necesidad de asegurar que estas tecnologías actúen dentro de márgenes seguros. Frente a este desafío, el grupo liderado por el Dr. Jun Liu recurrió a ecuaciones diferenciales para modelar el comportamiento dinámico de los sistemas físicos. Según el académico, "siempre que se trabaja con un sistema dinámico —algo que cambia con el tiempo, como un vehículo autónomo o una red eléctrica— se puede modelar matemáticamente usando ecuaciones diferenciales".
Para predecir si estos sistemas alcanzarán un estado seguro, los científicos utilizaron la función de Lyapunov, una herramienta matemática que permite evaluar su estabilidad. Sin embargo, el Dr. Liu advirtió: "encontrar la función suele ser una tarea notoriamente difícil". Por ello, su equipo implementó una red neuronal capaz de aprender las condiciones necesarias para identificar funciones de Lyapunov válidas, replicando así el razonamiento que normalmente emplean los ingenieros.
El sistema no solo aprende estas reglas matemáticas, además cuenta con una segunda capa de verificación. Se trata de un componente lógico que analiza si las funciones generadas por la IA cumplen con los criterios necesarios. "Las redes neuronales aprenden pruebas matemáticas de seguridad y, a veces, incluso diseñan los propios controladores, mientras que un sistema basado en la lógica verifica que dichas pruebas sean correctas", explicó Liu.
Dicho enfoque permite dividir las tareas: por un lado, una IA genera soluciones y, por otro, otra IA las revisa con razonamientos matemáticos rigurosos. El sistema busca reducir la carga de trabajo humano en procesos computacionalmente intensivos, sin eliminar la supervisión. "Para ser claros, nadie intenta crear fábricas o sistemas controlados completamente por IA sin intervención humana", afirmó el investigador. "Hay áreas como la ética que siempre se guiarán por el criterio humano".
Según los desarrolladores, esta tecnología fue probada en diversos entornos de control complejos, donde su desempeño igualó o superó a métodos tradicionales. Actualmente, el equipo trabaja en convertir este sistema en una herramienta de código abierto y evalúa colaboraciones con el sector industrial para aplicar el modelo en contextos reales.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS