Ciudad de México,
A Amigon
Crédito foto: NordWood Themes en Unsplash
Gran parte de los dispositivos y servicios que se utilizan hoy en día ocupan grandes innovaciones tecnológicas que mejoran por mucho su uso. Al buscar este tipo de innovaciones, un equipo del Instituto Tecnológico de Massachusetts (MIT) creó un software-hardware en sistema de aprendizaje de idiomas llamado SpAtten. Mediante esta tecnología las computadoras pueden adaptar los procesos con los cuales analizan el lenguaje, mejorando las predicciones de búsqueda en Internet o los comandos de voz.
Como un adelanto a su presentación en el IEEE Simposio Internacional sobre Arquitectura Informática de Alto Rendimiento, el equipo presentó parte de su investigación. Su creación busca innovar los algoritmos del procesamiento natural del lenguaje (NPL) con menos potencia de cálculo.
Estos algoritmos permiten identificar las palabras clave en comandos de búsqueda facilitando la predicción, llamados "mecanismos de atención" en el medio. SpAtten se compone de un software avanzado que reconoce las palabras clave y elimina las demás, aumentando la productividad y velocidad de estos mecanismos de atención.
Asimismo, SpAtten es un sofisticado hardware para asegurar el buen funcionamiento del software pero con menos memoria. Este es uno de sus puntos fuertes, pues los sistemas de aprendizaje de lenguaje utilizados necesitan de gran capacidad de memoria.
Google es un ejemplo de las aplicaciones que podría tener SpAtten, al ser el motor de búsqueda más usado en el mundo. Esta big tech utiliza la última optimización llamada Bidirectional Encoder Representations from Transformers o BERT, el cual es una red neuronal con los mismos mecanismos de atención.
Aunque las búsquedas con BERT mejoraron un 10%, diversos especialistas comentaron se queda corto para las necesidades actuales de los internautas. Aquí es donde entra SpAtten, que en pruebas técnicas, corrió 100 veces más rápido que los procesadores más avanzados y mil veces más eficientemente en energía.
"Nuestro sistema es similar a cómo el cerebro humano procesa el lenguaje", comentó Hanrui Wang, autor líder y estudiante de doctorado del Departamento de Ciencias Computacionales e Ingeniería Eléctrica del MIT. "Nuestra visión para el futuro es que los nuevos algoritmos y hardware que eliminan la redundancia reducirán los costos y ahorrarán en el presupuesto de energía para las cargas de trabajo de NLP del centro de datos".
SpAtten podrá ser de ayuda para las compañías desarrolladoras de sistemas NLP, mejorando por mucho la tecnología de inteligencia artificial disponible. De igual forma, gracias a su ahorro de energía, su creación puede utilizarse para crear baterías con mayor capacidad de energía en smartphones. Ya sea el software para la predicción de comandos de búsqueda o el hardware por su ahorro, la creación del MIT tendrá aplicaciones que mejorarán los dispositivos actuales.