Foto: Melanie Kreutz vía Unsplash
Ingenieros informáticos de la Universidad de Duke en Carolina del Norte, Estados Unidos, desarrollaron ojos humanos virtuales para simular el movimiento natural con un alto nivel de precisión. El objetivo de este trabajo es programar y entrenar los sistemas de empresas especializadas en realidad virtual y realidad aumentada.
El estudio, publicado por Science Daily, indicó también que el sistema denominado EyeSyn ayudará a los desarrolladores a crear aplicaciones para el metaverso. Maria Gorlatova, ingeniera informática de Nortel Networks, explicó que están interesados en detectar si una persona está leyendo o simplemente mira el texto.
Sin embargo, para Gorlatova, desarrollar este tipo de algoritmos requiere datos de miles de personas, quienes deben utilizar los componentes durante horas mientras son estudiados. "Queríamos desarrollar un software que redujera las preocupaciones de privacidad y, al mismo tiempo, impulsar a las pequeñas empresas a entrar al metaverso", afirmó.
De acuerdo con la coautora del estudio, los investigadores utilizaron globos oculares sintéticos y recurrieron a datos disponibles públicamente. En un inicio, hicieron que los ojos vieran videos del doctor Anthony Fauci dirigiéndose a medios de comunicación durante las conferencias. Posteriormente, analizaron los movimientos oculares de los ojos sintéticos para compararlos con el movimiento ocular de espectadores reales.
En una tercera etapa, compararon un conjunto de datos virtuales de los ojos sintéticos, los cuales vieron obras en un museo de arte virtual. Al término del estudio, los investigadores señalaron que el EyeSyn fue capaz de coincidir casi en su totalidad con los distintos patrones de señales de mirada reales. "Los resultados de los ojos sintéticos no son perfectos, pero representan un buen punto de partida", expresó Maria Gorlatova.
Según los investigadores, los datos biométricos de los globos oculares son invaluables para las empresas que construyen plataformas y software en los metaversos. Por ejemplo, leer los ojos de un usuario permite a los desarrolladores adaptar el contenido a las respuestas o reducir la resolución en su visión periférica para ahorrar energía computacional.
Componentes de este tipo también podrían ser utilizados en personas al volante para analizar qué observan los ojos de las personas; si centran su atención en el camino o van distraídos. Las alternativas para el uso de los datos de movimiento ocular pueden ser amplias y ahora los investigadores de la Universidad de Duke están a la espera de poder escalar el EyeSyn a un nivel comercial.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS