Ciudad de México,
A Amigon
Crédito foto: Pixabay
Uno de los aspectos creídos siempre como uno de los límites de la tecnología es que los robots y maquinas no podrían sentir emociones al igual que los humanos, pero los últimos avances han demostrado, al menos, la posibilidad de estos para aprender a identificar las emociones humanas.
Emosense, un sistema de Inteligencia Artificial (IA) creado por la Universidad de Tecnología Hefei, China, y otras universidades japonesas capaz de identificar emociones basado en los gestos que hace en el rostro.
Yantong Wang, un investigador en el proyecto declaró ante medios: "En nuestra vida diaria podemos notar claramente que el cuerpo muestra expresiones ricas en estados de animo para reconocimiento de emociones"
El equipo de investigación notó que los gestos humanos afectan las señales inalámbricas produciendo patrones característicos que pueden ser usados para el reconocimiento de emociones. Con ello en mente, se reunieron 3360 casos de diferentes gestos y se compararon, mediante machine learning, con herramientas ya existentes de reconocimiento de emociones basadas en sensores y visión, obteniendo un 84% de exactitud.
Por parte de los robots, alumnos de la Universidad Politécnica de Puebla presentaron a DARwin PO2, un robot de software libre, en la "Exhibición Estatal de Robótica, Tehuacán 2019". El pequeño robot es capaz de identificar emociones humanas de 21 expresiones faciales de los 43 músculos faciales que combinan las seis emociones básicas del ser humano: alegría, tristeza, ira, sorpresa, miedo y asco. Uno de los principales objetivos es identificar emociones que identifiquen un riesgo para el usuario como el suicidio.
Otro robot fue creado por Kiju Lee, profesor de ingeniería mecánica y aeroespacial, y Xiao Liu de la Universidad Case Western para la Conferencia de Juegos, Entretenimiento y Medios IEEE 2019. El dispositivo utiliza IA y computadoras de deep learning para clasificar emociones humanas de 3,500 variaciones en la expresión del rostro con el 98% de exactitud.
A pesar de los avances, un estudio realizado por Lisa Feldman Barret, neurocientífica de la Universidad Northeastern, afirma que no es posible con la tecnología actual identificar las emociones humanas debido a que sólo se basan en datos recolectados de expresiones faciales y estas son insuficientes para conocer el estado de ánimos de las personas.
De acuerdo con la investigación, el contexto, la cultura, el lenguaje no verbal, entre otros factores, deben tomarse en cuenta para reconocer un sentimiento, y aún así es bastante difícil la precisión de un humano a otro. Empresas como Kairos, Afectiva, Microsoft o Apple que ofrecen tecnología de reconocimiento de emociones no toma en cuenta los datos proporcionados por los demás factores por lo que nunca serán completamente éxitos al detectar emociones.
La tecnología ya se está desarrollando, tal vez con un enfoque a los demás aspectos de lenguaje no verbal y a la cultura podría desarrollarse una IA o robot que identifique con éxito las emociones humanas.