- Alfonso Sánchez y Jorge Luis Jácome, académico y egresado de la FEI, desarrollaron una pulsera que interpreta las señas realizadas con la mano y las convierte en caracteres
- Permitirá a sordomudos comunicarse con cualquier persona que desconozca esta lengua
Carlos Hugo Hermida Rosales
Xalapa, Ver. 28/08/2016.- Alfonso Sánchez Orea, catedrático de la Facultad de Estadística e Informática (FEI) y de Instrumentación Electrónica; y Jorge Luis Jácome Domínguez, egresado de la Licenciatura en Informática, de la Universidad Veracruzana (UV), desarrollaron una aplicación que traduce el lenguaje de señas a texto, mediante una pulsera que mide los movimientos musculares producidos por la mano.
El investigador Sánchez Orea explicó que la implementación de este software generó el proyecto de tesis de Jácome Domínguez, denominado “Interpretación de la lengua de señas utilizando una interfaz electromiográfica móvil”; funciona por medio de un sensor electromiográfico –mide las respuestas musculares a estímulos nerviosos– en forma de brazalete, el cual traduce a caracteres escritos cada movimiento hecho por la mano para reflejar las letras del lenguaje de señas.
Posteriormente esta información es enviada por Bluetooth a un teléfono celular predeterminado, para que quienes desconocen esta lengua puedan comunicarse e interactuar con personas que presentan discapacidad auditiva y mutismo.
Alfonso Sánchez manifestó que este prototipo de software ya fue presentado en la Conferencia Conjunta Internacional sobre Tecnologías para el Aprendizaje (CCITA), realizada en la Ciudad de México en Julio de 2016 por la Comunidad Internacional para el Avance de la Tecnología en el Aprendizaje (CIATA), en donde obtuvo muy buenas críticas.
Mencionó que el desarrollo de este proyecto ha sido posible gracias a recursos gestionados por el Cuerpo Académico (CA) Tecnología Computacional y Educativa de la FEI en donde colabora, además de haber contado con la asesoría del Luis Julián Varela Lara, académico de la Facultad de Instrumentación Electrónica, quien les apoyó en el trabajo con redes neuronales.
Expresó que la creación del software requirió de mucho trabajo previo, en el cual se debió investigar la fisiología del brazo, las redes neuronales que lo componen y el material bioeléctrico más adecuado para interactuar con éstas.
Las pruebas piloto se llevaron a cabo con apoyo de la asociación civil Difusión, Inclusión y Educación del Sordo (DIES), con la cual tienen un convenio de colaboración.
Cabe destacar que aunque por el momento sólo se traducen letras individuales, se tiene planeado que el software traduzca palabras enteras para una interacción a mayor velocidad.
Debido a que los movimientos musculares son específicos para cada persona, está proyectado crear en la nube una red neuronal individual que contenga perfiles para cada usuario, los cuales serán descargados al utilizar el software.
Por último, el académico afirmó que este trabajo de investigación forma parte del proyecto “Sistemas Interactivos para la Atención de Usuarios con Capacidades Diferentes” de la red internacional de cuerpos académicos: “Red en Tecnologías Educativas” y podría apoyar al Programa Universitario para la Inclusión e Integración de Personas con Discapacidad (PIIP) de la UV, se espera ampliarlo para que el programa pueda ser usado en diversos sectores de la sociedad como el gubernamental y la iniciativa privada.
Categorías: General