Brayan1Brayan Howard Tarre Álvarez, alumno de la Facultad de Ingeniería Campus San Juan del Río, fue galardonado con uno de los primeros lugares nacionales del Concurso “Vive conCiencia 2017”, en el área de Salud Pública, por su proyecto “Intelligent Talking Hand”, un sistema decodificador inteligente de movimientos que ayuda a la traducción básica de la lengua de señas.

El universitario adscrito a la carrera de Electromecánica recibió este reconocimiento en el marco del 15º Foro Consultivo Científico y Tecnológico, en el que jóvenes mexicanos también fueron premiados en los retos: Agua, Cambio Climático, Educación, Energía, Investigación espacial, Medio Ambiente, Migración, Salud mental y adicciones y Seguridad alimentaria.

Esta cuarta edición de “Vive conCiencia” congregó más de 600 propuestas innovadores de más de mil 500 estudiantes universitarios de todo el país. En la etapa regional, el proyecto de Tarre Álvarez fue elegido como el mejor entre otros provenientes de instituciones de Guanajuato, Jalisco, Nuevo León, Puebla, Quintana Roo, San Luis Potosí, Yucatán y Zacatecas.

“Intelligent Talking Hand” fue una de las iniciativas financiadas por el Fondo de Proyectos Estudiantiles de la Facultad de Ingeniería y recibió la asesoría del Dr. Martín Valtierra Rodríguez, docente investigador de dicha unidad académica.

Explicó que su propuesta busca mejorar la calidad de vida de personas con discapacidad auditiva, ya que esta deficiencia les dificulta realizar sus actividades cotidianas por ser una limitante en la comunicación. En este sentido, la lengua de señas es una de las herramientas utilizadas por las personas sordas para interactuar ya que posee su propia sintaxis, gramática y léxico.

El sistema está conformado por un guante y un software. El primero cuenta con sensores tipo flexores en cada uno de los dedos que, cuando éstos se curvan, dan como resultado una resistencia variable. Ésta es adquirida por un microcontrolador tipo Arduino para ser evaluada por una base de datos que contiene cada una de las señas; de esta manera, el software arroja una letra específica en la pantalla del ordenador y es reproducida por voz en un dispositivo móvil.

Uno de los aspectos fundamentales del proyecto es el uso de redes neuronales, un tópico de inteligencia artificial y que constituye un modelo matemático por medio del cual un algoritmo de actualización y entrenamiento es capaz de aprender a reconocer patrones, tal como lo hacen los humanos.

Para ello, Brayan Tarre indicó que fue necesario elaborar una base de datos con cada una de las señas, en la que registraron cierto número de repeticiones, “hicimos, por ejemplo, 200 veces la letra “a”, después 200 veces la letra “e” y así con todas las vocales”, detalló.

Posteriormente, la red neuronal fue entrenada para aprender y generalizar los patrones a base de la experiencia, con lo cual el algoritmo es capaz de escoger la mejor decisión como lo haría un humano. Asimismo, el sistema está desarrollado para adaptarse a cada usuario, ya que la biomecánica de cada persona es distinta.