jueves, octubre 10, 2024
InicioRegiónCrea UAEM Zumpango APP para traducir y enseñar lenguaje de señas mexicanas

Crea UAEM Zumpango APP para traducir y enseñar lenguaje de señas mexicanas

Aunque ya existen herramientas que buscan reducir las barreras de comunicación entre personas sordomudas, investigadores de la Universidad Autónoma del Estado de México (UAEMéx), realizaron un proyecto mexiquense que busca promover la inclusión.

Con el uso de la visión e inteligencia artificial, el cuerpo académico de Tecnologías Computacionales Avanzadas del Centro Universitario UAEM Zumpango desarrolló la app para la enseñanza y aprendizaje del del lenguaje de señas mexicano.

Rafael Rojas Hernández, profesor de tiempo completo del Campus Universitario en Zumpango, indicó que este proyecto lo que hace es uso de estas dos grandes áreas para desarrollar el proyecto de lenguaje de señas mexicano, “como su nombre lo dice es para que nosotros podamos enseñarles o la gente pueda aprender cómo es este lenguaje”.

Aunque ya existen herramientas que buscan reducir las barreras de comunicación entre personas sordomudas, este proyecto mexiquense también busca promover la inclusión, lo único que se necesita es un teléfono móvil o computadora con cámara que identifique las posiciones de las manos.

Para el lenguaje de señas se necesita identificar la parte superior de la persona, las manos, que es lo más importante, necesitan estar en ciertas posiciones para determinar la seña que se está utilizando, una vez que nosotros ya identificamos esto conocemos a la mano y tenemos nuestras posiciones de los dedos, con estas mismas se van formando las letras para generar el lenguaje de señas

Posteriormente entra la inteligencia artificial que interpretará lo que se quiere expresar, mediante un modelo predictor.

El Dr. Asdrúbal López Chau, también profesor de tiempo completo del plantel, indicó que:

“Conocida como perceptron multicapa, esto genera un modelo predictor que me permite o permite a la aplicación, identificar que letra se está presentando ante al usuario, por ejemplo esta sería la letra A”.

La herramienta de inclusión busca en una segunda etapa, traducir simultáneamente cualquier contenido, a fin de que una persona sordomuda pueda ser entendida por otra persona que no conoce el lenguaje de señas y viceversa.

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -

RELEVANTES