Google utiliza el aprendizaje automático para hacer más accesible el lenguaje de señas

Foto: google

Google sigue en su esfuerzo de lograr que la información sea accesible y útil para la mayor cantidad de personas posible. Eso incluye ofrecerla en más de 150 idiomas, y ahora se están enfocando en ampliar su oferta en lenguaje de señas.

El gigante tecnológico afirma que la tarea es muy grande, porque existen tantas lenguas de signos como lenguas habladas en el mundo. Por lo que están investigando y experimentando con modelos de aprendizaje automático y saber cuanto de este lenguaje podía reconocer.

En la investigación que realiza Google también participan personas de la comunidad sorda y expertos lingüísticos.

Actualmente, el experimento une varios modelos de aprendizaje automático, para poder recolectar el lenguaje de signos como una suma de sus partes, yendo más allá de las manos para incluir los gestos corporales y las expresiones faciales.

El primer proyecto que resulta de este trabajo es SignTown, es un juego web interactivo que busca ayudar a la gente a aprender sobre la lengua de signos y la cultura sorda. La app utiliza el aprendizaje automático para detectar la capacidad del usuario de realizar los signos aprendidos en el juego.

Esta aplicación interactiva de escritorio funciona tanto con en el navegador web y una cámara.

SignTown nace tras 14 meses de pruebas con una base de datos de vídeos de la lengua de signos japonesa y la lengua de signos de Hong Kong. Además, pertenece al Proyecto Shuwa, un equipo japonés que tiene el fin de mejorar la calidad de la búsqueda de las lenguas de signos.


Lea también: Parag Agrawal es nombrado nuevo CEO de Twitter