El departamento de Inteligencia Artificial de Google anunció que pronto será posible
Hasta el momento ha sido imposible descifrar la lengua de signos desde un teléfono móvil, pero según Google en un futuro todos los smartphones podrán hacerlo. Activistas de la comunidad con discapacidad auditiva han celebrado la buena noticia, aunque algunos pusieron en duda la «destreza» de la tecnología para captar algunas conversaciones.
Según observaron, la idea de que una aplicación reproduzca audio, solo con señas manuales, hace que se pierda cualquier expresión facial, y esto podría cambiar el significado de lo que se dice. Los ingenieros de Google mostraron su intención de que esta nueva tecnología pueda servir de “base para la compresión de la lengua de señas”.
«Estamos entusiasmados de ver lo que se les ocurre a las personas. Por nuestra parte, continuaremos nuestra investigación para hacer que la tecnología sea más robusta y estabilizar el seguimiento, aumentando la cantidad de gestos que podemos detectar de manera confiable», dijo a BBC una portavoz de Google.
El objetivo no es nada sencillo para Google, ya que para desarrollar el sistema tienen que tener en cuenta los diferentes tamaños de cada mano, la velocidad de sus movimientos y el hecho de que, durante la conversación, unos dedos puedan obstruir la visión de otros.
Por su parte, la propuesta traza un gráfico de 21 puntos a través de los dedos, , la palma y el dorso de la mano, lo que facilita la comprensión de la señal incluso en los movimientos más complejos. Además, el algoritmo permite calcular la profundidad de los elementos de la imagen, teniéndose que analizar unas 30.000 imágenes, cada una con diferentes poses y condiciones de iluminación para poder lograr todo este avance.
El gigante tecnológico aspira a que estos algoritmos puedan contribuir a crear aplicaciones asequibles para todos en un futuro no muy lejano.
Fuente: TODO DISCA