Anuncio
Imagine un mundo donde las barreras entre los sordos y los oyentes han desaparecido. Un mundo donde las conversaciones fluyen fluidamente entre aquellos que escuchan el sonido y aquellos que no lo hacen. ¿Podría ese mundo volverse real en el futuro cercano?
En junio, un grupo de estudiantes de marketing de la Escuela de Comunicación de Berghs desarrolló un video conceptual para un producto ficticio llamado Google Gesture. El producto incluía una muñequera portátil y una aplicación móvil que usaba electromiografía para leer los movimientos musculares de una persona sorda haciendo lenguaje de señas. El sistema luego pasó esas señales a la aplicación, que las tradujo a una voz digitalizada y habló por la persona.
Ver el falso video de marketing fue muy emocionante. Tan emocionante, de hecho, que los principales sitios tecnológicos como Mashable, Slashgear y otros anunciaron originalmente el producto como real, y luego tuvieron que volver a contar el reclamo y disculparse por su error. Fue un error extraño, teniendo en cuenta que realmente
es un producto de Google llamado Google Gesture Search [Ya no está disponible], que le permite dibujar gestos en la pantalla de su dispositivo móvil para buscar contactos, marcadores y más.De todos modos, el concepto de los estudiantes de Berghs presentó una idea notable, lo que llevó a la pregunta: ¿podría ser posible crear una aplicación real?
¿Es posible traducir el lenguaje de señas?
Diseccionar el concepto de marketing a nivel técnico revela que la tecnología que utiliza la electromiografía (EMG) para "detectar" el lenguaje de señas no es tan descabellada. Ya en 2009, investigadores de la universidad de Washington pudieron utilizar múltiples sensores EMG para decodificar los movimientos musculares y convertirlos en gestos reales de brazos y manos.
Los investigadores en realidad construyeron una "biblioteca de reconocimiento de gestos" completa, identificando qué señales musculares representaban qué gesto. La investigación demuestra que este tipo de tecnología está disponible y lista para implementar en el tipo de aplicación que los estudiantes de Berghs imaginaron.
Entonces, ¿alguien ya ha logrado esto? Si no es así, ¿por qué nadie lo hace y proporciona a los sordos y con discapacidad auditiva la capacidad de comunicarse con cualquier persona en el mundo a través del lenguaje de señas?
El futuro de la tecnología de traducción en tiempo real
La verdad es que alguien está trabajando en una tecnología de traducción de lenguaje de señas en tiempo real.

Hay una compañía llamada SpeechTrans [URL rota eliminada], que ha estado empujando los límites de tecnologías de traducción Olvídese del Traductor de Google: 3 formas de obtener una traducción precisa y rápidaYa sea que esté planeando solicitar un trabajo o un departamento en el extranjero, o esté buscando traducir su página web, debe hacer las cosas bien incluso con un idioma extranjero. Lee mas en años recientes. SpeechTrans trabaja con socios tecnológicos para producir algunos de los servicios de traducción de idiomas en tiempo real más notables del mercado actual. Estos son servicios que traducen chat de texto a chat de texto, voz a texto e incluso traducción de idioma a voz en tiempo real a través de aplicaciones de escritorio y teléfonos móviles.
Para explorar si una tecnología de lenguaje de señas podría convertirse en una realidad en el futuro cercano, MakeUseOf se sentó con el CEO de SpeechTrans, John Frei, y el Director de Operaciones, Yan Auerbach, para hablar sobre este nuevo e innovador tecnología de traducción Comprenda cualquier idioma con estos 5 sitios web de traducción de idiomasLa tecnología ha hecho del mundo un lugar más pequeño. Las personas de todas partes de este planeta usan muchas de las mismas herramientas, visitan algunos de los mismos sitios web y se mezclan en varias salas de chat en línea. Los... Lee mas y qué tan lejos en el futuro podría estar.
Desarrollo de una aplicación de traducción de lenguaje de señas
MUO: ¿Es posible hacer el tipo de traducción de lenguaje de señas a voz que los estudiantes de Berghs retrataron en este video conceptual de Google Gesture?

John: Diría que la tecnología está disponible para desarrollar eso. Actualmente estamos trabajando con Microsoft e Intel para explorar algunas de las tecnologías con las que están saliendo, en términos de hardware y software. Visualizamos la capacidad de usar esa tecnología para reconocer el lenguaje de señas y luego convertirla en salida de voz y audio.
MUO: ¿Estás trabajando activamente en el desarrollo de esa tecnología en este momento?
Yan: Entonces, había un cliente que estaba usando nuestro software, y pensó que sería maravilloso si pudiéramos modificarlo para que las personas con discapacidad auditiva puedan usarlo para realizar llamadas telefónicas desde nuestra aplicación, para comunicarse sin necesidad de lenguaje de señas cuando están en persona, o sin la necesidad de un servicio de tipo TTY para teléfono llamadas. Desarrollamos ese producto, y con fondos de Microsoft e Intel, lanzamos SpeechTrans para personas con problemas de audición en Windows 8.1, lo que elimina la necesidad de lenguaje de señas.
MUO: ¿Cómo funciona la aplicación "en persona"?
Yan: Hay un modo de escucha y hay un modo de entrada. Entonces, cuando alguien te está hablando, pones el modo de escucha y escribe todo lo que dice en la pantalla en texto. Luego, cuando respondes, lo escribes y luego dice en voz alta lo que escribes. Con el teléfono, simplemente marca el número de teléfono de cualquier persona, y cuando contesta el teléfono, se convierte en un mensaje instantáneo. Lo que sea que hablen, lo obtienes como un IM. Luego, lo que escriba se dice en voz alta por teléfono. Esa es la primera fase.
Near Future Sign Language Translation
MUO: ¿Qué tecnologías pueden esperar ver las personas en el futuro cercano? ¿Cuál es la siguiente fase?
John: Prevemos, para alguien que solo tiene la capacidad de usar lenguaje de señas, poder hacerlo frente a un dispositivo como un teléfono, PC o computadora portátil. Intel tiene un nuevo sistema de cámara, y Microsoft también lo hace con el Kinect, que reconoce los gestos.
MUO: ¿Cómo es esto mejor que el concepto de brazalete presentado por los estudiantes de Berghs?

Yan: Básicamente, el nuestro funcionará de forma tal que no requiera que te pongas nada en el brazo. Reconocerá 64 puntos en tu mano. Estamos utilizando la versión beta de la cámara RealSense de Intel. Entonces, no solo podremos reconocer todo el lenguaje de señas y múltiples dialectos diferentes del lenguaje de señas, sino que también también podrá reconocer emociones, expresiones faciales y otros pequeños matices y luego convertirlos en palabras habladas como bien.
Eso no requerirá que uses guantes ni nada. Nos estamos enfocando en ese mercado específicamente porque simplemente nos gusta ayudar a las personas en general. No solo queremos ayudar a las personas que quieren hablar en muchos idiomas diferentes, sino que también queremos ayudar a las personas que no pueden hablar en ningún idioma. La tecnología existe y no hay razón para que su calidad de vida sea diferente a la nuestra.
John: Es un concepto factible. Es solo una entrada y salida diferente. Algunas de las conversaciones que hemos tenido con Microsoft sobre algunas de las tecnologías futuras es donde alguien podría implantar un microchip en su cuello, y lee directamente su onda cerebral patrones. Entonces, si está ayudando a las personas que no pueden comunicarse, realmente veríamos algo así como una implementación de fase tres.
El año pasado, hubo un grupo de estudiantes que salieron con un prototipo funcional de un guante que estaba conectado a una computadora. Los gestos que hiciste con el guante serían reconocidos y convertidos al lenguaje de señas. Entonces ya tienen la capacidad con la tecnología actual.
Nuestra visión es que realmente no queremos crear los accesorios como los brazaletes que tiene que ponerse. Debería ser natural y fluido para ellos [las personas que usan lenguaje de señas] hacerlo frente a su cámara de video. El 90% de lo que dice la gente en la comunicación es en realidad en su lenguaje corporal. Al poder acceder al reconocimiento facial, los gestos y las emociones, podremos usar esos datos como bien para asegurarse de que la traducción y lo que están tratando de transmitir se expresa en la derecha formar.
MUO: ¿Intel está dentro del rango de 5 años de tener esa tecnología de reconocimiento de lenguaje de señas?
John: Intel definitivamente tiene muchos recursos disponibles. Su tecnología y su software están llegando a un ritmo en el que podemos hacer que esto suceda con bastante rapidez.
MUO: ¿Tiene un marco de tiempo para cuando espera llevar esta tecnología al mercado?
John: Para el lenguaje de señas, son entre 12 y 18 meses.
MUO: ¿Alguien más tiene algo como esto para la traducción del lenguaje de señas?
John: Vi un video de YouTube de IBM haciendo un prototipo donde alguien estaba haciendo lenguaje de señas, pero era una prueba de concepto y solo tenía como tres o cuatro palabras que reconoció. Tenemos más de quinientas mil palabras con las que estamos planeando implementarlo, por lo que lo llevará a un nivel completamente diferente.
Conclusión
Si bien la visión que los estudiantes de Berghs soñaron podría no convertirse en la aplicación de traducción de lenguaje de señas del futuro, eso no significa que tal concepto no sucederá. Lo que demuestra el trabajo realizado en SpeechTran, Intel y Microsoft es que es casi seguro que la traducción al lenguaje de señas se convierta en una tecnología real en unos pocos años. Lo más probable es que no incluya brazaletes engorrosos, sino nada más que una cámara de video especial y una aplicación móvil.
A través de la magia del gesto y el reconocimiento facial, esta aplicación de traducción del lenguaje de señas del futuro promete revolucionar por completo las comunicaciones interpersonales para cientos de miles de personas con discapacidad auditiva Los 5 mejores recursos para usuarios de dispositivos Mac y Apple con discapacidades Lee mas o personas con problemas de audición en todo el mundo.
Ryan tiene una licenciatura en ingeniería eléctrica. Ha trabajado 13 años en ingeniería de automatización, 5 años en TI y ahora es ingeniero de aplicaciones. Ex editor jefe de MakeUseOf, ha hablado en conferencias nacionales sobre visualización de datos y ha aparecido en la televisión y radio nacionales.