
La traducción automática ha sido un campo de investigación de gran interés a nivel internacional. En Estados Unidos este interés se ha centrado últimamente en la traducción de la lengua árabe al inglés como consecuencia de los atentados del 11-S. En la Comunidad Europea hay una gran cantidad de lenguas oficiales y, por tanto, mucho trabajo de traducción de los documentos oficiales.
Hasta la fecha, los mejores sistemas de traducción están basados en modelos estadísticos que intentan analizar la probabilidad de que la traducción de las palabras de la lengua de destino (tomando en consideración las de la lengua de origen) sean las más adecuadas (Och y Ney, 2002). Para la estimación de estas probabilidades se necesitan muchas frases ya traducidas (corpus paralelos). Para conseguirlas, se utilizan técnicas de traducción estadística, entre las que destacan las técnicas basadas en ejemplos (traducción por analogía; Sumita y col, 2003), traductores basados en estructuras gramaticales de las lenguas (Casacuberta y Vidal, 2004) y otras soluciones.
Los importantes progresos conseguidos en los procesos de traducción de habla se deben principalmente a la aparición de medidas de error automáticas (Papineni, Roukos, Ward, y Zhu, 2004). Hasta ahora sólo se podía saber si una traducción era correcta pidiendo a un experto traductor que la valorase, una labor muy lenta. Otro factor que ha agilizado los procesos de traducción del habla ha sido la mejora de la eficiencia de los algoritmos de entrenamiento para el cálculo de las probabilidades de traducción (Och y Ney, 2003), así como el desarrollo de modelos dependientes del contexto (Koehn, Och y Marcu, 2003), en los que no sólo se tiene en cuenta la palabra a traducir sino el lugar que ocupan en la frase, así como las palabras adyacentes.
En los últimos años ha aumentado el interés de varios grupos de investigación por la traducción automática de voz a lengua de signos, desarrollándose varios prototipos: basados en ejemplos (Morrissey y Way, 2005), en reglas de traducción escritas por un experto (San-Segundo, 2008), en frases completas ya traducidas anteriormente (Cox y col., 2002), o en soluciones estadísticas (Bungeroth y Ney, 2004).
Basándonos en datos del INE y del MEC (CNSE, 2003), en España, el 47% de las personas sordas o con discapacidad auditiva temprana mayores de 10 años no tienen estudios o son analfabetas. La realidad nos muestra que, de este colectivo, hasta un 92% padece analfabetismo funcional: tienen serias dificultades para comprender textos y expresarse correctamente por escrito. Así, sólo entre un 1% y un 3% de las personas sordas en España han superado estudios universitarios, niveles muy inferiores al del conjunto de la población española.
Esto tiene diversas consecuencias en la calidad de vida de las personas sordas. La que nos interesa destacar en este artículo está relacionada con el acceso de las personas sordas a la información. En este sentido, la Lengua de Signos Española (LSE), una lengua natural en las personas sordas que se estructura en los mismos niveles lingüísticos y cumple las mismas funciones que cualquier lengua oral, puede contribuir de forma efectiva a su mejor acceso a la información, la supresión de las barreras de comunicación y la igualdad de oportunidades.

La Universidad Politécnica de Madrid (UPM) y la Confederación Nacional de Sordos Españoles (Fundación CNSE) han colaborado durante los últimos años para desarrollar el primer sistema de traducción de voz a Lengua de Signos Española (LSE). En la página web http://www.traduccionvozlse.es se pueden consultar algunos vídeos de demostración del sistema desarrollado. Este sistema es capaz de traducir, por ejemplo, las expresiones pronunciadas por los funcionarios de la administración pública cuando atienden a una persona sorda que desea renovar el permiso de conducir o el Documento Nacional de Identidad (DNI).
El sistema realiza el proceso de traducción en tres pasos (véase la Figura 1). En el primero, un reconocedor de voz se encarga de traducir la voz a una secuencia de palabras. En segundo lugar, un módulo de traducción automática traduce la secuencia de palabras a una secuencia de signos. El módulo de traducción combina dos estrategias de traducción: una basada en ejemplos y otra basada en reglas de traducción escritas por un experto.
Finalmente, dado que la Lengua de Signos es visual, es necesario incorporar un módulo de animación de los signos basado en un agente animado virtual en 3D. Este agente animado ha sido desarrollado en el proyecto eSIGN (http://www.sign-lang.uni-hamburg.de/eSIGN/) y está disponible para su empleo en investigación.

Un aspecto muy importante en la evaluación de la tecnología desarrollada tiene que ver con su empleo con usuarios finales. En este caso, el sistema desarrollado ha sido evaluado en la Jefatura Provincial de Tráfico de Toledo con funcionarios oyentes y personas sordas, obteniendo unos resultados muy prometedores (veáse Figura 2). Estos resultados animan a continuar trabajando en el desarrollo de sistemas similares que acerquen la administración pública a las personas sordas.
Agradecimientos
Estos trabajos han sido financiados por el Plan Avanza y la Fundación ONCE.
Fuente: Rubén San Segundo /Grupo de Tecnología del Habla, Dpt. de Ingeniería Electrónica, E.T.S.I. Telecomunicación, Universidad Politécnica de Madrid, España
No hay comentarios:
Publicar un comentario