¿Cómo hablar otro idioma sin tener que estudiar?

Dentro de 10 años, un auricular dirá en nuestra propia lengua la traducción de un idioma que se está hablando simultáneamente

Publicado por Expansion

Cuando se viajaba al extranjero, se solía llevar un pequeño diccionario de expresiones básicas y frases hechas. Si se quería construir una frase, se ojeaba el libro durante cinco minutos, obteniendo como resultado una expresión anticuada con verbos sin conjugar y aproximaciones cercanas a los sustantivos.

En la actualidad, solo hay que sacar el teléfono y escribir la frase en el traductor de Google, que realiza la conversión a 90 lenguas diferentes, con una rapidez que depende de la velocidad de la conexión a Internet.

La traducción automática es más rápida y más efectiva que el antiguo diccionario, pero se queda corta en lo que respecta a precisión y funcionalidad. Sin embargo, esto no seguirá siendo así durante mucho tiempo. Con toda probabilidad, todo el que lea este artículo dentro de una década podrá hablar docenas de lenguas extranjeras, eliminando de este modo el concepto de la barrera lingüística.

Las herramientas de traducción actuales, desarrolladas por métodos informáticos, llevan a cabo más de mil millones de traducciones al día. La tecnología será cada vez más precisa y podrá analizar hasta el más mínimo detalle. Si la herramienta se equivoca, los usuarios pueden señalar el error. Se trata de un problema de cantidad de datos, de capacidad de procesamiento y de software.

Estos cambios llegarán con el paso del tiempo y completarán la falta de comunicación en varias áreas, entre las que se incluyen la pronunciación y la interpretación verbal.

Las innovaciones más interesantes se producirán con el desarrollo de los dispositivos de interfaz humana. Dentro de 10 años, un pequeño auricular nos dirá en nuestra propia lengua la traducción de un idioma que se está hablando simultáneamente.

La voz que escucharemos en nuestros oídos tampoco será la de un ordenador. Gracias a los avances en ingeniería acústica, el software en la nube conectado al auricular de nuestros oídos recreará la voz de la persona que habla, pero en nuestra lengua nativa. Cuando respondamos, nuestro idioma se traducirá en la lengua de nuestro compañero a través de su propio auricular.

La mayoría de las herramientas de traducción actuales solo están disponibles en dos idiomas. Intente hacer una traducción con cualquier traductor trilingüe: el resultado será caos. En el futuro, el número de lenguas que se hablen no tendrá importancia. Podrá celebrar una fiesta con ocho personas hablando en ocho idiomas diferentes, la voz del auricular siempre le susurrará la traducción del idioma que quiera escuchar.

Años de investigación

La investigación y la comercialización de estos avances provienen de la intersección entre el sector privado y las comunidades militar y de inteligencia. Siri fue concebido como un proyecto de la Agencia de Proyectos de Investigación Avanzados de Defensa de EEUU(DARPA). Su software de reconocimiento de voz fue desarrollado por Nuance Communications, que invierte más de 300 millones de dólares anuales en investigación y en desarrollo de biometría vocal.

La Agencia de Seguridad Nacional de EEUU y el Servicio de inteligencia de Israel realizaron cuantiosas inversiones en investigación básica de biometría vocal y traducción.

¿El fin de la hegemonía del inglés?

La traducción automática debería agilizar el crecimiento de la interconectividad. Mientras que la etapa de la globalización fue impulsada en gran medida por la adopción del inglés como lengua para los negocios, la próxima generación abrirá nuevas líneas de comunicación,eliminando la necesidad de una lengua común.

En la actualidad, cuando un empresario coreano mantiene conversaciones con ejecutivos mandarines en una conferencia en Brasil, lo hacen en inglés. Esta necesidad desaparecerá pronto, abriendo las puertas del negocio internacional a un gran número de personas que no hablan inglés.

La tecnología también contribuirá a reducir el aislamiento social de millones de personas con problemas auditivos y trastornos del lenguaje. Hace poco viajé a Ucrania y me encontré con un grupo de estudiantes de ingeniería que me enseñaron un robot llamado Enable Talk, que utilizaba sensores en los dedos para reconocer el idioma de los signos y traducirlo al lenguaje textual y enviarlo al smartphone a través de Bluetooth. A continuación, el texto se convierte en voz, lo que permite "hablar" a las personas sordo mudas, además de ser escuchadas. Dentro de poco tiempo, el lenguaje hablado podría ser uno de los que podamos elegir en el menú despegable del teléfono.

Los beneficios económicos de esta nueva tecnología son evidentes. La traducción automática permitirá abrir el acceso a los mercados. Piense en un sitio como Indonesia. Hay muchas personas que hablan inglés, mandarín y francés en Yakarta y en Bali, pero muy pocos de ellos en las otras 6.000 islas deshabitadas. Si no necesitan dominar el javanés (o cualquiera de las otras 700 lenguas de Indonesia) para hacer negocios en esas otras provincias, hablarán estas lenguas porque son más fáciles de comprender.

La traducción conllevará grandes cambios. Ayudará a que partes aisladas del mundo se integren en la economía mundial.