Navegando en la oscuridad

Una aplicación sirve de guía a las personas ciegas
Científicos de IBM Research y la Universidad de Carnegie Mellona se han puesto una meta tan audaz como inspiradora: utilizar los últimos avances en inteligencia artificial y robótica para desarrollar soluciones de accesibilidad para aquellas personas con discapacidades visuales. Es en este contexto que crearon NavCog, una plataforma tecnológica que pueda ayudar a los ciegos a navegar el mundo a su alrededor como si vieran.

La aplicación, disponible para móviles con sistemas operativos Apple y Android, ayuda a las personas no videntes a navegar a sus alrededores al susurrar en sus oídos a través de auriculares o creando vibraciones sutiles en sus teléfonos (los usuarios tienen la opción de elegir el "modo de voz" o el "modo de vibración").

Similar a las indicaciones "giro a giro" de los GPS de vehículos, NavCog ofrece su propia versión de direcciones para los no videntes. La aplicación analiza las señales de sensores de Bluetooth localizados a los lados de las veredas del campus de Carnagie Mellon y los sensores de smartphones para ayudar a los usuarios a moverse sin asistencia, ya sea dentro de un edificio como fuera de él.

La magia sucede cuando los algoritmos son capaces de ayudar a los ciegos a identificar en tiempo real dónde están, hacia qué dirección están mirando y otra información del entorno. La herramienta de visión de la aplicación convierte las imágenes del smartphone en un modelo de espacio en 3D que puede ser utilizado para generar una guía de navegación giro a giro.

Herramienta en expansión

El proyecto NavCog tiene un significado particular para una de las líderes de la investigación del proyecto, Chieko Asakawa, quien es no vidente. Pronto será posible para ella caminar a través del campus de Carnegie Mellon con la ayuda de la aplicación y verse como cualquier otra persona cruzando el campus, escuchando un smartphone con auriculares en sus oídos.

Este es solo el principio, según Kris Kitani del Instituto de Robótica de Carnegie Mellon. Una de las mayores metas es extender la cobertura de los sensores más allá de los edificios del campus de la universidad. Para ello, los científicos trabajando en el proyecto han librado el código de la plataforma de NavCog a través de la nube BlueMix de IBM. Eso hace posible que otros desarrolladores pongan sus mejoras en el sistema y aceleren el proceso hacia otros destinos físicos.

La otra meta –dijo Kitani– es hacer que el sistema sea posible en cualquier ambiente, incluso en aquellos que no tienen sensores de Bluetooth. Para lograrlo, la universidad espera avanzar en visión computacional así como en el área de asistencia cognitiva, que es un campo de investigación dedicado a ayudar a los ciegos a obtener información al aumentar las habilidades perdidas o debilitadas.

Al utilizar las cámaras para la visión ayudada por computadoras, por ejemplo, podría ser posible desarrollar sistemas más acertados que no requieran la presencia de sensores. Además, esta asistencia, al combinarla con otras tecnologías de localización, potencialmente podría hacer posible reconocer puntos frecuentes diarios, como unas escaleras o una barrera en la calle, que no podrían ser identificadas con sensores.

"A partir de la información de localización para entender los objetos, hemos estado creando tecnologías para hacer el mundo real más accesible para todo el mundo", dijo Martial Hebert, director del Instituto de robótica en Carnegie Mellon. "Con nuestra larga historia de desarrollo de tecnologías para humanos y robots que complementarán las habilidades perdidas de los humanos, esta plataforma abierta expandirá el horizonte para la colaboración global para construir la nueva era de accesibilidad al mundo real para los ciegos en un futuro cercano", agregó.

Reconocimiento facial

Hay planes para agregar funciones extra a NavCog que van más allá que la mera navegación. Por ejemplo, el reconocimiento facial podría decir en tiempo real si alguien está pasando cerca del usuario.

Aún más, los sensores capaces de reconocer las emociones en esas caras, trabajo que es parte de otra investigación del Carnegie Mellon sobre el autismo, podrían hacer posible reconocer cuándo esas personas están sonriendo o frunciendo el ceño. Los investigadores también están explorando el uso de la visión computacional para caracterizar las actividades de las personas en los alrededores y tecnología ultrasónica para ayudar a identificar las locaciones más concretamente.

Como dijo Asakawa, la investigación de la asistencia cognitiva que fue necesaria para crear NavCog tiene algunos paralelismos con el trabajo de la computación cognitiva realizada por IBM Watson. En ambos casos, hay un intento creciente para mejorar las habilidades cognitivas de los humanos en tiempo real.

En IBM, por ejemplo, los investigadores a veces utilizan el concepto de "Watson en mis hombros" para explicar que en un futuro esta herramienta podrá proveer asistencia cognitiva para cualquiera, incluyendo para profesionales de la medicina y meteorólogos.

Si todo funciona de acuerdo con el plan, se gestará un círculo virtuoso del feedback entre inteligencia automática y humana, en el cual las tecnologías cognitivas aumentarán las capacidades de las máquinas para que estas a su vez terminen incrementando las de los seres humanos.

Fuente: Dominic Basulto / The Washington Post

Populares de la sección