Los ojos humanos le ganan a las computadoras

Las máquinas tienen dificultades para identificar contenidos e imágenes esenciales a la vista

Tareas tan sencillas para el ojo humano como reconocer un número invertido, diferenciar un perro de un gato o identificar entre miles de imágenes sólo las de niños de carne y hueso son desafíos complejos para las máquinas pero se está avanzando mucho tecnológicamente para superarlos.

A una computadora hay que explicarle todos los datos del problema de reconocimiento de imágenes en un idioma de "bits" y algoritmos para que los comprenda y de forma algo torpe, explicó Enrique Solano, director del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la Universidad del País Vasco en Bilbao.

Esa particularidad complica mucho a las máquinas el procedimiento de identificación de contenidos, que se han disparado en el mundo digital, añadió este experto, cuyo equipo participó en un experimento pionero para digitalizar de forma universal la computación cuántica analógica en un "chip" superconductor, un reto logrado en colaboración con los laboratorios de Google de computación cuántica, y que se ha publicado recientemente en la revista Nature.

Hasta el momento, explica este doctor en física, los sistemas de inteligencia artificial para reconocimiento de imágenes no ofrecen resultados absolutamente fiables aunque las tecnologías son cada vez más sofisticadas.

En los últimos cinco años, con el desarrollo del llamado deep learning que permite a las máquinas aprender por sí mismas de sus propios errores, se avanzó mucho en reconocimiento de datos, especialmente en las áreas de imágenes, voz y vídeo, precisó por su parte la experta Nuria Oliver, directora científica de Telefónica I+D.

Aunque ya existen máquinas que procesan millones de datos en segundos con resultados incluso más exactos que los de los humanos, computadoras que compiten y vencen en juegos contra las personas y sistemas informáticos que componen música o analizan imágenes para determinar diagnósticos médicos complicados, todavía les resulta muy complejo interpretar el contenido de imágenes y vídeos, insisten los expertos.

Según Solano, hasta el momento, ninguna máquina puede distinguir imágenes con un margen de error cero de un gato o de un perro a partir del análisis de sus características morfológicas traducidas a números.

Tampoco parece posible al día de hoy que un sistema informático identifique, por ejemplo, qué imágenes de entre todas las existentes en la red son exclusivamente del pintor Pablo Picasso conversando con el expresidente estadounidense John F. Kennedy o en cuáles aparecen madres reales con niños de carne y hueso.

Los resultados en la identificación de este tipo de datos son precarios en fiabilidad.

"Entiendo que decisiones judiciales, comerciales o educativas serían muy polémicas hoy si se basaran únicamente en el reconocimiento de imágenes por una máquina automática sin intervención humana", afirma Solano.

La computación cuántica podría resolver el problema, explica el experto.

De hecho, Google invirtió US$ 100 millones en la computadora cuántica que se construye en la Universidad de Santa Bárbara para resolver diversos problemas, entre ellos el de reconocimiento de imágenes, que es "uno de los retos más complejos", aseguró.


Fuente: EFE

Populares de la sección