¿Cómo funciona el reconocimiento de fotos de Google?

Patrones, metadatos y un poquito de suerte es la fórmula de la app de imágenes del gigante tecnológico
Las nuevas funciones de la aplicación de fotos de Google la hicieron más inteligente. Ahora, el sistema puede escanear sus fotos y reconocer lo que se muestra en ellas para facilitar la búsqueda y mejorarlas con efectos y filtros o realizar animaciones, collages o panorámicas.

Para poner a prueba estas herramientas, lo único que debe hacer el usuario es una copia de seguridad de las imágenes que tomó con su celular, de manera que la app pueda acceder y escanearlas. Todo esto es posible debido a que funciona cada vez más como una persona: aprendiendo.

La tecnología aplicada de inteligencia artificial le permite reconocer ciertos elementos para determinar qué es lo que hay en la imagen. Cuando lo que reconoce resulta ser acertado, el sistema se estimula a reconocer más elementos como con el que dio en el blanco.

La aplicación fue entrenada para reconocer patrones a través de capas. Las capas de bajo nivel advierten factores como los bordes de los elementos que se encuentran en la foto y aspectos más generales. Las capas de alto nivel reconocen detalles más precisos. De esta manera, Google puede entender lo que hay en una foto para formular una imagen general. Por ejemplo: cielo, mar, arena y personas forman una playa.

Los metadatos son la información recabada por el dispositivo relacionada con la foto tomada, como la hora, el día y la localización.

Estos pueden ayudar a Google Fotos a hacer una animación, por ejemplo, con un grupo de fotos tomadas en el mismo lugar con muy poco tiempo de intervalo entre ellas y con contenidos similares.
Por último, una pizca de suerte. Google usa la aleatoriedad para agregar filtros a las fotos. Si el usuario elige uno en particular, Google aprende que esa combinación es buena y, por ende, puede volver a utilizarla. De esta manera, los usuarios obtienen resultados cada vez más personalizados.