Científicos estudian cómo crear inteligencia artificial que no nos destruya

Sus creadores generalmente son ilustrados como Frankensteins miopes inconscientes de los peligros

Los creadores de máquinas artificialmente inteligentes generalmente son ilustrados por la ficción popular como Frankensteins miopes que son inconscientes de las tecnologías apocalípticas que liberan hacia el mundo. En la vida real, ellos tienden a retorcer sus manos pensando en las grandes preguntas: el mal versus el bien y el impacto que la ola de robots y cerebros máquinas tendrán en los humanos trabajadores.

Los científicos, reconociendo que sus trabajos están saliendo de sus laboratorios para entrar en el mundo real, lidiaron durante una cumbre el pasado 10 de diciembre en Montreal con tales dilemas éticos, como la forma para prevenir que las computadoras sean más inteligentes que los humanos y les saquen sus trabajos, que se creen mayores complicaciones para los procedimientos legales o, peor, que quieran dañar a la sociedad. La inteligencia artificial de hoy en día puede aprender cómo jugar videojuegos, ayudar a automatizar respuestas de emails y manejar autos bajo ciertas condiciones. Eso ya ha provocado preocupaciones sobre el efecto que podría tener en los trabajadores.

"Creo que el desafío más grande es el del empleo", dijo Andrew NG, el líder científico para el motor de búsqueda chino Baidu Inc., que anunció la semana pasada que uno de sus autos se había autoconducido por 30 kilómetros en una ruta de Beijing sin interacción humana. La velocidad a la que avanza la inteligencia artificial podría significar que un "gran número de personas en sus 20, 40 o 50 años" tendrán que ser reentrenados de una forma en la que nunca ha sucedido antes, dijo.

"No hay duda de que hay algunas clases de trabajos que se pueden automatizar hoy y que no se podían automatizar antes", dijo Erik Btynjolfsson, un economista en el MIT, citando a trabajadores como abogados o a las personas cobrando sus artículos por su cuenta en las cajas de los supermercados.

"Uno espera que hayan nuevos trabajos necesarios para esta economía", dijo. "Los empresarios y gerentes no han sido tan creativos al inventar los nuevos trabajos como lo han sido al automatizar algunos de los trabajos ya existentes".

Yann LeCun, director de inteligencia artificial de Facebook, no está tan preocupado, al decir que la sociedad se ha adaptado al cambio en el pasado. "Es otra etapa del proceso de la tecnología", dijo LeCun. "No va a ser fácil, pero tendremos que lidiar con esto"-

Hay otros dilemas potenciales, como la forma en que cambiará el panorama legar cuando la inteligencia artificial comience a tomar decisiones más independientes de un operador humano. "Será muy difícil en algunos casos traer al frente a un algoritmo en el contexto de un procedimiento legal", dijo Ian Kerr, el director del Centro de investigación en éticas, leyes y tecnologías de la Universidad de Ottawa. "Creo que será un desafío tremendo".

Otros están mirando más allá, tratando de analizar los efectos de la inteligencia artificial que excede las capacidades humanas. El año pasado, Google adquirió DeepMind, una compañía de inteligencia artificial enfocada en la investigación fundamental con el fin de desarrollar máquinas que sean más inteligentes que las personas.

"No quiero decir que sabremos cuando lo hagamos", dijo Shane Legg, uno de los fundadores de la compañía. "Estar preparados antes de que suceda es mejor que estar preparados después".

Mientras que ellos piensan que la chance de que una superinteligencia maliciosa pueda ser desarrollada es pequeña, Legg y otros se han puesto a estudiar los efectos potenciales por la amenaza profunda que podrían significar.

"No creo que la etapa final sea el mundo que tenemos ahora con mozos robots que traen la comida en una bandeja", dijo Nick Bostrom, un académico de Oxford cuyo libro Superinteligencia: caminos, peligros, estrategias ha informado sobre la discusión acerca de las implicaciones de las máquinas inteligentes. "El resultado final podría ser algo que se ve muy diferente de lo que nos resulta familiar".

Shahar Avin, un investigador de la Universidad de Cambridge, dijo que es muy pronto para que la investigación en inteligencia artificial se haga camino hacia cómo prevenir inteligencias malignas. "Queremos un agente que no pueda o no vaya a modificar su propio sistema de valores", dijo. Es una pregunta abierta el cómo hacer esto, agregó. Una combinación de más presupuesto y más debate público debería acercar a más investigadores hacia el campo de estudio de cómo hacer la inteligencia artificial más segura.

Como parte del esfuezo, Elon Musk, fundador de Tesla Motors Inc., SpaceX y otras luminarias tecnológicas anunció el 11 de diciembre la creación de OpenAI, un equipo de investigación sin fines de lucro dedicado a desarrollar nuevas tecnologías de inteligencia artificial poderosa de la forma más transparente posible.

Si la superinteligencia es inevitable, es mejor construirla en campo abierto y animar a la gente a pensar acerca de sus consecuencias, dijo Musk. También fundó el Instituto de la vida futura, una organización dedicada a explorar algunos de los riesgos que las nuevas tecnologías significan para la humanidad, incluida la inteligencia artificial.

Ng dijo, sin embargo, que la fascinación de "las inteligencias artificiales malignas" pueden resultar una distracción hacia efectos más negativos, como la pérdida de trabajos. Y LeCun dijo que la inteligencia artificial podría ser mejor y más amable que las personas.

"Nos guían nuestros instintos básicos que fueron creados para nuestra supervivencia", dijo LeCun. "Las máquinas tendrán una forma de inteligencia mucho, mucho más diferente. No tendrán los mecanismos que hacen que unas personas hagan cosas malas a las otras".

David Johnston, el gobernador general de Canadá, señaló algunos puntos en un evento separado en Toronto, que capturó algunas de estas ansiedades.

"Lo que cada vez sentimos más es que el aprendizaje automático y la inteligencia artificial emergerán razonablemente pronto, y cuando lo hagan, el impacto será significativo", dijo Johnston. "Así que, ¿qué rol podremos tener y cómo maximizaremos las oportunidades de esta tecnología y minimizaremos los desafíos que vendrán?".


Fuente: Jack Clark / Bloomberg

Populares de la sección