Los robots asesinos, a debate en la ONU

El problema que supone la falta de regulación de estos sistemas ha sido el eje central de una reunión entre diplomáticos

El problema que supone la falta de regulación de estos sistemas ha sido el eje central de esta reunión entre diplomáticos. En concreto, la ONU pretendía en este encuentro poner sobre la mesa si las leyes de dichos robots deben ser reguladas por el derecho internacional humanitario. Esto supondría que los robots militares deben regirse por los principios de distinción entre civiles y combatientes, la proporcionalidad en la escala de ataque o su uso para cometer genocidio, masacres y crímenes de guerra. Por su parte, los responsables del ejército que controlan los robots serían responsables de las acciones de los mismos.

Dentro de esta propuesta sobre los llamados Sistemas de Armas Letales Autónomas, cada país cuenta con opiniones muy dispersas, dependiendo de la situación actual de su región.

Según el diario The Conversation, las diferentes posturas se resumen en cuatro puntos:

1. Emplear las leyes que ya existen

Reino Unido defiende esta posición al considerar que el derecho internacional humanitario que existe en la actualidad debe ser suficiente para regular las nuevas tecnologías basadas en inteligencia artificial y en robótica.

2. Los humanos deciden

En Francia no creen que prohibir este tipo de tecnología sea correcto, pero sí que sería necesario contar siempre con un humano al mando para poder tomar decisiones. Esto significa que aunque sea el robot quien seleccione objetivos y dispare, los seres humanos serían los responsables de establecer las reglas de combate, y, por tanto, de las acciones.

Dejar el control total a la máquina supone un problema apra Francia, que puso el ejemplo de cómo AlphaGo venció al campeón del mundo por primera vez en una partida de estrategia al juego 'Go'. Según se indicó en ese momento, este tipo de máquinas aplicadas al control de misiles podrían adquirir comportamientos impredecibles.

Esta posición también la compartieron las delegaciones de Holanda y Suiza que defienden que la implicación humana debe ser lo más amplia posible para asegurar el cumplimiento con la ley humanitaria internacional.

3. Los robots son superiores

La prohibición de este tipo de robots por incumplir la ley humanitaria no es una teoría válida para Reino Unido, Francia y Canadá, que aseguran que podrían ser moralmente superiores a los soldados humanos, ya que estas máquinas serían más exactas, más precisas y menos propensas a malas decisiones causadas por el pánico o la venganza.

4. Prohibición total

Completamente en contra de la postura de países como Canadá, se encuentran la Santa Sede y otras trece naciones que consideran que lo que no es moral es dejar a estas máquinas el control total, sin intervención humana.

Por su parte, Pakistán y Palestina defienden la prohibición total de dron es o armas teledirigidas aunque el control sea total por parte de un humano.

Al tratarse de una reunión informal, no hubo posibilidad de votos y habrá que esperar a la elaboración de un panel de expertos gubernamentales para continuar las discusiones. Mientras tanto, se mantendrá la normativa actual sobre derecho internacional humanitario.


Fuente: Expansión