Se acaba el tiempo para reglamentar los ‘robots asesinos’

el

Un pequeño dron sobrevuela una multitud en un teatro. Se mueve con rapidez mientras compara cada rostro con la información en su base de datos. Al validar la identidad de su blanco, dispara una bala. Con total eficacia, el robot autónomo, sin intervención humana, ha tomado una vida.

Así es el video de ficción creado por la campaña Stop Killer Robots, que se hizo viral tras su publicación el pasado 12 noviembre y busca mostrar el futuro cercano que algunos fabricantes de armas planean construir.

Las armas letales autónomas (LAW, por sus siglas en inglés) son también conocidas como ‘robots asesinos’ y representan un polémico campo de la robótica y la inteligencia artificial.

Miles de expertos, científicos y activistas buscan frenar o regular su desarrollo, en el que trabajan países como China, Estados Unidos, Rusia, India e Israel.

En los últimos meses, personajes como Elon Musk y Stephen Hawking abogaron por su prohibición por considerarlas, según plantean en una carta, “máquinas terroríficas” que podrían representar una amenaza real para la raza humana.

Los sistemas autónomos letales implican violaciones del Derecho Internacional Humanitario (DIH) y del principio de proporcionalidad. Así lo reconoció Human Rights Watch en un reporte en 2014. Es también el argumento que explica Camilo Serna, subdirector de la Campaña Colombiana contra las Minas y delegado para Latinoamérica de Stop Killer Robots (que en español traduce ‘detener a los robots asesinos’), quien trabaja en labores de desminado desde hace 17 años y aboga desde hace 5 por el desarme humanitario.

Serna plantea: “Yo no puedo juzgar a un robot ni encerrarlo. La responsabilidad se diluye entre el que lo construyó, el que lo programó, el que lo fabricó, el que lo ideó… ¿Quién asume la responsabilidad si un arma letal autónoma comete una masacre?”.

Otro elemento del DIH, y que se vería comprometido en un mundo de robots capaces de decidir matar es la rendición. En el momento en que una persona se desarma pasa a ser civil en el marco de un conflicto, pero, explica Serna, “el arma letal autónoma puede estar programada para matar a sujetos de uniforme verde con pañoleta blanca, y sin importar si están o no armados, les disparará”.

Hasta el momento, 22 países han apoyado la prohibición de estos sistemas. “Pueden causar una catástrofe, pueden convertirse en armas de destrucción masiva”, señala el experto. El problema es que una vez las armas salgan al mercado, aunque la prohibición sea posible, el camino se vuelve más complejo. Para los detractores de los LAW, la velocidad del proceso regulatorio no responde a la amenaza.

“Pasará lo que ya pasó con las minas antipersonas y las municiones en racimo. Las prohibiciones salen, pero el proceso para que los países las prohíban de verdad y se unan a las resoluciones es largo, tortuoso y costoso. Obviamente, el costo más alto son vidas humanas. Esto empieza a funcionar y empieza a matar”, asegura Serna.

Hay pocos avances

La lucha de Stop Killer Robots, una coalición global de organizaciones no gubernamentales unidas en pos de la prohibición de estos sistemas, se inició en 2012. Ese año, un grupo de expertos comenzó a preocuparse al ver el creciente grado de autonomía de los drones armados.

El primer llamado fue a la Comisión de Derechos Humanos de Naciones Unidas. Allí, el relator para ejecuciones extrajudiciales investigó sobre el tema y lo incluyó en su reporte. Luego, la temática pasó a estudio por la Convención sobre Ciertas Armas Convencionales (CCW), donde actualmente se discute el asunto. La primera reunión fue hace 4 años y la más reciente, en noviembre de 2017. Sin embargo, el avance no es el esperado.

Lo más reciente fue la decisión de retomar la discusión y los grupos de trabajo en 2018. Así lo anunciaron en la conclusión de la reunión anual de la CCW, que tuvo lugar el pasado 24 de noviembre y contó con 91 representantes de países miembro de Naciones Unidas.

La medida fue criticada por las organizaciones activistas y calificada como “decepcionante” por mostrar “una falta de ambición en el tratamiento de la cantidad de preocupaciones alrededor de los sistemas letales autónomos”.

Este año, el embajador de India, Amandeep Singh Gill, liderará la comisión especializada. El grupo de expertos gubernamentales se reunirá durante dos sesiones previas a la reunión anual de finales de noviembre de 2018. Y aunque las fechas dependen de la disponibilidad de los Estados, inicialmente se espera que la primera reunión sea del 9 al 13 de abril y la segunda, del 27 al 31 de agosto.

Por ahora, ningún gobierno se ha declarado abiertamente a favor de las armas letales autónomas. Serna explica que hay países, como Rusia y Estados Unidos, que durante las reuniones tratan de dilatar la discusión. Otro grupo, en el cual se ubican países progresistas como Suiza y Noruega, están en una ‘zona gris’, pues prefieren estudiar los impactos antes que frenarlos.

Los opositores son países con baja influencia internacional o con reducida capacidad armamentista. Entre los 22 que apoyan una prohibición se encuentran Pakistán, Sierra Leona, Irak, Palestina y el bloque latinoamericano, que ha liderado la oposición a estos sistemas y cuenta con pronunciamientos oficiales de México, Argentina y Brasil, entre otras naciones.

“Las esperanzas están puestas en Latinoamérica para ver si se logra presionar al resto de países en Naciones Unidas”, aseguró Serna.

En el panorama nacional, la Campaña Colombiana contra las Minas, la cual es parte activa de la coalición global desde 2014, ha tratado de que Colombia tome una posición acorde con el bloque latinoamericano y lidere esta temática.

“Hemos tenido reuniones con la Cancillería y el Ministerio de Defensa, pero, aunque las personas con quienes hemos conversado muestran su interés, no hemos podido llegar directamente a quienes tienen en sus manos tomar las decisiones. Aunque la última palabra es del Presidente, puede que para muchos estemos hablando de ciencia ficción y marcianos”, señaló Serna.

Por ahora, los robots con fuerza letal existen, pero no cuentan con total autonomía. Los sistemas actuales suelen requerir un visto bueno de algún humano o pueden desconectarse. La inteligencia artificial (IA) avanza a diario, pero está lejos de permitir el grado de independencia que requerirían estos sistemas.

La comunidad científica no tiene intenciones de esperar que lo alcance. En foros internacionales ha alertado sobre el proceso y en agosto 114 expertos firmaron una carta dirigida a Naciones Unidas para pedir su prohibición internacional. Entre los firmantes estaban el mencionado Elon Musk y Mustafa Suleyman, director de inteligencia artificial en Google. Más tarde, durante la primera reunión de año de la comisión de expertos, argumentaron frente a 70 representantes de países miembros de Naciones Unidas sus razones para “ir con cuidado”.

Pero, para quienes defienden la fabricación de armas autónomas, es innegable el argumento de la efectividad. Al reemplazar humanos con máquinas, dicen, se salvarían vidas. Alegan que la tecnología permitirá una precisión en la identificación de un blanco mucho mayor que la que puede esperar alcanzar cualquier humano.

Vía: http://www.eltiempo.com/tecnosfera/novedades-tecnologia/se-acaba-el-tiempo-para-reglamentar-los-robots-asesinos-174784

AstroFaster, tu negocio en la nube.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s