Comienza en Ginebra nueva ronda gubernamental sobre armas autónomas:

El peligro de las máquinas que aprenden a matar solas

09/04/2018
  • Español
  • English
  • Français
  • Deutsch
  • Português
  • Opinión
arma_autonoma_-_kaos_en_le_red.jpg
Foto: Kaos en la Red
-A +A

Su sigla en inglés es LAWS. Son los sistemas de armas letales autónomas, también llamados robots asesinos. Lejos de ser alucinaciones futuristas de escritores de ciencia ficción, constituyen uno de los núcleos de la carrera armamentista hoy en curso.

 

EEUU está conduciendo un plan agresivo para desarrollar diferentes tipos de armamento semiautónomo y autónomo, realizando tanto investigación básica como aplicada. Entre los aspectos centrales están la mejora de la percepción, razonamiento e inteligencia de máquinas pero también las interacciones de colaboración entre máquinas y humanos.

 

A modo de ejemplo, uno de los principales programas –conducidos por DARPA (Defense Advanced Research Projects Agency)– es OFFSET (OFFensive Swarm-Enabled Tactics), que apunta a la integración de flotillas de drones “inteligentes” (“drone-swarms”) con robots terrestres y pequeñas unidades de infantería para operar en contextos urbanos.

 

Otro caso es el Proyecto Maven –recientemente puesto en entredicho por empleados de Google por la participación de esa corporación en el mismo– que involucra el uso de inteligencia artificial para identificar blancos potenciales de bombardeo con drones.

 

La importancia que adjudica el Departamento de Defensa estadounidense a los sistemas autónomos se ve reflejada en sus planes de inversión. El gasto previsto para su desarrollo entre 2016 y 2020 es de 18 mil millones de dólares[1][1], a lo que se agregan otras iniciativas de investigación sobre Inteligencia Artificial financiadas por el gobierno (que en 2015 totalizaron unos 1100 millones).

 

Pero además de la inversión estatal, la industria militar de los EEUU se basa en un extendido “ejército de reserva” civil, compuesto por empresas, universidades e individuos innovadores, entramado que diluye la frontera entre aplicaciones comerciales y militares. El caso del armamento autónomo no es una excepción, sobre todo en lo relacionado con los avances de la inteligencia artificial.

 

La nueva guerra fría tecnológica: la Inteligencia Artificial

 

Este intento estadounidense por mantener posiciones de ventaja en el campo bélico es desafiado por varios países que también ven en la IA la llave de la supremacía tecnológica y económica futuras.

 

El Consejo de Estado de China dio a conocer en Julio 2017 una hoja de ruta que aspira a convertir al país en el centro de innovación global en IA para 2030. A tal fin, dispone un presupuesto de más de un trillón de yuanes (alrededor de 147.8 mil millones de dólares estadounidenses).[2][2] En Enero 2018 se anunció la construcción de un parque industrial dedicado a 30 km de Beijing, en el que el gobierno aspira a alojar a unas 400 compañías del sector. Según averiguaciones de la revista Nature, se ha desatado una guerra por emplear talentos de IA –relativamente escasos todavía– atrayéndolos con suculentos salarios.

 

En el campo del armamento, China está decidida a imitar el modelo de EEUU, abriendo la puerta a un entretejido de investigación y aplicación civil-militar, según lo anuncia el periódico militar PLA Daily en su edición del 7 de Agosto 2016.[3][3] Incluso poniendo en marcha un organismo de investigación militar de tecnología avanzada (Scientific Research Steering Committee), que es visto por los analistas del sector como el símil chino de la agencia DARPA.

 

Corea del Sur, Rusia, Israel, India, Francia y Gran Bretaña a su vez tienen sus propios planes. El gobierno surcoreano, siguiendo el modelo japonés, apunta a un poderoso desarrollo de la robótica industrial y de uso doméstico, pero también militar, poniendo el énfasis en los sistemas no tripulados (drones) y de vigilancia, compartiendo con Israel el dudoso honor de haber instalado centinelas robots con poder de fuego autónomo en sus fronteras.

 

Israel es uno de los principales exportadores de sistemas autónomos armados, tanto en el campo aéreo, como también en el marítimo y terrestre. Rusia tampoco quiere quedar atrás en esta batalla científico-tecnológica. De allí que lanzó –acorde con el reporte del SIPRI “Mapeando el desarrollo de la autonomía en sistemas de armamento”– el programa Robotics 2025 y creó un Centro de Desarrollo de Robótica en Skolkovo (SRC) en 2014.

 

Según el informe citado, “el ministro de Defensa francés Jean-Yves Le Drian, anunció en Febrero 2017 que la IA jugará un rol cada vez más importante en el desarrollo de nuevas tecnologías militares para asegurar que Francia no quede en desventaja frente a sus aliados, EEUU y Gran Bretaña.” En cuanto a esta última, el reporte señala que “Gran Bretaña es el país de Europa que más invierte en investigación y desarrollo militar (R&D)”. La robótica y los sistemas autónomos “son una de las 10 áreas prioritarias de la Estrategia de Modernización Industrial 2017”, agrega el informe.

 

Algo similar ocurre en Alemania –segundo productor mundial de robótica industrial– e India, donde la investigación militar en la materia es desarrollada por el Centre for Artificial Intelligence and Robotics, ubicado en Bangalore en el Estado de Karnataka.

 

Superar al mejor sin conocimientos previos en tan sólo 41 días

 

Este titular, digno de un aviso publicitario de cualquier mediocre academia de cursos, describe con precisión un dramático avance del conocimiento dado a conocer en Diciembre 2017. Su protagonista no es humano (al menos luego de su creación) y su nombre AlphaGo Zero.

 

Se trata de un algoritmo de inteligencia artificial aplicado al juego chino de go, que permitió que, sin más dato que las reglas de juego, este nuevo “jugador” digital batiera al actual campeón del mundo –su predecesor también electrónico, AlphaGo– venciéndolo en cien partidas sin derrota alguna. Ambos campeones, entrante y saliente, fueron prohijados por la compañía Deep Mind, adquirida por Google (Alphabet Inc.) en 2014.

 

Lo de “dramático avance” es literal. Hasta ahora, la capacidad de aprendizaje de esta tecnología digital se basaba en la posibilidad de procesar terabytes de datos suministrados previamente. En el caso de juegos como el go, ajedrez, póker o “tres en línea” se trataba de una gran cantidad de partidas jugadas con anterioridad por los más brillantes contendientes humanos.

 

AlphaGo Zero no fue alimentado con partida alguna. Jugó contra sí mismo comenzando desde el nivel de novato, hasta lograr en 41 días convertirse –así la nota del sitio web de la compañía– “en probablemente el mejor jugador de go del mundo”. La poderosa estructura informática utilizada es conocida como “redes neuronales”, alimentada con procesos de “reinforcement learning”[4][4].

 

Esta fabulosa capacidad de aprendizaje, tan similar al comportamiento humano, no es sin embargo general sino limitada a un problema preciso. ¿Pero si el problema acotado fuera matar enemigos? Si cualquier instrumento mortífero actual tuviera acoplado un algoritmo de estas características, con sistemas de identificación de imagen y lenguaje en base a parámetros específicos – por ejemplo los de una población campesina en una zona clasificada por estrategas militares como “hostil”; si este sistema además pudiera interactuar en segundos con bases de datos en línea o acopiados con anterioridad; ¿Qué impediría que estos sistemas pudieran autoordenarse liquidar a dichos enemigos?

 

Sin duda que habría “daño colateral” –usando la nefasta jerga militar que separa asesinatos previstos de víctimas no involucradas en el conflicto– pero, ¿no sería más “eficiente” y quirúrgico que simplemente bombardear poblados enteros como se hace hoy en Yemen, Siria, Gaza, Irak, Afganistán o Somalia?

 

Lo mismo podría imaginarse respecto a la eliminación de infraestructuras críticas, pudiendo así terminar una guerra en cuestión de pocos días. Obviando sus posteriores secuelas, claro.

 

Precisamente ese argumento, tan cínico y fatídico como suena, es el esgrimido por los que impulsan la inversión, investigación y desarrollo de armas autónomas letales.

 

Más allá de las argumentaciones, hay claros motivos implícitos en esta mortífera aplicación de sistemas de inteligencia artificial al armamento. Amén de mantener supremacía bélica, lo cual implica la posibilidad de eliminar toda resistencia emergente a la hegemonía geoestratégica, se trata de conservar o acrecentar la supremacía tecnológica. Lo cual supone claros beneficios económicos para los ganadores y enormes perjuicios para los perdedores.

 

Ganadores que pertenecen al Norte y perdedores que habitan el Sur global, lo cual no hará sino ampliar la brecha socioeconómica y el colonialismo tecnológico.

 

Las empresas implicadas en esta carrera armamentista se prometen contratos millonarios y ganancias siderales por la utilización de la Inteligencia Artificial tanto en el campo militar como en el civil y los gobiernos invierten para intentar sacar al estancado capitalismo de una inercia económica fatídica.

 

Es justamente el negocio armamentista, el que echa por tierra el argumento que promueve la autonomía aplicada al armamento. A través de la masiva comercialización de estos sistemas y su correspondiente diseminación, las cosas pueden volverse en contra velozmente, con el peligro asegurado que parte de esta tecnología sea suministrada por cualquier gobierno o mercader de armas a grupos irregulares.

 

O que, finalmente en versión simplificada y asequible para “uso doméstico”, las armas autónomas puedan ser usadas por cualquier ciudadano ofuscado o alterado psíquicamente para jugar videojuegos tomando como blanco a sus propios conciudadanos.

 

Máquinas de matar refinadas: hora de parar esta locura

 

Los locos no son sólo los que aprietan el gatillo – lo cual en el caso del armamento autónomo sería difícil de discernir. Es hora de frenar a los desequilibrados del poder, las corporaciones fabricantes y los gobiernos y bancos que financian su producción.

 

No se detendrá el enorme avance tecnológico que supone la Inteligencia Artificial, pero sí es posible prohibir internacionalmente la utilización de IA para fines bélicos.

 

Este 9 de Abril comienza en la sede de Naciones Unidas en Ginebra una nueva ronda de la Convención de Ciertas Armas Convencionales (CCW por sus siglas en inglés), en la que representantes gubernamentales discutirán por quinto año consecutivo el tema del armamento autónomo.

 

Según informa la Campaña StopKillerRobots, “luego de 3 años de reuniones exploratorias en las que participaron 80 estados, en 2016 se formalizó un Grupo de Expertos Gubernamentales (GGE)” para abordar la cuestión. Además de la reunión a desarrollarse del 9 al 13 de Abril, está prevista una segunda del 27 al 31 de Agosto.

 

En estas reuniones no se tomarán decisiones de fondo, pero se producirá un informe con propuestas a futuro que será adoptado en el transcurso de la Convención de Partes sobre Ciertas Armas Convencionales que tendrá lugar entre el 21 y el 23 de Noviembre de este año.

 

Los activistas señalan que “otorgar poder a sistemas de armamento autónomo para decidir blancos y ataques, erosiona la obligación fundamental que rige la Ley Humanitaria Internacional (IHL) y atenta contra los derechos humanos establecidos.”

 

La Campaña StopKillerRobots, que agrupa a más de 50 organizaciones internacionales no gubernamentales, apunta a lograr la prohibición de desarrollo, producción y uso de sistemas de armas completamente autónomos mediante un tratado internacional vinculante y también a través de leyes nacionales y otras medidas.

 

Por otra parte, más allá de que las armas logren total autonomía o no, académicos y expertos indican que la aplicación parcial de Inteligencia Artificial en este campo está produciendo ya efectos devastadores.

 

Del mismo modo, es preciso considerar que la carrera armamentista desatada por estos nuevos desarrollos, dilapida recursos que son urgentes para mejorar la vida de miles de millones de personas desamparadas.

 

En lo único en que tanto promotores como detractores están de acuerdo, es en que estas armas son la tercera revolución tecnológica de la guerra, luego de la pólvora y el armamento nuclear. Esta vez estamos llamados a impedir que esa revolución se concrete.

 

 

Javier Tolcachier es un investigador perteneciente al Centro Mundial de Estudios Humanistas, organismo del Movimiento Humanista.

 

 

[1] Bornstein, J., ‘DOD autonomy roadmap: autonomy community of interest’, citado en el informe SIPRI,  Mapping the development of autonomy in weapons systems, Boulanin V.- Verbruggen M., Noviembre 2017, pág 95

[4] Las redes neuronales son un tipo de estructura de aprendizaje computacional en la que la información fluye a través de una serie de placas conectadas en red. Reinforcement learning es una técnica de autoaprendizaje computacional en la cual el agente aprende interactuando con su medio. (En base al material “The Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence, Nro. 8”, elaborado por United Nations Institute for Disarmament Research (UNIDIR)

https://www.alainet.org/es/articulo/192110?language=es

Clasificado en

Suscribirse a America Latina en Movimiento - RSS