“Tenemos que llegar a un compromiso serio antes de que nos encontremos en un mundo con máquinas con el poder de matar seres humanos. Los soldados robots, a diferencia de las personas, nunca podrán actuar movidos por
la compasión.”
La advertencia la realiza el sudafricano Christof Heyns, asesor de la Comisión de Derechos Humanos de la ONU.
Y aunque hablar sobre máquinas asesinas puede sonar a película de ciencia ficción, se trata de una posibilidad bastante real. El Ejército de Estados Unidos ya tiene en servicio en lugares como Afganistán una nutrida flota de drones, y ha dado un paso más allá en este terreno al anunciar su intención de reducir en las próximas dos décadas 120.000 efectivos humanos. Su propósito es sustituirlos por combatientes mecánicos, y para lograrlo, el DARPA (la agencia tecnológica que da forma a los sueños del Pentágono) ya está trabajando en varios modelos.

El gobierno de EEUU quiere que para el año 2040 uno de cada cuatro soldados no sea humano

La mayoría de los expertos coincide en que veinte años tal vez sean un plazo demasiado corto, pero tarde o temprano (afirman) la primera generación de soldados cibernéticos llegará a los campos de batalla. Si nadie lo impide. Por ese motivo, el pasado mes de abril se celebró en Ginebra una reunión de los miembros de la Convención sobre Armas No Convencionales, dependiente de la ONU, a la que fueron invitados algunos de los mayores expertos en robótica e inteligencia artificial. El objetivo de esta cumbre era sentar las bases para un futuro acuerdo que prohíba el desarrollo de lo que los especialistas denominan Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés). “Estamos hablando de algo que va más allá de los drones”, explica Rasha Abdul Rahim, encargada de las campañas sobre control de armas, seguridad y derechos humanos en Amnistía Internacional, y que ha sido una de los ponentes en las conversaciones celebradas en Suiza. “Lo que ahora nos preocupa es el desarrollo de sistemas robóticos armados que sean completamente autónomos y, por tanto, capaces de seleccionar y atacar objetivos, matar o herir a personas, sin un control humano eficaz”.

Por el momento, tales armas no están en servicioactivo en ningún país del mundo, pero ya comienzan a aparecer los primeros prototipos que nos avanzan cómo puede ser el futuro que nos espera casi de forma inmediata.
Uno de los más espectaculares procede de Japón y se llama Kurata. Se trata de un coloso metálico que pesa cuatro toneladas, mide unos imponentes cuatro metros de altura y dispone de cuatro patas con ruedas controladas por control remoto.

Vidas en juego
Pero lo que hace que Kurata sea tan especial es que va equipado con dos ametralladoras capaces de disparar seis mil balas por minuto y cuenta con un sistema de seguimiento que persigue objetivos en movimiento. Su precio es de más de un millón de dólares por unidad, y aunque de momento no se ha vendido ninguno, es la prueba irrefutable de que la era de los soldados robóticos ha comenzado. Pero, ¿eso es algo malo?
Depende del punto de vista. Por ejemplo, Ronald C. Arkin, catedrático de la Universidad de Michigan y uno de los máximos especialistas en robótica, cree que la presencia de soldados cibernéticos, además de una realidad imparable, sería sumamente positiva. “La lista de atrocidades cometidas en cada guerra es interminable, y sus autores fueron siempre personas”, nos comentó el experto, con quien conversamos a través de email.

Este tipo de armas podría desatar una nueva carrera armamentística: todas las naciones querrían tenerlas

“El comportamiento humano en el campo de batalla es muchas veces ética y legalmente cuestionable. Los crímenes de guerra son abundantes a lo largo de la historia, debido a causas tan variadas como el deseo de venganza provocado por el alto número de bajas, enemigos que no están claramente definidos, órdenes confusas que dan lugar a interpretaciones erróneas… Frente a todo este caos, los sistemas robóticos podrían solucionar muchos de estos problemas; o, al menos, minimizarlos”, termina este especialista en androides con capacidad militar.
Para Arkin, la sustitución de los combatientes humanos por esta tecnología es casi una obligación moral: “Para comenzar, el propio ejército que los utilice reduciría el número de vidas que tendría que sacrificar en caso de conflicto bélico. Pero además, evitaría las bajas entre la sufrida población civil, eso que se llama de forma edulcorada víctimas colaterales”.

[image id=»68976″ data-caption=»Kurata. Máquina de guerra japonesa inspirada en los Mechas (los robots de los mangas). Pero todavía no es un modelo autónomo, ya que necesita ser controlado a distancia.» share=»true» expand=»true» size=»S»]

Arkin argumenta como principal razón a favor del uso de los LAWS: “Que no tendrán emociones que puedan nublar su juicio. El miedo y la histeria que latentes en una batalla son de los peores enemigos de los combatientes, que a menudo no son capaces de soportar la presión y acaban tomando decisiones de consecuencias terribles. En cambio, los robots, si están adecuadamente programados, en caso de duda podrían no actuar. Ellos, a diferencia de los humanos, no dispararían primero y preguntarían después”. Por tanto, para el especialista el problema no está tanto en las máquinas, sino en los criterios con que se programen. “Los robots soldados serán como tostadoras. No tendrán alma ni conciencia para decidir hacer el bien o el mal. Si se los programa para cometer masacres, las harán. La clave está en diseñarlos para ser eficaces y que logren sus objetivos evitando el derramamiento de sangre siempre que sea posible”.

Los primeros modelos ya están aquí
Una opinión completamente distinta es la que sostiene Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield, artífice de la campaña Stop Killer Robots y miembro del ICRAC (Comité Internacional para el Control de los Robots Armados), una organización formada por científicos y abogados especializados en derechos humanos. “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida y la muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles”, afirma Sharkey.

Actualmente, el Ejército de Estados Unidos ya ha confiado numerosas misiones de combate a drones, y las Fuerzas Armadas de Corea del Sur han comenzado a usar un vehículo blindado manejado por control remoto que patrulla sus fronteras. Pero ninguno de estos ingenios es completamente autónomo. La decisión de abrir fuego siguen tomándola los seres humanos. Por eso, los representantes de los organismos que se reunieron en Ginebra lo que buscan es llegar a un acuerdo internacional que prohiba los LAWS antes de que lleguen a existir.
Aunque saben que esto no es sencillo, ya que, tal y como nos explicó Miguel Ángel Calderón, de Amnistía Internacional: “Los intereses empresariales van a pesar mucho a la hora de tomar la decisión de desarrollar este tipo de armas”.

Y de hecho, esa decisión ya se ha tomado. Como ya avanzamos, DARPA, la agencia tecnológica que trabaja para el Pentágono, ya ha presentado uno de sus primeros prototipos, al que han bautizado Atlas. Se trata de un robot con un aspecto parecido al del Terminator. Su estructura está formada por veintiocho articulaciones accionadas hidráulicamente que le permiten moverse con asombrosa agilidad por cualquier tipo de terreno. Y por supuesto, puede portar armamento.

[image id=»68977″ data-caption=»Atlas. Este humanoide metálico diseñado por el DARPA puede transportar heridos en el campo de batalla y hasta pilotar blindados.» share=»true» expand=»true» size=»S»]

Rusia también se ha sumado a esta carrera. El jefe del Estado Mayor, Valeri Guerasimov, ya manifestó su deseo de equipar con robots a las tropas que combaten en Chechenia. Desde entonces, el Ejército ruso se ha hecho con un potente arsenal tecnológico en el que destaca el MRK-27BT, un chasis móvil sobre orugas equipado con una ametralladora, dos lanzagranadas, dos lanzallamas y seis granadas de humo para camuflaje. Pero además, los rusos presentaron en el mes de enero su primer prototipo de combatiente robótico autónomo. En este caso era un modelo con forma humanoide capaz de desplazarse en squad por la estepa. Pero la demostración no resultó muy espectacular, y las cámaras recogieron incluso cómo Vladimir Putin bostezaba durante el espectáculo, lo que revelaba que no estaba muy impresionado por su primer recluta mecánico.

Soldados más baratos que los humanos
Más allá de las consideraciones morales, las cuestiones económicas también pesan en la iniciativa de desarrollar este tipo de armamento. Gordon Johnson, jefe del programa de robótica del Comando de Fuerzas Conjuntas del Pentágono, explicó que: “El coste medio de un soldado durante toda su carrera es de unos cuatro millones de dólares, y la cifra va en aumento con los años. Mientras que, según nuestras estimaciones, el de un robot no llegaría ni a la décima parte”. Para hacerse una idea del ahorro que su uso podría suponer para cualquier ejército, basta decir que el Gobierno de EEUU tendrá que pagar este año 653.000 millones de dólares a los soldados que se retiren. Una cifra que se ahorraría con el uso de combatientes mecánicos. Y estos soldados metálicos, además, podrían cumplir servicio durante más años que los humanos.

Por supuesto, los militares no son ajenos a las consecuencias legales y morales que puede tener el uso de prototipos cada vez más autónomos. “Me he preguntado cientos de veces qué ocurriría si una de estas unidades destruyese un autobús escolar en lugar de un tanque”, contó Johnson. “Por eso, jamás daríamos la capacidad a una máquina de disparar contra un blanco hasta estar seguros de que apuntará al blanco correcto”.
Es una postura juiciosa, pero parece que las cosas no serán tan sencillas. Tal y como explica Manuel González Bedía, profesor de Informática e Ingeniería de Sistemas en la Universidad de Zaragoza: “Cualquier máquina puede fallar. No existe una efectividad al 100%. Y esto es una ley válida tanto para un ordenador personal como para un supersoldado robótico cuya construcción cueste millones de dólares. La gran diferencia estriba en que las consecuencias de un error cometido en el campo de batalla serán mucho más graves, al estar en juego, además, vidas humanas”.

Consecuencias que podrían llegar al extremo de que: “Esas mismas máquinas a las queestamos dando la posibilidad de atacar a un ejército enemigo podrían, en caso de fallar, volverse contra nosotros mismos”, apunta Noel Sharkey, de Stop Killing Robots. “Todos los riesgos son posibles, por exagerados que parezcan”. Y las implicaciones legales, como ya hemos apuntado, tampoco son ajenas a este debate. ¿Quien sería el responsable de los hipotéticos crímenes de guerra cometidos por un LAW descontrolado? “La rendición de cuentas, según el derecho internacional, obliga a que alguien se responsabilice de las acciones y a que se recompense a las víctimas. Con un robot eso no resultaría tan fácil, ya que una máquina no es responsable de matar a alguien”, sostiene Miguel Ángel Calderón, de Amnistía Internacional.

[image id=»68978″ data-caption=»Sword. Vehículos robóticos equipados con una ametralladora de calibre ligero. Ya están en servicio en Oriente Medio. Corea del Sur también los usa para patrullar sus fronteras.» share=»true» expand=»true» size=»S»]

Pero para Ronald C. Arkin, uno de los principales defensores del uso de esta tecnología con fines militares,esos miedos entran dentro del terreno de lo apocalíptico. “Es verdad que en el caso de producirse una situación así no veríamos a un soldado concreto juzgado y condenado por dichos crímenes. Pero el Alto Mando sería el responsable de dichas máquinas, y le correspondería, por tanto, a su Gobierno pagar las indemnizaciones correspondientes a las víctimas. Por otra parte, no dudo de que llegará el momento en que se legisle sobre esta materia y se cubran las lagunas que puedan existir”.

Por otra parte, Arkin está convencido de que una prohibición de este tipo de armas no tendría ningún efecto práctico. “Si pueden utilizarse, alguien acabará por usarlas”, afirma. Y recuerda cómo, pese a que en 1899 las naciones europeas firmaron un acuerdo para prohibir usar el gas con fines bélicos, los alemanes se lo saltaron y acabaron empleándolo en la I Guerra Mundial. “Lo que hay que hacer es estudios fiables que nos certifiquen que estas máquinas actúan según lo establecido por el derecho internacional”.

Rearme robótico de las naciones
El futuro distópico que nos muestran filmes como Terminator, con un mundo controlado por ejércitos mecánicos asesinos, está muy lejos de ser real. “La concepción del robot como algo maligno es absurda. Son máquinas, y no pueden tener consciencia sobre el bien y el mal”, adfirma Arkin. Así, frente a las advertencias que científicos como Stephen Hawking han hecho sobre los hipotéticos peligros de la inteligencia artificial descontrolada, expertos como el ingeniero y programador Murray Shanahan aseguran que: “La existencia de un robot que pueda tomar decisiones por sí mismo aún es una entelequia. No sabemos cómo construir una máquina así. Las unidades militares artificiales que somos capaces de crear son meras herramientas sin capacidad alguna de actuar por sí mismas. De modo que es importante aclarar que hablamos de riesgos a largo plazo. Por eso, hay quien piensa que estamos colocándonos la venda antes de que se produzca la herida, pero la trascendencia del tema justifica tanta prevención ”, explica.

[image id=»68979″ data-caption=»Piloto inhumano. El soldado mecánico ruso que decepcionó a Putin. Lo cierto es que su aspecto no inspira mucho temor.» share=»true» expand=»true» size=»S»]

Bastante más factible que el hecho de que los robots soldados desarrollen su propia concienciaes, en opinión de Shanahan, otro de los grandes riesgos que entraña el desarrollo de esta tecnología. Se trata da la posibilidad de que se desate una nueva carrera armamentística. “Hay quien cree que este tipo de armas tendría un efecto disuasorio sobre el enemigo, pero también podría ocurrir lo contrario. Ningún gobierno querrá que su ejército esté en desventaja y todos acabarán desarrollando sus propios programas”, explica. Organizaciones como Amnistía Internacional van más allá y creen que incluso podrían ser un estímulo para iniciar acciones armadas, ya que, al no tener que pagar el coste de popularidad que supone la pérdida de vidas humanas, los gobernantes de cualquier país tendrían menos restricciones éticas a la hora de involucrarse en conflictos bélicos.

La cumbre de Ginebra se ha saldado con la intención de pedir a los estados miembros de la ONU una moratoria en sus programas de creación de “ejércitos no humanos”, aunque no parece que muchos de los gobiernos estén por la labor. En Estados Unidos, por ejemplo, el general Robert Coole anunció a principios de año su deseo de que las primeras unidades ya estén en el campo de batalla en el año 2030, y de que una década después, en 2040, uno de cada cuatro soldados del Ejército estadounidense sea de metal. Otros países, como China, esperan conseguir algo similar para el año 2050. Pero Ronald C. Arkin se muestra más escéptico respecto a esos plazos. “No son muy realistas”, asegura. “En el año 2002, el Pentágono ya anunció algo similar para 2015, y todavía se está probando el primer prototipo, el Atlas. En los próximos años veremos cómo aumenta la presencia de drones en los distintos escenarios bélicos, pero aún tardaremos por lo menos cuatro décadas en ver a los primeros LAWS en activo”.

[image id=»68980″ data-caption=»SOX2. Inicialmente fue concebido como un exoesqueleto que los soldados se pondrían encima. Pero el nuevo modelo quiere ser la base de un androide autónomo.» share=»true» expand=»true» size=»S»]

No falta en este debate quien propone crear una especie de decálogo robótico (inspirado en las célebres leyes de Isaac Asimov) que guíe el comportamiento de estas máquinas. Pero la mayoría de los expertos no lo considera muy práctico. Más que un código basado en conceptos éticos y legales cuyo alcance una máquina nunca llegará a comprender, lo que proponen es programarlas de tal forma que sean capaces de archivar la información relativa a todo lo que sucede a su alrededor. El objetivo es que al procesarla tengan disponibles todas la opciones que puede conllevar una determinada acción, para que de esa manera tomen la decisión menos dañina. “Sería lo más parecido a lo que los humanos llamamos aprendizaje”, afirma Arkin.

¿Qué ocurrirá en un futuro cercano? Los partidarios de la prohibición son optimistas y creen que puede llegar a concretarse. “Lo conseguimos en el caso de las armas químicas y en el de los láseres cegadores, así que hay motivos para pensar que en este tema también lo lograremos”, asegura Noel Sharkey. Y en el otro bando, los partidarios de su uso, como Ronald C. Arkin, creen que siempre prevalecerá el sentido común y que las máquinas ahorrarán muchas vidas. Al menos, unos y otros coinciden en que un hipotético apocalipsis robótico parece estar muy lejano.

Redacción QUO