Mundo | María Martínez López
¿Qué pasará cuando un dron decida cuándo disparar?
Según la ONU, ya existen armas con capacidad para
elegir objetivos y atacarlos sin control humano. Las iniciativas para intentar
frenarlas también avanzan, pero no a la suficiente velocidad
La guerra en Ucrania podría acelerar la llegada de
los robots asesinos. Tica Font, investigadora del Centro Delàs de Estudios por
la Paz, asegura que hay información de que «los drones que se están viendo
tienen capacidad de ser autónomos» no solo para volar, «sino para elegir sin
intervención humana el objetivo y cuándo disparar». Pero se matiza que estas
funciones «las tienen desactivadas». Eso sí, no descarta que se puedan hacer
pruebas en esa línea. Alude al ofrecimiento de drones israelíes a Ucrania:
«Algunas empresas tienen interés en que se pruebe su armamento en combate» para
luego publicitarlo.
Ucrania no es el único escenario posible para este
salto. Según la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA por
sus siglas en inglés), ya hay funcionando sistemas de armamento con capacidad
de entrar solos en combate. En un informe de diciembre de 2021,
la plataforma Stop Killer Robots, que agrupa a 190 entidades, alertaba
de que cada vez más países y empresas trabajan en este ámbito, diseñando armas
que funcionan en zonas más amplias e identificando a más posibles objetivos.
Recogía casos como el de Jari, un barco no tripulado chino que, según se ha
informado, puede realizar acciones de combate de forma autónoma.
Los riesgos
• Distinción: Un arma autónoma tendría que poder
diferenciar entre un militar y un civil aunque este vaya armado (un yemení con
un puñal o un pastor con un kaláshnikov) o lo parezca (con una muleta). Y
distinguir su intención.
• Responsabilidad: ¿A quién se pueden pedir cuentas
de la decisión que toma un arma autónoma, a quién reclaman las víctimas?
• Proporcionalidad: «Cuando una persona decide un
ataque, hace un balance del daño. Si el arma es autónoma, tienes que darle
instrucciones muy claras sobre cuántas víctimas colaterales son aceptables»,
explica Tica Font.
• Nueva carrera: De 2014 a 2021 el presupuesto
militar en robótica de EE. UU. pasó de 20 a 379 millones de dólares. Desde
2016, se concedieron a China más patentes de inteligencia artificial militar,
recoge Stop Killer Robots.
Según Font, «Rusia ha diseñado torpedos con propulsión
nuclear y cabeza convencional o nuclear que pueden estar meses bajo el agua,
merodeando», con instrucciones de «atacar cuando se identifique un tipo de
barco de un país». También «se está trabajando mucho» en los enjambres de hasta
cientos de armas autónomas que se puedan coordinar entre sí. Además, existe una
línea para «sustituir el viejo armamento nuclear» —tan destructivo que «hace
muy poco creíble» que se llegue a usar—, por armas no tan potentes, pero «con
todas las aplicaciones de la inteligencia artificial».
Mientras «un cierto grado de autonomía podría tener
beneficios como reducir los casos de errores humanos», subrayan desde UNODA, la
autonomía total está llena de riesgos. La investigadora del Centro Delàs
explica que la legalidad de un arma se basa en los principios de distinción,
responsabilidad y proporcionalidad. Y «no es solo muy difícil, sino imposible»
que las armas autónomas los cumplan. Otra cuestión clave es «qué lugar ocupa
aquí la dignidad humana. ¿Tiene que ser una máquina la que decida sobre la vida
o muerte de un humano? Así, lo relegamos a una condición de
inferioridad».
Hacia un límite efectivo
En 2018, el secretario general de la ONU, António
Guterres, afirmó que «las máquinas con el poder y la discreción de segar vidas
sin implicación humana» son «repugnantes moralmente y deberían ser prohibidas».
En declaraciones a Alfa y Omega, la
alta representante de la ONU para Asuntos de Desarme, Izumi Nakamitsu, afirma
que «es vital que la comunidad internacional» se una para lograr «un
instrumento internacional efectivo en el marco de la ONU».
Desde 2014 se debate sobre ello en el marco de la
Convención sobre Ciertas Armas Convencionales. «Estas conversaciones han
producido importantes acuerdos provisionales, incluyendo un conjunto de
principios guía» y un «creciente entendimiento común de los riesgos». Estos
incluyen los que «no podemos prever». «Ahora ha llegado el momento de que
avanzar decisivamente en su trabajo» para lograr «un resultado tangible».
Quedan pendientes cuestiones sobre si bastan los derechos y reglas existentes o
sobre la forma del instrumento de la ONU.
En el pasado, Stop Killer Robots se mostró crítica
con las limitaciones de los debates en la convención, donde la búsqueda de
unanimidad facilita los bloqueos. Además, creen que cualquier avance debe ir
más allá del derecho internacional humanitario para evitar el uso de estas
armas no solo en guerras, sino por parte de las Fuerzas de Seguridad. Por ello,
piden iniciar el proceso para elaborar un tratado vinculante a través de la
Asamblea General de la ONU o de un mecanismo independiente.
La semana pasada tuvo lugar la primera sesión de
2023 del Grupo de Expertos Gubernamentales sobre este tema. Participantes como
Richard Moyers, de la organización británica Article 36 —que busca reducir el
impacto armamentístico—, mostraron su optimismo porque «la conversación va en
una dirección que mira más en serio a las negociaciones». Font no comparte su
diagnóstico. «En el ámbito militar no hay predisposición» a establecer límites,
por la ventaja que supondrían estas armas. Como propuesta «más realista»,
algunos abogan, sin prohibirlas, por «obligar a que siempre haya un humano al
que se pida permiso antes de disparar. Pero todos somos conscientes de que se
terminarán usando». Teme que suceda «lo mismo que con la bomba atómica, que se
intentó prohibir» solo «cuando se utilizó y nos horrorizamos». Como pasó
entonces, si se espera demasiado, las armas estarán lo suficientemente
desarrolladas para que «nadie quiera renunciar a ellas».
No hay comentarios:
Publicar un comentario
Promueve el diálogo y la comunicación usando un lenguaje sencillo, preciso y respetuoso...