Actualizado el 17/12/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. ¿Aceptarías órdenes de una IA en una guerra?

¿Aceptarías órdenes de una IA en una guerra?

Escrito por Guillem Alsina el 22/03/2022 a las 13:11:40
596

No te lo pregunto yo, sinó que se lo pregunta (y también responde) Wavell Room, blog británico dedicado a reflexionar sobre temas militares que debe su nombre a Archibald Wavell, mariscal de campo británico que sirvió en conflictos desde la Segunda Guerra Boer hasta la Segunda Guerra Mundial.


Tal vez a muchos la pregunta les resulte chocante, pues podrían pensar que el futuro de la guerra va en la línea de máquinas con inteligencia artificial peleando contra otras máquinas, sin humanos de por medio o con estos mandando a los ‘robots’ (seguramente con algo de imaginería popular procedente de la saga fílmica Terminator de por medio), pero como el artículo de Wavell Room bien explica en su final, mucho del trabajo de las fuerzas armadas modernas en distintos conflictos, no tiene nada que ver con luchar en el campo de batalla, sino que se basa en la relación con los civiles.


Es lo que los norteamericanos bautizaron como “winning hearts and minds” (ganarse los corazones y las mentes), y pese a que a ellos en Vietnam e Irak no les acabó de funcionar del todo bien, ello no significa que dicho tipo de campaña para ganarse el favor de la población civil no sea válida, si se acompaña de lo que podríamos definir como una “guerra por causa justa”.


Continuando con el artículo de Wavell Room, este pone un ejemplo práctico de un vehículo autónomo y con IA de transporte de tropas que lleva en su interior soldados humanos hasta un punto avanzado del campo de batalla, y que ostenta el rango de cabo. Una vez llegados a su destino, este da órdenes a los soldados para iniciar un ataque sobre un objetivo, mientras el mismo vehículo los cubre con sus armas.


La reflexión principal del artículo es que el problema que presenta aceptar órdenes de una IA es social. El ejemplo contrario, alterando el orden de los factores para que sea un cabo humano el que dé órdenes a soldados robóticos con IA propia, sería probablemente aceptado por cualquier soldado humano, así como por la opinión pública, probablemente con la excepción de aquellas personas que temen una rebelión de las máquinas al más puro estilo -y volvamos sobre nuestros pasos- Terminator.


Una primera pregunta que podríamos hacernos es si una inteligencia artificial sentiría remordimientos o podría incluso ser punida, por mandar directamente a la muerte a soldados humanos, sea dicha decisión fruto de un error, una información equivocada, o bien un cálculo premeditado. Muchos generales y mandatarios humanos han tomado, en el transcurso de la historia, decisiones que han enviado a una muerte casi segura a un puñado de hombres para salvar a otros.


Pero esto, puesto en una IA, es algo que nos asusta, colectivamente hablando, ya que un ordenador no tiene miedo a la muerte (por lo menos, en el momento actual del desarrollo de la inteligencia artificial).


Por otra parte, las IAs mejoran algunas de las cualidades que tenemos los humanos y que definen el liderazgo, incluso en el campo de batalla. Para empezar, no sucumben a la presión de la situación, y no se bloquean por esta, pudiendo tomar decisiones en situaciones muy difíciles en muy poco tiempo, reaccionando más rápidamente que líderes humanos.


Su visión del campo de batalla a nivel global, teniendo en cuenta no solamente las acciones y la situación de la unidad que comandan, si no del resto, es muy superior a la de los seres humanos, y pueden sopesar las acciones a tomar según esta visión global de una forma más fría.


Adecuadamente desarrolladas, las inteligencias artificiales pueden tener en cuenta la seguridad de los soldados humanos para proteger sus vidas, respondiendo al temor y al rechazo anteriormente descrito del miedo a que puedan enviar soldados directamente hacia la muerte.


Y con los sistemas de aprendizaje automatizado (machine learning) son capaces de aprender de sus experiencias y mejorar, algo que los seres humanos hemos demostrado muchas veces que no podemos hacer bien, repitiendo nuestros propios errores. La existencia de conflictos armados por encima del diálogo pacífico, que persiste desde hace siglos, bien lo demuestra.


La introducción de la IA en el campo de batalla presenta sus ventajas, como evitar las bajas por “fuego amigo”, ya que una máquina no se pone nerviosa y utiliza todos los medios posibles para identificar lo que pasa ante sus sistemas de visión antes de disparar, al contrario de lo que muchas veces pasa con los soldados humanos, que primero disparan... y luego preguntan.


Un campo en el que el artículo indica que los máquinas serían aceptadas socialmente, tanto por los militares como por la sociedad civil, disponiendo éstas de rango (y, por lo tanto, pudiendo dar órdenes a soldados humanos), sería en las tareas adyacentes a las de campo de batalla, tan necesarias como la lucha, pero que no sean propiamente estas.


Me refiero, por ejemplo, a la logística, cocina, o vigilancia de instalaciones entre otras.