“Las armas con autonomía para decidir sobre la vida de una persona en el combate existen, pero plantean una cuestión ética básica”

El coronel y doctor en Sociología, Francisco Rubio, asegura que “todavía no se han utilizado en el campo de batalla pero las grandes potencias llevan años trabajando en su desarrollo”

Curso Internacional de Defensa

Curso Internacional de Defensa

Redacción COPE Jaca

Jaca - Publicado el

4 min lectura

La cuarta jornada del XXXI Curso Internacional de Defensa, que organizan la Academia General Militar y la Universidad de Zaragoza, ha analizado aspectos relacionados con el impacto de la Inteligencia Artificial (IA) en la comunicación, la seguridad internacional o su uso para el desarrollo de sistemas de armas autónomas letales.

De esta última aplicación ha hablado el coronel y doctor en Sociología y máster en Seguridad Global y Defensa, Francisco Rubio, que en primer lugar ha explicado qué son los sistemas de armas autónomas letales. El ponente ha asegurado que son robots inteligentes de combate pilotados por IA y no de forma remota por un operador humano. “Están diseñados para localizar objetivos y destruirlos, y entre esos objetivos hay personas y combatientes”. En definitiva, ha concluido, “son máquinas con autonomía para decidir sobre la vida o la muerte de una persona, lo que plantea una cuestión ética básica y muchos problemas de regulación”.

En su ponencia ha señalado que “desde hace 10 años hay una carrera armamentística en la que están todas las potencias tecnológicas y militares del mundo desarrollando estas máquinas. Todavía no se han empleado en el combate, pero están muy perfeccionadas aunque no hay ningún tipo de regulación sobre su uso”.

El coronel Francisco Rubio también ha destacado que “la comunidad internacional, y sobre todo la ONU, ha estado durante los últimos seis años trabajando para lograr la prohibición de estos sistemas de armas, pero esto es una utopía porque las grandes potencias militares no se ponen de acuerdo al estar implicadas en su desarrollo”.

En cualquier caso, el ponente considera que “desde hace menos de un año el foco de la ONU ha cambiado y ahora se está intentando impulsar esa regulación, es decir, plantear en qué condiciones se pueden utilizar”. Entre sus conclusiones, ha asegurado que “de alguna manera hay que limitar la autonomía de estas máquinas con un control humano efectivo, o al menos con una supervisión. La supervisión sería que el hombre pudiese abortar un ataque y el control, que la máquina no pasase de una fase a otra sin una decisión humana”.

De momento, estos sistemas de armas no se han utilizado en el campo de batalla. “En la guerra de Ucrania no se han usado porque la IA en un medio hostil no es fiable todavía, es fácil de engañar y bastante vulnerable a los ataques. Eso y que nadie quiere dar el primer paso de utilizar una máquina que mata personas de forma autónoma; en cualquier caso, el principal problema es que no es de fiar, pero es cuestión de tiempo que llegue a serlo”.

Seguridad internacional

Durante la jornada de hoy, el profesor del Departamento de Informática y Automática de la Universidad de Salamanca, Alfonso González, ha hablado sobre Inteligencia Artificial y seguridad internacional. En su intervención, se ha referido al contexto en el que nos encontramos como sociedad “en el que, sin ser muy conscientes, estamos generando una gran cantidad de datos que alimenta la IA con diversos fines; también en el ámbito militar, para definir patrones de comportamiento de personas, entidades y organizaciones que puedan contribuir a resolver problemas de seguridad al Estado y distintas amenazas”.

El profesor Alfonso González ha analizado los focos de posibles amenazas y qué se está planteando para atajarlos. Uno de esos focos es el ciberterrorismo. “Las guerras han avanzado mucho hacia estrategias encaminadas a conseguir información del enemigo y con eso alimentar la capacidad de defensa y de ataque”.

El ponente ha concluido que desde hace unos años se está observando que la IA tiene un gran peso en el ámbito militar. “Ya no solo en el uso de determinados sistemas de armas o drones, sino en el análisis de datos a nivel de redes de información, que puede contribuir a detectar ciertas amenazas y llevar a los ejércitos a actuar en consecuencia”.

El impacto en la comunicación

Finalmente, la lingüista computacional, Carmen Torrijos, se ha referido a cómo afecta la IA al mundo de la comunicación. En concreto, ha explicado que su trabajo se desarrolla alrededor de grandes modelos de lenguaje como GPT 4 o Gemini. “Lo que nos está costando es concretar su uso, saber qué podemos hacer con sistemas que son capaces de escribir o que pueden transformar una tabla de datos en un texto; hay que echarle bastante imaginación para intuir todas las posibilidades”

También se ha referido a los sistemas que generan imágenes o que son capaces de clonar la voz humana. “Hablar de IA es hacerlo de muchas cosas, que en comunicación se pueden usar para el bien o para el mal”. Además, se ha referido a las sombras de estos modelos de lenguaje, como la desinformación masiva en redes, y de qué forma se pueden vigilar desde la IA.

En definitiva, ha asegurado Carmen Torrijos, “se trata de una tecnología tan compleja que ni todo es bueno ni todo malo, sino que tenemos que convivir con esa parte de efectos secundarios que va a tener. Lo que es importante es que la gente aprenda a utilizar la parte positiva y para eso hay que dar formación y mucha sensibilización”.

Temas relacionados

Escucha en directo

En Directo COPE JACA

COPE JACA

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

05:00H | 15 NOV 2024 | BOLETÍN