El observador permanente de la Santa Sede ante la ONU en Ginebra, Mons. Ettore Balestrero, reiteró la preocupación del Vaticano por el aumento del uso de armas dirigidas por la inteligencia artificial y el riesgo que conlleva darles “la última palabra” sobre la vida de las personas.

El prelado hizo esta advertencia ayer 4 de marzo durante los debates del Grupo de Expertos Gubernamentales sobre Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomas Letales (GEG LAWS por sus siglas en inglés), que se llevan a cabo en Ginebra (Suiza).

Recibe las principales noticias de ACI Prensa por WhatsApp y Telegram

Cada vez es más difícil ver noticias católicas en las redes sociales. Suscríbete a nuestros canales gratuitos hoy:

El GGE LAWS es una iniciativa de las Naciones Unidas creada en 2016 para revisar las regulaciones existentes sobre las armas autónomas, es decir, aquellas que por medio de sensores y software seleccionan sus objetivos sin intervención humana.

En su intervención, Mons. Balestrero citó el Mensaje del Papa Francisco para la Jornada Mundial de la Paz 2024, en el que señala que “la búsqueda de las tecnologías emergentes en el sector de los denominados ‘sistemas de armas autónomos letales’, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética”.

“Mirando el mundo que nos rodea, no podemos eludir las graves cuestiones éticas vinculadas al sector de los armamentos”, expresa el Santo Padre.

De acuerdo a Vatican News, el representante vaticano indicó en su discurso que “la urgencia de esta cuestión aumenta debido al amplio desarrollo y uso de drones armados, incluidos los drones kamikaze y de enjambre”.

Explicó que esto lleva a “una menor percepción de la devastación que causan y de la responsabilidad de su uso, contribuyendo a un enfoque aún más frío y distante de la inmensa tragedia de la guerra”.

En ese sentido, al profundizar en el aspecto ético, Mons. Balestrero recordó que “los sistemas de armas autónomos no pueden considerarse sujetos moralmente responsables”, pues “una máquina, por muy 'inteligente' que sea, sigue siendo una máquina”.

En cambio, “los seres humanos poseen una capacidad única de juicio moral y de toma de decisiones éticas que no puede ser reproducida por un complejo conjunto de algoritmos”.

En ese sentido, afirmó que “una supervisión humana” directa y adecuada es una cuestión crucial, porque de lo contrario “estos sistemas pueden cometer errores en la identificación de los objetivos previstos debido a prejuicios no identificados inducidos por sus capacidades de aprendizaje automático”.

“A pesar de su complejidad —añadió Mons. Balestrero—, las máquinas no pueden tener la última palabra sobre los seres humanos”. 

Por ello, ha señalado que para la Santa Sede es urgente que este grupo de expertos trabaje “específicamente en el campo de las prohibiciones y regulaciones de los sistemas de armas según su grado de autonomía”, manteniendo en el centro de sus deliberaciones "la referencia fundamental a la dignidad de la persona humana”.

El representante vaticano explicó a los participantes que “el desarrollo de armamentos cada vez más sofisticados, incluso con el objetivo de reducir los daños colaterales, no es una solución duradera”, pues como todo mal, “la guerra se origina en el corazón humano".

“El objetivo último, lo que es digno de la llamada del hombre y de la civilización humana, es la abolición de la guerra”, expresó.