Una Convenzione internazionale sul diritto umanitario applicabile all’Intelligenza Artificiale

Nell’ambito dell’80ª Assemblea Generale delle Nazioni Unite è stata lanciata l’iniziativa Global Dialogue on AI Governance (ONU, Risoluzione A/RES/79/325, 2025), una piattaforma multilaterale che intende promuovere un piano d’azione per regolamentare il ricorso all’intelligenza artificiale nei conflitti armati e nei contesti ad alto rischio. Il contributo propone un’analisi giuridico‑militare sulle possibili iniziative da assumere per rafforzare il quadro giuridico e orientare le tecnologie IA ai principi generali del diritto internazionale umanitario, al fine di contenere l’escalation in atto delle guerre, specie nel coinvolgimento delle popolazioni civili.
Premessa: l’Intelligenza Artificiale nei conflitti armati
Nell’ambito dell’80ª Assemblea Generale delle Nazioni Unite è stata lanciata l’iniziativa Global Dialogue on AI Governance, istituita con la Risoluzione A/RES/79/325 (2025) dell’Assemblea Generale delle Nazioni Unite. Si tratta di una piattaforma multilaterale che riunisce diplomatici, esperti tecnologici e rappresentanti della società civile per affrontare le sfide poste dall’intelligenza artificiale nei contesti bellici e ad alto rischio.
L’ingresso massiccio dell’IA nelle guerre apre a scenari di inquietante complessità: non è più solo una questione di sviluppo tecnologico, ma una questione eminentemente giuridica, politica ed etica.
L’IA non si limita più a supportare operazioni militari tramite droni o sistemi automatizzati di sorveglianza: oggi, algoritmi capaci di apprendere e prendere decisioni autonome possono determinare direttamente la vita o la morte.
In questo contesto, l’autonomia decisionale delle macchine rischia di erodere i principi cardine del diritto internazionale umanitario (DIU), fondato sulla responsabilità umana, la distinzione tra civili e combattenti e la proporzionalità nell’uso della forza. Il criterio del “controllo umano significativo” emerge quindi come condizione imprescindibile per evitare che il potenziale distruttivo dell’IA bellica si traduca in una minaccia sistemica ai diritti fondamentali e alla dignità umana.
Evidenze dagli scenari di guerra
A delineare la portata del problema sono state inchieste condotte da network internazionali come +972 Magazine, The Intercept e Local Call, che hanno documentato l’impiego di sistemi algoritmici avanzati da parte delle forze armate israeliane nell’offensiva su Gaza.
Secondo tali fonti, – contraddette da comunicati delle forze armate israeliane (IDF) – i sistemi indicati in Lavender e Habsora (“il Vangelo”, in ebraico) hanno automatizzato la selezione degli obiettivi su vasta scala, accelerando i tempi decisionali e riducendo il controllo umano. Il dato oggettivo che in ogni caso emerge dagli elementi di fatto è che tali tecnologie IA hanno provocato un numero rilevante di vittime civili e una distruzione sistematica di infrastrutture civili essenziali (ospedali, scuole).
Per quanto la strategia di Hamas sia stata quella di mimetizzarsi tra la popolazione civile, è difficile giustificare – vista la precisione chirurgica ottenuta in altri attacchi – questa devastazione alla luce dei princìpi di precauzione, necessità militare e proporzionalità, pilastri delle Convenzioni di Ginevra.
Più grave sarebbe peraltro la tesi che ci sia stata a monte una scelta consapevole di aumentare la letalità per intimorire la popolazione e costringerla all’esodo forzato. La situazione a Gaza rappresenta un caso emblematico delle conseguenze di un uso non regolamentato dell’IA in conflitti armati, evidenziando la necessità urgente di regole chiare e di un controllo umano effettivo.
Analoghe preoccupazioni emergono anche nei bombardamenti indiscriminati condotti in Ucraina da parte della Federazione Russa, concomitanza che sottolinea la dimensione globale del problema.
Il quadro normativo più recente
Nel dicembre 2023, l’Assemblea Generale ha adottato la Risoluzione A/RES/78/241, che, pur non avendo natura vincolante, indirizza gli Stati a rispettare i principi del diritto internazionale nel contesto dell’IA e promuove un “dialogo multilaterale volto alla governance responsabile” delle tecnologie artificiali. Questa risoluzione segnala la crescente consapevolezza internazionale dell’urgenza di disciplinare l’IA nei contesti militari, ma non introduce obblighi giuridici cogenti.
Dal 2014, nell’ambito della Convenzione su alcune armi convenzionali (CCW), è attivo un Gruppo di Esperti Governativi incaricato di studiare i sistemi d’arma autonomi letali (LAWS). Nonostante le raccomandazioni volte a mantenere un “controllo umano significativo” sulle decisioni letali, non si è ancora giunti a un accordo vincolante tra gli Stati Parte. Ciò riflette le difficoltà politiche, tecniche e normative nel conciliare la tutela umanitaria con gli interessi strategici degli Stati, nonché nel tradurre i principi del DIU in regole efficaci per i sistemi autonomi.
La proposta della Société Internationale de Droit Militaire et de Droit de la Guerre
Il Position Paper on AI and IHL elaborato dalla Société Internationale de Droit Militaire et de Droit de la Guerre (2024) mette in luce che l’uso dell’IA nei conflitti solleva questioni estremamente complesse riguardo alla responsabilità delle violazioni del DIU.
L’opacità algoritmica e la rapidità delle decisioni automatizzate rendono difficile collegare la decisione alla responsabilità umana. Viene enfatizzata l’importanza di responsabilizzare chiaramente gli attori: sviluppatori, comandanti e Stati, per evitare che la tecnologia diventi un alibi per l’impunità.
Nell’ambito dei lavori del Position Paper è dunque emersa l’idea di promuovere una Convenzione internazionale che aggiorni il DIU per affrontare le specificità dei sistemi autonomi.
Su questa linea d’azione i giuristi militari hanno definito i tratti di un nuovo strumento normativo articolato sui seguenti punti salienti:
- verifica legale preventiva degli algoritmi (richiamando l’art. 36 del Protocollo I alle Convenzioni di Ginevra),
- conformità dei codici-sorgente alle Convenzioni di Ginevra, alla Convenzione per la prevenzione e la repressione del genocidio, allo Statuto della Corte penale internazionale, e ai principi generali del diritto umanitario consolidato;
- tracciabilità delle decisioni automatizzate,
- condivisione di responsabilità fra sviluppatori, comandanti e Stati,
- meccanismi internazionali indipendenti di ispezione e controllo, volti a garantire trasparenza e conformità,
- criteri rigorosi per il “controllo umano significativo”,
- obbligo di pubblicare dati sull’uso degli armamenti basati su IA,
- sanzioni efficaci in caso di violazioni delle norme.
Il Global Dialogue on AI Governance: verso un quadro multilaterale
Il Global Dialogue on AI Governance è stato istituito ufficialmente nel 2025 con la Risoluzione A/RES/79/325 dell’ONU, che ha anche creato un Independent International Scientific Panel on AI.
Il Dialogo annuale è concepito come un forum inclusivo che coinvolge Stati, organizzazioni internazionali, esperti tecnici e società civile. Il Panel scientifico indipendente è incaricato di produrre rapporti annuali sulle evoluzioni tecnologiche e normative legate all’IA.
Gli obiettivi del Dialogue comprendono:
- la promozione della trasparenza algoritmica,
- il rafforzamento del controllo umano,
- la promozione dell’interoperabilità normativa fra Stati,
- la riduzione del divario digitale.
Le prime sessioni sono previste nel 2026 (a Ginevra, in occasione del summit “AI for Good”) e nel 2027 (a New York, durante il Forum ONU su scienza e tecnologia). Sebbene il Dialogue non abbia potere normativo vincolante, il suo valore risiede nella capacità di sviluppare orientamenti, best practices e standard volontari, che potrebbero costituire la base per una futura Convenzione internazionale.
Etica militare e principi di diritto: la responsabilità di comando e la protezione dei civili
L’etica militare, storicamente fondata sul rispetto dei principi di umanità e necessità, impone una rigorosa distinzione tra combattenti e civili, nonché un controllo scrupoloso sull’uso della forza. La Dichiarazione di San Pietroburgo (1868) afferma che “l’uso di mezzi o metodi di guerra capaci di causare sofferenze inutili è vietato”, principio che è stato esteso dalla Clausola Martens, la quale richiama l’applicazione delle regole di umanità anche in assenza di norme specifiche.
In tale contesto, va ricordata la massima attribuita al generale francese Guillaume‑Henri Duhesme, nel trattato L’art du commandement (1814): “La gloria e l’onore di un comandante si misurano non solo dalla sua capacità di vittoria, ma soprattutto dalla sua saggezza nel proteggere i civili e minimizzare le sofferenze”.
Nel diritto internazionale moderno, la responsabilità individuale di comando è un principio consolidato. Oltre alla Carta di Norimberga, la sentenza Yamashita (U.S. Military Commission, 1945) stabilì che un comandante è ritenuto responsabile per crimini commessi dai suoi subordinati se non ha adottato misure efficaci per prevenirli o punirli, incombendo sulle funzioni di comando precisi obblighi di controllo preventivo e successivo.
Applicato al contesto odierno, questo principio comporta che il “controllo umano significativo” sui sistemi IA letali è imprescindibile per garantire responsabilità e prevenire abusi. Il rischio, richiamando Hannah Arendt, è che la delega a una “macchina anonima” – come ad una “automazione burocratica” – generi una dissociazione fra decisione e responsabilità, alterando l’etica stessa del comando.
Conclusioni: convergenze possibili verso la Convenzione
L’emergere dell’intelligenza artificiale nei conflitti armati impone una risposta giuridica globale e tempestiva. In questo scenario, iniziative come il Global Dialogue on AI Governance (ONU) e la proposta della Société Internationale de Droit Militaire et de Droit de la Guerre per una Convenzione ad hoc rappresentano percorsi complementari e sinergici. Il Dialogue costituisce un forum stabile di confronto multilaterale, utile alla costruzione di principi condivisi sulla governance dell’IA.
La proposta della Société offre invece una base tecnico‑giuridica concreta per aggiornare il DIU alle sfide dei sistemi autonomi. L’auspicio è che queste due linee possano convergere in un percorso comune verso l’adozione di una Convenzione internazionale sull’uso dell’IA nella guerra, capace di assicurare il rispetto del diritto umanitario, la protezione dei civili e il mantenimento di un controllo umano significativo.
Solo un impegno condiviso, vincolante, basato sulla trasparenza, sulla responsabilità e sulla cooperazione internazionale potrà impedire che la guerra del futuro diventi laboratorio incontrollato per tecnologie fuori dal perimetro della legge e della stessa etica militare.
A margine, un’ultima annotazione è opportuna: al momento non è reso pubblico se l’Italia o l’Unione Europea stiano partecipando con una componente giuridico-militare – e con quale mandato – a questi processi. L’auspicio è che per tali importanti iniziative si preveda un coinvolgimento diretto di chi, su un piano pratico e giuridico, può apportare contributi concreti, provenienti anche dall’esperienza di comando.
Foto: United Nations, US Army e DARPA
Riferimenti e bibliografia essenziale
- ONU, Global Dialogue on AI Governance, Risoluzione A/RES/79/325 (2025). [Link ufficiale UN]
- ONU, Risoluzione A/RES/78/241 (dicembre 2023).
- Convenzione su alcune armi convenzionali (CCW) – Gruppo di Esperti Governativi su LAWS.
- Société Internationale de Droit Militaire et de Droit de la Guerre, Position Paper on AI and IHL (2024).
- International Committee of the Red Cross (ICRC), Artificial intelligence and machine learning in armed conflict: a human‑centred approach (Position Paper) International Review of the Red Cross
- ICRC, Artificial intelligence in the military domain: ICRC submits recommendations to UN Secretary‑General Croce Rossa Internazionale
- ICRC & Geneva Academy, Expert Consultation Report on AI and Related Technologies in Military Decision‑Making (2024) Croce Rossa Internazionale
- Société Internationale de Droit Militaire et de Droit de la Guerre – informazioni sull’Associazione (AISBL) ismllw.org

Maurizio Delli SantiVedi tutti gli articoli
Membro della International Law Association, dell'Associazione Italiana Giuristi Europei, dell'Associazione Italiana di Sociologia e della Société Internationale de Droit Militaire et Droit de la Guerre - Bruxelles. Docente a contratto presso l'Università Niccolò Cusano, in Diritto Internazionale Penale/Diritto Internazionale dei Conflitti Armati e Controterrorismo, è autore di varie pubblicazioni, tra cui "L'ISIS e la minaccia del nuovo terrorismo. Tra rappresentazioni, questioni giuridiche e nuovi scenari geopolitici", Aracne, 2015. Collabora con diverse testate italiane ed europee.