Intelligenza Artificiale “guardiana” cercasi con urgenza

 

“A differenza di altri campi come la costruzione di ponti o lo sviluppo di farmaci, gli attuali metodi di addestramento dell’Intelligenza Artificiale (IA) non consentono di ottenere garanzie certe sul loro comportamento”.

Come sottolinea Yoshua Bengio, premio Turing, questa mancanza di garanzie, unita alla complessità e all’opacità degli odierni sistemi di IA, solleva preoccupazioni per il potenziale di danni accidentali o intenzionali. Soprattutto in settori ad alto rischio come la Difesa.

 

IA sempre più pervasiva

Circa il 70% dei programmi di ricerca militare statunitense, in qualche modo, integrano l’IA. La diffusione, spiega il Dr. Matt Turek, vicedirettore dell’Information Innovation Office (I2O) della Defense Advanced Research Projects Agency (DARPA), è motivata dalla necessità di prevenire “sorprese strategiche” da parte di avversari che potrebbero, anch’essi, puntare su tali tecnologie. Questo approccio però si basa sul presupposto di disporre di una IA affidabile, su cui poter contare.

Da qui, ad esempio, la strategia di DARPA che punta a rendere i Large Language Model (LLM) più trasparenti. (Gli LLM rappresentano un sottoinsieme importante della Intelligenza Artificiale Generativa (GENAI), il campo della IA diventato famoso grazie a ChatGPT, Gemini, Alexa, Siri, … )

Quando si dice che i moderni modelli di apprendimento automatico degli LLM sono “opachi” e difficilmente interpretabili, si fa infatti riferimento alla loro complessità intrinseca che rende difficile comprendere le loro decisioni e il loro processo di apprendimento.

Ecco alcuni degli aspetti che contribuiscono ad alimentare queste (tante e crescenti) preoccupazioni:

  1. Strutture complesse: I modelli di apprendimento automatico sono composti da miliardi di parametri e connessioni, rendendo difficile la comprensione del loro funzionamento interno.
  2. Processi decisionali non lineari: Le decisioni prese dai modelli di apprendimento automatico non sono sempre lineari e possono essere influenzate da una moltitudine di fattori. Questo rende difficile tracciare un percorso chiaro tra l’input e l’output del modello.
  3. Mancanza di spiegazioni: I modelli di apprendimento automatico non forniscono spiegazioni per le loro decisioni. Non è sempre chiaro perché un modello ha classificato un’immagine in un certo modo o ha preso una certa decisione.
  4. Difficoltà di interpretazione dei dati: I modelli di apprendimento automatico spesso apprendono da dati grezzi, che possono essere difficili da interpretare per gli esseri umani

 

Investimenti in ricerca e sviluppo

La Advanced Research and Invention Agency (ARIA) del Regno Unito, riconoscendo l’importanza delle garanzie di sicurezza nella IA, le paragona agli elevati standard di sicurezza nell’energia nucleare e nell’aviazione civile.

E per questa ragione, al centro del piano di ARIA, c’è lo studio e lo sviluppo di una ‘IA “guardiana”. Questa “sentinella digitale” garantirà che gli altri software di IA operino solo entro i limiti stabiliti per una specifica applicazione.

Questo contribuirà a ridurre il rischio di incidenti o comportamenti indesiderati grazie a:

  • Maggiore trasparenza: I guardiani spiegano le decisioni e il processo di ragionamento dei sistemi di IA, aumentandone la trasparenza. Questo permette di capire meglio come funzionano i sistemi di IA e di prendere decisioni più informate sul loro utilizzo.
  • Maggiore robustezza: I guardiani rilevano e correggono errori o anomalie, rendendo i sistemi di IA più robusti. Questo riduce il rischio di malfunzionamenti o incidenti.
  • Maggiore sicurezza: I guardiani proteggono i sistemi di IA da attacchi informatici e altre minacce, migliorandone la sicurezza. Questo contribuisce a prevenire danni accidentali o intenzionali.

Nel dettaglio, il piano di ARIA, ideato da David “davidad” Dalrymple, co-inventore di Filecoin (un sistema di archiviazione decentralizzato basato su blockchain che sfrutta la potenza inutilizzata degli hard disk di tutto il mondo), mira a:

  • Sviluppare “guardiani” basati su modelli scientifici e prove matematiche. Questo garantirà che i sistemi di IA siano affidabili e prevedibili.
  • Combinare elementi commerciali e accademici per superare i limiti degli approcci attuali. Questo favorirà la collaborazione e l’innovazione nel campo dell’IA affidabile.
  • Creare sistemi di IA al 0,1% del costo attuale. Questo renderà l’IA affidabile più accessibile e diffusa.

Dunque, (anche nel dominio della Difesa, porte spalancate per la IA  ma solo se comprensibile, affidabile e con “garanzie quantitative di sicurezza” .

 

Andrea MelegariVedi tutti gli articoli

Laureato in Informatica, ha insegnato per oltre 10 anni all'Accademia Militare di Modena. Dal 2000 si è specializzato nello sviluppo e nell'impiego delle tecnologie di Intelligenza Artificiale in ambito civile e militare. Tra gli incarichi ricoperti SEVP Defense, Intelligence & Security di Expert AI, Chief Marketing & Innovation Officer di CY4Gate. E' stato anche membro del CdA delle società Expert AI, CY4Gate e Expert System USA (Washington DC area). Dal luglio 2021 lavora presso una azienda tecnologica di un importante Gruppo industriale italiano.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare. Inoltre, questo sito installa Google Analytics nella versione 4 (GA4) con trasmissione di dati anonimi tramite proxy. Prestando il consenso, l'invio dei dati sarà effettuato in maniera anonima, tutelando così la tua privacy.
Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy