Intelligenza Artificiale e risvolti etici

1_Ex5_rJQjI-EsPXAnNQHBxw

“Lavoro da 35 anni nella Difesa e non ho mai speso tanto tempo come quello che sto investendo ora sugli aspetti etici legati all’impiego delle tecnologie di Artificial Intelligence in ambito militare”. Come dare torto al tenente generale   John N.T. “Jack” Shanahan (nella foto sotto), Direttore del Joint Artificial Intelligence Center (JAIC)?

Oltre al gravoso compito di coordinare e accelerare i progetti abilitanti l’Artificial Intelligence sull’intero Department of Defense (DoD), si trova ora a dover affrontare un problema mastodontico.

Shanahan-Interview-v2

Una complicazione che, come fanno ben capire le parole del generale Shanahan, prescinde dalla disponibilità di fondi economici (a titolo di cronaca, il budget del JAIC contabilizza duecentotrenta miliardi di dollari)

È però altrettanto vero che, disponendo di budget più o meno paragonabili al prodotto interno lordo della Finlandia, aumentano la possibilità di azione come, ad esempio, lanciare una campagna di reclutamento di esperti di etica per l’uso dell’intelligenza artificiale.

I candidati ideali devono fondere elevate competenze professionali e precise caratteristiche personali e caratteriali.

Essere esperti di analisi di big data, tecnologie di AI, armi autonome non basta. Il generale cerca anche personalità in possesso di qualità morali, pensiero lucido, ma soprattutto capaci, quando serve, di dire un NO deciso a iniziative e idee di generali pluristellati, e persino di presidenti.

imagesT7ISFB57

Secondo i progetti del generale, le competenze di questi esperti di “etica dell’AI” spazieranno ben oltre i killer robot e le armi autonome: dovranno dimostrare di saper trattare problemi molto delicati. Un esempio fra tutti è la raccolta massiva di dati personali (e il conseguente rischio di violazione della privacy), oggetto delle attività di intelligence e di spionaggio del DoD.

Un’iniziativa che non passa certamente inosservata, ma anzi fa emergere molte riflessioni. I militari americani ufficialmente (e finalmente) manifestano il bisogno di comprendere al meglio tutti i risvolti “non esclusivamente tecnici” legati all’applicazione delle tecnologie di AI nei sistemi d’arma e nella raccolta di dati personali.

I principali competitor, Cina e Russia, non si sono ancora posti questo problema (e difficilmente lo faranno). Ma fino a che punto gli Stati Uniti potranno addossarsi gli oneri di questa nobile scelta che rischia di mettere a repentaglio la propria supremazia militare?

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Ha frequentato la Scuola Militare Nunziatella a Napoli e l'Accademia Militare di Modena. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' CEO di CY4Gate e Vice Direttore Generale di Elettronica. --- Andrea Melegari: Laureato in Informatica all'Università di Modena, è specializzato in tecnologia semantica a supporto dell'intelligence. Ha insegnato per oltre 10 anni all'Accademia Militare di Modena ed è Senior Executive Vice President, Defense, Intelligence & Security di Expert System. E' Chief Marketing & Innovation Officer di CY4Gate e membro del CdA di Expert System, CY4Gate e Expert System USA.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password