Come dovrebbero ragionare le armi autonome del futuro?

killerrobot

Il sistema di intelligenza artificiale che governa l’autopilota (che corrisponde al livello 5, dunque il massimo livello di autonomia, tanto che non è previsto nemmeno il volante dell’auto), ha appena rilevato un grave guasto all’impianto frenante.

cover.png

Se non viene effettuata alcuna manovra gli occupanti dell’auto avranno la peggio. Impossibile evitare lo scontro ad alta velocità con il TIR che si è fermato improvvisamente poco più avanti. Il software, però, intravede una possibile via d’uscita. Potrebbe far sterzare l’auto sul marciapiede, proprio nel punto in cui sta passando una giovane mamma che accompagna i suoi due bambini a scuola, evitando così l’impatto.

Secondo voi per quale scelta dovrebbe optare il software che governa l’autopilota? Importante: prima di rispondere, provate a immedesimarvi nei diversi ruoli. In primis, in uno degli attori coinvolti nello scontro: gli occupanti dell’auto, la mamma, i bambini. Dopodiché, mettetevi nei panni di un legislatore, di uno sviluppatore di software di intelligenza artificiale, di un produttore di auto, di un assicuratore, di un ingegnere che progetta strade e marciapiedi, ecc.

5NVUO7X7UJH3BDIZL56QAZUYDM.0

Con grande onestà e al di là di una risposta scontata e di getto, chi vi scrive non sa esattamente cosa rispondere. Ha invece perfettamente chiaro che sarà sempre più centrale, soprattutto nel mondo della Difesa, la definizione dei criteri in base ai quali i sistemi di intelligenza artificiale dovranno decidere.

Le Autonomous Weapons, i mezzi militari Unmanned (droni, blindati, sommergibili, ecc.), i robotic soldier, saranno (presto o tardi) governati dall’intelligenza artificiale.

La risposta è talmente complessa che il MIT (Massachusetts Institute of Technology, considerata la migliore università del mondo in molte classifiche di settore per il 2018) ha avviato nel 2016 un progetto di ricerca che ha finora coinvolto 2,3 milioni di persone di 233 paesi del mondo.

image006_62-550x366

Il progetto Moral Machine presenta 13 diversi scenari di incidenti, tutti caratterizzati dall’inevitabile morte di una delle persone coinvolte. Chi partecipa al sondaggio deve scegliere tra giovani/vecchi, uomini/animali, poveri/ricchi, ecc. chi può sopravvivere o avere la peggio, a seconda delle circostanze.

I primi risultati, frutto di circa 50 milioni di risposte, sono state pubblicati sull’ultimissimo numero di Nature.

Emerge immediatamente che i principi morali sono diversi a seconda del Paese a cui appartiene chi ha partecipato al sondaggio. Ragionando a livello globale si riscontrano infatti solo poche, generali convergenze: risparmiare gli uomini rispetto agli animali, salvare più vite piuttosto che poche, preservare i bambini invece che gli adulti (prevalenza questa, meno marcata in Cina, Giappone e Arabia Saudita).

header-1511611418_1100x513

Per il resto, invece, le preferenze soggettive che orientano decisioni etiche di questo tipo sono molto diverse, poiché condizionate da variabili culturali, economiche, sociali, religiose, ecc. Ad esempio, i Paesi governati da istituzioni consolidate (come la Finlandia e il Giappone) sono tendenzialmente più propensi a sacrificare un pedone che attraversa irregolarmente la strada.

Lo stesso (imprudente) pedone avrebbe invece vita più lunga in Nigeria e in Pakistan.

Sfumature culturali che condizioneranno certamente chi sta costruendo i progetti di auto a guida autonoma. E che dovrebbero influenzare anche la comunità internazionale chiamata a legiferare sull’utilizzo e sul comportamento dei sistemi militari autonomi.

Il drone militare (del valore di decine di milioni di dollari) in avaria, quale scelta dovrà fare? Schiantarsi contro una montagna deserta o tentare di non distruggersi completamente atterrando in un ampio prato dove stanno giocando decine di bambini?

Foto: USMC, House of Bots, Keelynet e US DoD

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' CEO di CY4Gate e Vice Direttore Generale di Elettronica. --- Andrea Melegari: Laureato in Informatica all'Università di Modena, è specializzato in tecnologia semantica a supporto dell'intelligence. Ha insegnato per oltre 10 anni all'Accademia Militare di Modena ed è Senior Executive Vice President, Defense, Intelligence & Security di Expert System. E' Chief Marketing & Innovation Officer di CY4Gate e membro del CdA di Expert System, CY4Gate e Expert System USA.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password