La minaccia dei “robot killer” in mano a criminali e terroristi

download

Un robot è una macchina programmabile in grado di eseguire una serie di azioni complesse simili o addirittura migliori rispetto a un essere umano. Esistono due tipologie di robot: a) autonomi: b) non autonomi. I primi sono macchine artificiali con un certo grado di autonomia e riescono a elaborare risposte, trovare soluzioni e risolvere problemi in situazioni impreviste. I secondi sono “comandati” da un software, da un programma che definisce a priori che cosa deve fare la macchina, oppure, direttamente da un essere umano.

Molti studiosi, da ogni parte del mondo, recentemente, hanno sollevato il pericolo incombente di uno sviluppo incontrollato della robotica e dell’intelligenza artificiale da parte di alcune Nazioni. In pochi però hanno riflettuto sui pericoli che questa tecnologia possa essere utilizzata anche da parte della criminalità organizzata e da gruppi terroristici. I più interessati a questo settore sono i criminali che gestiscono l’industria del narcotraffico mondiale i quali vorrebbero sfruttare alcune delle applicazioni più sofisticate di queste tecnologie.

armed_UGV_16_July_2019.5d2e270176a8b

L’automazione robotica è già utilizzata dai narcotrafficanti messicani e colombiani. Lo dimostrano i sequestri, effettuati dalle autorità statunitensi, di droni e sommergibili senza pilota per eseguire consegne di droga passando sopra o sotto l’oceano Atlantico. Che cosa accadrebbe se oltre i droni e i sommergibili, le mafie riuscissero ad ottenere la tecnologia per creare robot autonomi dotati d’intelligenza artificiale? Il Dipartimento di Stato americano ritiene che con le tecnologie già disponibili, si tratti di scenari tutt’altro che remoti e improbabili.

Il problema, infatti, è già stato portato all’attenzione delle Nazioni Unite perché agiscano sugli Stati che stanno sperimentando questa tecnologia ponendo un veto sui “robot killer” analogo a quello attualmente in vigore per le armi chimiche. Stati Uniti d’America, Cina, Russia, Regno Unito, Israele e Corea del Sud, sono già a uno stato avanzato su sistemi che attribuiranno alle macchine una maggiore autonomia decisionale e di combattimento. La prossima generazione di robot non avrà più bisogno di fare riferimento a un operatore umano per compiere le proprie eventuali azioni. A questo punto dovremmo domandarci: queste azioni potrebbero essere anche criminali? La risposta purtroppo è affermativa.

Serbian_army_demonstrates_efficiency_of_Milos_N_armed_UGV_1

Si va verso “umanoidi” che potranno decidere da soli se uccidere o no un uomo; creare, se adeguatamente programmati, droghe sintetiche; trasportare droga; commettere determinate tipologie di reato. Cento manager responsabili di alcune delle aziende più innovative nel campo della robotica e dell’intelligenza artificiale hanno sottoscritto una lettera aperta all’Onu per chiedere di impedire l’impiego di robot killer negli eserciti dei singoli Stati.

Esistono, purtroppo, esperimenti già andati a buon fine nei quali un gruppo di robot fa strage di manichini con devastante efficienza. Si tratta di tecnologie pericolosissime disponibili ed eventualmente già utilizzabili. Non è fantascienza, basta sostituire i manichini con gli esseri umani e il gioco diventa realtà.

Quello su cui si dovrebbe riflettere tuttavia è che lo sviluppo di armi autonome letali faccia gola anche alle nuove mafie poiché con il loto utilizzo, ad esempio, ridurrebbero drasticamente tutti quei costi che prevedono l’impiego di esseri umani nelle loro attività criminali. Noel Sharkey, ordinario di intelligenza artificiale dell’Università di Sheffield e tra i massimi esperti della materia, è stato tra i primi ad avvertire del pericolo che simili tecnologie possano finire nelle mani della criminalità organizzata o peggio ancora delle organizzazioni terroristiche.

unnamed (1)

Proviamo a pensare per un attimo a cosa potrebbe significare se mafie o gruppi terroristici potessero usare robot killer in grado di selezionare e attaccare singoli obiettivi senza un controllo umano.

Qualora fosse compiuto un reato, a chi s’imputerebbe la responsabilità penale, se le macchine agiscono senza controllo umano? Questo interrogativo, strettamente connesso alla reale possibilità di errore, sposta il campo d’azione anche sulla più ampia applicazione del diritto all’intelligenza artificiale. Fonti del Dipartimento di Stato americano confermano che i narcos messicani tramite la Turchia, avrebbero già ottenuto la tecnologia per produrre una specie di drone kamikaze chiamato “Kargu” che, grazie a un sistema di riconoscimento facciale, sia in grado di cercare autonomamente il suo obiettivo e di eliminarlo. Un simile robot, ad esempio, potrebbe trovare utilizzo nei regolamenti di conti tra cosche rivali.

Credo che i “robot killer” presentino grandi pericoli per l’uomo e al tempo stesso pongono enormi questioni etiche e giuridiche relative alla delega di decisioni – sulla vita e la morte di esseri umani – data alle macchine e alla responsabilità delle loro azioni. Spero di sbagliarmi ma penso che le mafie mondiali si butteranno a capofitto per ottenere al più presto questa nuova tecnologia

Foto:  STM, US Army e Ministero della Difesa Serbo

 

Vincenzo MusacchioVedi tutti gli articoli

Giurista, più volte professore di diritto penale e criminologia in varie Università italiane ed estere. Associato al Rutgers Institute on Anti-Corruption Studies (RIACS) di Newark (USA). Ricercatore dell'Alta Scuola di Studi Strategici sulla Criminalità Organizzata del Royal United Services Institute di Londra. Discepolo di Giuliano Vassalli, allievo e amico di Antonino Caponnetto.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password