DeepFake: dalla DARPA 68 milioni per mitigarne i rischi

shutterstock_putin_trump_kim

L’incubo degli esperti della DARPA (l’agenzia di ricerca dei progetti per la Difesa USA) potrebbe avverarsi nel momento in cui venisse pubblicato un video in cui Donald Trump annuncia di aver lanciato un attacco nucleare contro la Corea del Nord.

Con grande probabilità, prima di aver dimostrato che si tratta di un deepfake (un video falso), il mondo si potrebbe trovare invischiato in una guerra nucleare. Almeno due sono i fattori che rendono questo rischio decisamente reale.

Primo: la fiducia che (generalmente) riponiamo in un’immagine o in un video è molto elevata. Insomma,se vediamo qualcosa, allora significa che è veramente accaduto…  Si pensi ad Instagram. Il social network si distingue per la sua fruizione e facilità d’uso. Ma fa anche in modo che una foto postata venga vista dalla quasi la totalità dei followers, realizzando un effetto immediatezza senza precedenti. Il che aumenta il grado di attendibilità che si da’ al materiale fruito. Che sia fake o deepfake viene dopo, o non conta.

Secondo: nell’arco di qualche mese, creare un deepfake (un fake video o una fake image) estremamente realistico e credibile sarà alla portata di moltissime persone.

Le nuove tecnologie di AI-Artificial Intelligence (e la potenza di calcolo facilmente noleggiabile dal cloud) renderanno infatti molto più facile manipolare foto aggiungendo persone e/o oggetti ad immagini già esistenti, o creare video in cui inserire persone (e dialoghi con voci originali) a proprio piacimento.

E siccome tra gli obiettivi della DARPA vi è anche quello di ricercare soluzioni in grado di mitigare il cosiddetto “effetto sorpresa”, recentemente sono stati investiti 68 milioni di dollari per lo sviluppo di nuove tecniche volte a identificare automaticamente immagini e video manipolati.

Secondo la DARPA, la disponibilità (o la mancanza) di queste tecnologie avrà un impatto certo sulla sicurezza nazionale degli Stati Uniti. Poiché la DARPA ha maturato la triste consapevolezza che “l’avversario è comunque destinato sempre a vincere”, l’unico obiettivo che rimane da perseguire è “almeno quello di complicargli la vita”.

DARPA-Tech-Can-Spot-‘Deepfake’-Videos

Insomma, se almeno costasse di più realizzare deepfake non così semplici da identificare, la platea dei potenziali nemici si potrebbe ridurre notevolmente e questo, di per sé, sarebbe già un successo.

Se nulla venisse fatto, invece,molto presto chiunque potrebbe realizzare deepfake e, di conseguenza, diventare nemico degli USA. Un ragionamento lineare, soprattutto se si dispone di una grande quantità di denaro per rafforzare la difesa del proprio paese.

Nel frattempo, alcuni consigli d’uso. Utilizzare le tecnologie di Artificial Intelligence per svelare i deepfake (a loro volta creati dalla AI), capaci di cogliere le impercettibili imperfezioni a occhio umano derivanti dalla manipolazione. Il fattore tempo è essenziale e il check va effettuato in tempi rapidissimi, prima che il deepfake diventi virale.

Invitare caldamente, (per chi ha un approccio più aggressivo,“imporre”) i social media a fare investimenti in Ricerca&Sviluppo  per sviluppare filtri di selezione per smascherare un deepfake, da applicare prima della pubblicazione di video e immagini.

Infine, diffondere a 360° la consapevolezza che n’immagine o un video, anche se di eccellente qualità, possono essere un fake. Dunque, prima di reagire, riflettere con attenzione. Magari anche quando si fa un selfie…

Foto: Shutterstock e Darpa

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' CEO di CY4Gate e Vice Direttore Generale di Elettronica. --- Andrea Melegari: Laureato in Informatica all'Università di Modena, è specializzato in tecnologia semantica a supporto dell'intelligence. Ha insegnato per oltre 10 anni all'Accademia Militare di Modena ed è Senior Executive Vice President, Defense, Intelligence & Security di Expert System. E' Chief Marketing & Innovation Officer di CY4Gate e membro del CdA di Expert System, CY4Gate e Expert System USA.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password