Intelligenza Artificiale: meglio sapere come e perchè funziona

Intelligenza-Artificiale-ia-estinzione-uomo-1

Si dice che interrogarsi sul “ perche’ ” delle cose del mondo, visibili e non, sia compito della filosofia, mentre a indagare sul “come”, ci pensa la scienza o le scienze. Non vi è esempio più attuale della Artificial Intelligence, quale ambito nel quale i modi tipici di procedere della ricerca umana si confondono, spesso contraddicono, più volte intersecano. “Non so perché funziona, ma funziona” non può funzionare quando parliamo di Artificial Intelligence. E’ tutto racchiuso in questa frase, la dirompente rottura degli schemi classici.

shutterstock_680929729-1635x1090

Perché il software utilizzato dal reparto di cardiochirurgia ha selezionato proprio il Sig. Rossi tra le centinaia di persone in lista per un trapianto di cuore? Perchè l’autopilota ha deciso di fare deviare la vettura fuoristrada causando una ferita al guidatore invece che tentare di schivare la mamma con il passeggino che attraversava la strada? Per quale ragione il sistema in uso dalla polizia di immigrazione dell’aeroporto ha deciso di fare una perquisizione al Sig. Verdi e non ad altri passeggeri?

Abbiamo già parlato nell’ultimo articolo della necessità di capire bene quale sono le logiche che stanno dietro a sistemi basati sull’intelligenza artificiale, ma la rilevanza di questa tematica e alcuni feedback interessanti in merito a quell’articolo ci inducono a un ulteriore approfondimento.

Molti sono i dilemmi, di varia natura, che l’Artificial Intelligence pone. E non sembrano esserci risposte immediate ed univoche. Ci sembra tuttavia di poter dire che “come” e “perchè” andrebbero messi metodologicamente in fila. “Per fidarmi dell’Artificial Intelligence, devo capire meglio come funziona”, è infatti una delle affermazioni che sta risuonando sempre più spesso, anche nei commenti che abbiamo ricevuto.

01cfe316-6003-48fa-a815-69a46db22e1204Medium

L’ondata di eccitazione, scatenata dagli enormi investimenti di marketing di alcuni big del mondo IT, va ora mitigandosi. La delusione provocata dal clamoroso fallimento di software che promettevano di apprendere perfettamente ed automaticamente (dunque quasi magicamente), e quindi di ragionare allo stesso livello qualitativo del cervello umano, sta riportando nella giusta prospettiva le aspettative sui reali utilizzi e benefici dell’intelligenza artificiale.

Oggi l’AI è, generalmente, poco Artificial e poco Intelligence.  Nella maggior parte delle situazioni, si tratta di qualcosa di non molto diverso da un tradizionale software. Dunque un programma informatico capace di elaborare un input, sulla base di precise istruzioni pre-codificate (il cosiddetto codice sorgente), e di restituire un output. La differenza rispetto a vent’anni fa consiste nella maggior potenza di calcolo (oggi abbiamo supercomputer) e da un numero di input decisamente più ampio rispetto al passato (i famosi big data).

L’esigenza di capire il funzionamento delle tecnologie di AI di si traduce tipicamente in una doppia preoccupazione.

Capire come funziona un software di Artificial Intelligence (o comunque vogliate chiamarlo visto quanto affermato qualche riga sopra) e se opera in base ad un pregiudizio. Ovvero l’output è frutto di un input che “in nuce” contiene già i germi di quel, e solo quel, output.

artificial-intelligence-privacy-and-legal-issues_1500

Il primo aspetto si può affrontare cercando di evolvere verso sistemi XAI, dove la X sta per explainable. In pratica, devono essere chiari ed evidenti i meccanismi e i criteri con cui il software effettua certi ragionamenti, e perché produce determinati risultati.

Il secondo aspetto richiede un Etichal AI immune da pregiudizi determinati da chi ha programmato il software, dal dataset utilizzato per l’apprendimento o da un cyber attacco.

Un sistema di AI il cui funzionamento è impossibile da comprendere è una black box, cioè l’opposto di uno XAI e di un Ethical System. Ed una black box è, sicuramente per chi scrive, una soluzione di gran lunga peggiore di una glass box (o white box o clear box).

Ecco perché l’approccio “Non so perché funziona, ma funziona” non può funzionare quando parliamo di Artificial Intelligence.

Foto L’Indro, CPO Magazine, Forbes e Elettronica Group

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' CEO di CY4Gate e Vice Direttore Generale di Elettronica. --- Andrea Melegari: Laureato in Informatica all'Università di Modena, è specializzato in tecnologia semantica a supporto dell'intelligence. Ha insegnato per oltre 10 anni all'Accademia Militare di Modena ed è Senior Executive Vice President, Defense, Intelligence & Security di Expert System. E' Chief Marketing & Innovation Officer di CY4Gate e membro del CdA di Expert System, CY4Gate e Expert System USA.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password