Economia > Digital Economy
ARTICOLO | Primo piano di “Atlandide” n. 41 (2017)

Intelligenza artificiale, la scienza invisibile

Quello che sta accadendo oggi con l’Intelligenza Artificiale (I.A.) è paragonabile a quello che è accaduto anni fa con la diffusione dell’elettricità. Da un lato l’I.A. sta permettendo di fare cose impensabili prima e sta sviluppando enormemente il potenziale di tante aziende e industrie con nuovi business e nuovi servizi; al tempo stesso sta potenziando le possibilità di ogni persona di interagire con la realtà (si pensi alla facilità di comunicare di oggi rispetto a vent’anni fa, o alla rapidità con cui è possibile accedere a informazioni di ogni tipo). 
Dall’altro lato l’I.A. è ormai presente ovunque e, come con l’elettricità, la usiamo continuamente e spesso senza rendercene conto, è quasi “invisibile” (ogni volta che usiamo uno smartphone, entriamo in metropolitana o in macchina e usiamo il navigatore, o ogni volta che usiamo le email o i social network, di fatto stiamo utilizzando l’I.A.).
Inoltre, e questo viene evidenziato poco, oltre a essere fruitori dei servizi di I.A., noi (spesso inconsapevolmente) contribuiamo anche ai servizi di I.A., attraverso i dati che forniamo (quali siti visitiamo, quali prodotti compriamo online, quali destinazioni inseriamo nel nostro navigatore, e così via). Oggi in tanti sono contenti del fatto che molti servizi sono gratis; ma se un prodotto è gratis, vuol dire che il prodotto sei tu, attraverso i dati che fornisci, e che altri (Google, Facebook, Amazon, ecc.) ti utilizzano per fare business.
Oggi tutti parlano di I.A., tuttavia la percezione che molti hanno dell’I.A. è spesso lontana da come stanno davvero le cose. E i media si dividono tra chi ripone nell’I.A. grandi (esagerate) speranze, e chi vede nell’I.A. una minaccia, a mio avviso spesso immotivata.   
Io credo che occorra mantenere una posizione di rispetto verso quello che la scienza fa ma anche verso quello che la mente umana è, e che occorra anche un certo realismo, cercando di dire davvero qual è lo stato dell’arte.
Ed è quello che cercherò di fare, premettendo che quanto dirò è destinato a un lettore non specialistico. Per questa ragione, e per necessità di sintesi, farò volutamente diverse semplificazioni, che sono comunque adeguate per dare al lettore un’idea di ciò di cui si parla.
Tra le tante definizioni proposte, possiamo considerare quella secondo cui l’I.A. è la scienza (perché di scienza si tratta) che ha l’obiettivo di creare macchine che siano capaci di prendere decisioni ragionevoli, sensate. Qui la parola “macchine” è usata in modo un po’ generico, ma si può pensare a un robot o a cellulare o al navigatore dell’auto o al sistema di controllo di traffico. L’I.A. usa principalmente due tipi di approcci, il primo si basa sull’avere un modello del contesto in cui la macchina opera e algoritmi capaci di esplorare l’insieme di possibili alternative per raggiungere un obiettivo. Un esempio molto comune è il navigatore nell’auto che, per suggerire il percorso migliore per raggiungere un indirizzo, considera in modo efficiente l’insieme di possibili tragitti e suggerisce quello migliore.
L’altro approccio è il Machine Learning (insieme alla versione piu’ recente e avanzata detta Deep Learning) e si basa sull’avere un’enorme quantità di dati (esempi) e su strutture e algoritmi che permettono di imparare da tutti questi esempi. In effetti questo approccio cerca di imitare le reti neurali del cervello umano, sebbene ci sia un’importante differenza di scala da rilevare. Il cervello umano contiene miliardi di neuroni e migliaia di miliardi di connessioni tra i neuroni. Le reti neurali più avanzate del Deep Learning contano qualche migliaio di neuroni e alcuni milioni di connessioni. La differenza è evidente, e raggiungere i numeri creati dalla natura non è solo questione di tempo. Lo dico anche per evidenziare un doveroso rispetto verso la misteriosità e la grandezza della creatura umana. Tuttavia, il Machine Learning sta facendo grandi progressi, soprattutto grazie alla disponibilità di enormi quantità di dati, e a una potenza computazionale sempre più grande.
È bene notare che abbiamo a che fare quotidianamente con il Machine Learning, in quanto l’accesso alle informazioni sul web è mediato dall’I.A. Si pensi alle ricerche che facciamo su Google: l’ordine in cui le informazioni ci vengono presentate, e il contesto in cui vengono inserite, sono mediate dall’I.A. (il Machine Learning è, ad esempio, utilizzato per fornirci informazioni il più possibile compatibili con le nostre preferenze, come nel suggerirci prodotti su Amazon o film da guardare su Netflix). O si pensi anche al riconoscimento di immagini (ogni utente di Facebook sa di cosa si tratta) che si basa su algoritmi che si allenano (training) usando enormi quantità di immagini presenti nel web. Simili applicazioni si trovano in campo medico.
Ha fatto scalpore recentemente un grande risultato ottenuto nell’ambito del Deep Learning, e che rappresenta una pietra miliare anche dal punto di vista scientifico. Per la prima volta una macchina ha battuto il campione mondiale di Go, un gioco molto popolare in Asia e ora anche in Occidente, in cui l’obiettivo è utilizzare pietre nere o bianche per cercare di circondare le pietre dell’avversario, in una scacchiera di 19 righe e 19 colonne e alla fine della partita vince chi ha conquistato più territori. Per darvi un’idea della complessità di questo gioco, negli scacchi per ogni mossa di un giocatore l’avversario ha venti alternative. Nel Go questo numero da venti diventa duecento, per cui c’è un ordine di grandezza in più e inoltre la partita dura in media tre volte la partita di scacchi, per cui è un gioco estremamente complesso, con un enorme numero di possibili alternative. Il programma sviluppato dalla società Google DeepMind (chiamato AlphaGo) ha battuto il campione mondiale di Go, Lee Sedol, e questo fatto ha avuto una enorme risonanza mediatica. In effetti si è trattato, oggettivamente, di un risultato straordinario per la scienza e per l’Intelligenza Artificiale. Tuttavia, da scienziato ma anche da uomo, c’è una considerazione che non si può evitare: il programma AlphaGo, mentre è bravissimo a giocare a Go, non sa fare altro (tra l’altro, se al programma si presenta una scacchiera con una riga in meno,esso non è più capace di giocare), mentre Lee Sedol, oltre a essere un campione nel Go, è un uomo probabilmente capace di parlare più lingue, di cucinare, di guidare una macchina, ecc. Dei due, il cervello più affascinante, a mio avviso, rimane quello umano, e credo che, anche da scienziato, conservare un aspetto di umiltà e di realismo in questa prospettiva sia doveroso.
Il successo del Deep Learning, e più in generale la capacità di algoritmi di insegnare alle macchine come risolvere problemi partendo da tanti esempi, sta lanciato l’idea del Deep Learning come una tecnica che permetterà di insegnare alle macchine qualunque cosa (è la cosiddetta General Artificial Intelligence). Questo sta alimentando un dibattito attorno al tema di macchine pensanti o capaci, prima o poi, di diventare autonome nel prendere decisioni.
Come uomo e come ricercatore tengo sempre aperta la categoria della possibilità, per cui non lo escludo, tuttavia ci sono alcuni limiti evidenti, che con le tecnologie attuali non sembrano superabili.
Innanzitutto, il problema di scala che evidenziavo prima (tra l’altro nel cervello ci sono diversi tipi di neuroni, e diverse strutture che sono utilizzate per attività diverse, perciò anche con le macchine sarebbe necessario raggiungere questo grado di specializzazione).
Secondo, il Machine Learning si basa sull’imparare dai dati, e ha bisogno di tanti dati per imparare efficacemente. Il problema è che non è sempre facile avere questi dati a disposizione. Certo, in diversi ambiti ci sono tantissimi dati: per esempio lo speech recognition (cioè la capacità di una macchina di ascoltare e trascrivere quello che un umano dice) ha fatto enormi progressi, proprio perché c’è una enormità di dati relativi ai dialoghi tra persone, ma in tanti altri ambiti questa disponibilità di dati non c’è.
Terzo, è difficile “fidarsi” del Machine Learning. Se tu mi dici una cosa, posso conoscere tanti aspetti di te che mi portano a fidarmi di quello che dici (questo non vale per una rete neurale). In alternativa (o insieme) se tu mi dici una cosa, io te ne chiedo le ragioni, e tu puoi “spiegarmi” perché dici quella cosa. Questo aspetto nell’I.A. non c’è, in quanto il Machine Learning è di fatto una black box (una scatola nera), e tu non sai perché ti suggerisce di fare A o B. È molto importante, soprattutto quando si tratta di usare l’I.A. per decisioni di grande impatto o con potenziali rischi di sicurezza, e ha anche implicazioni legali in termini di responsabilità (per esempio come si gestiranno le assicurazioni per le self-driving car?).
Non a caso, un’area di ricerca scientifica che è diventata molto attiva recentemente (e di cui anch’io mi occupo con il mio team) è quella dell’Explainable AI, ovvero lo studio di tecniche che permettano all’I.A. di spiegare le decisioni che essa stessa prende. Ma la ricerca in questo campo è ancora agli albori.
Quarto, il Machine Learning si basa sui goal (obiettivi di apprendimento) dettati dall’uomo: l’uomo insegna a una macchina a giocare a scacchi, o a riconoscere le parole, o a cucinare, e le fornisce i dati per imparare ognuna di queste cose. Che una macchina si dia da sé (o dia ad altre macchine) nuovi goal o obiettivi, è un passo che non è stato ancora fatto.
C’è poi un ultimo aspetto, più controverso ma molto affascinante, e cioè il tema dell’”intuizione”. Una macchina può fare certe cose o perché è programmata per farle, o perché impara a farle analizzando (tanti) esempi. Nell’uomo l’intuizione non è solo il frutto di queste due cose. C’è un aspetto in più, misterioso, che non è appena il risultato dell’esperienza (sebbene quella incida). Le macchine non sono capaci di intuizioni. Attenzione, intuizione non è appena il creare nuove cose (ci sono già sistemi I.A. che inventano canzoni o scrivono testi). L’intuizione è più legata a un imprevisto riconoscimento di una possibilità, o di un aspetto della realtà, quasi come una sorpresa, non riconducibile solo a quello che hai già visto. Questo l’I.A. non lo fa.
Recentemente si è acceso un altro dibattito rispetto all’etica nell’I.A., che riguarda il rischio, paventato da molti, che l’I.A. possa rappresentare una grave minaccia. Ci sono state diverse iniziative e prese di posizione, con l’obiettivo di proporre un uso positivo dell’Intelligenza Artificiale da parte delle principali organizzazioni e società che sviluppano I.A. (una delle iniziative più significative è la Partnership on AI to Benefit People and Society). Se, da un lato, queste iniziative sono certamente valide e molto importanti, allo stesso tempo io credo ci siano degli aspetti da considerare nell’ambito dei singoli utenti dell’I.A. (cioè ognuno di noi). Ogni persona ha oggi, infatti, la possibilità, attraverso la tecnologia, di avere accesso in tempi rapidissimi a una quantità enorme di informazioni, e questo era impensabile fino a pochi anni fa. Di fronte a questo rapido progresso e cambiamento, l’uomo, a mio avviso, non è pronto. A uno sviluppo così veloce della scienza, infatti, non sta corrispondendo un uguale sviluppo della coscienza. È evidente, per esempio, che non sappiamo avere un rapporto equilibrato con i social media, per cui la curiosità, o il mostrare quello che uno fa, diventano spesso quasi morbosi. L’accesso così immediato alle informazioni in rete rischia di spegnere l’atteggiamento critico, che è fondamentale. E infatti si pone sempre di più il problema dell’autorevolezza dei dati. Oggi ci si affida a Google più che al proprio medico per capire diagnosi e cure di fronte ai sintomi che uno presenta.
Da un punto di vista più strettamente scientifico, c’è il rischio che allo stupore per ciò che si scopre, si sostituisca la presunzione di pensare di poter, in fondo, riprodurre l’uomo con le macchine.
Con tutto questo non voglio suggerire uno sguardo cinico sull’I.A., anche perché è il mio lavoro. E poi perché credo, sinceramente, che la tecnologia sia innanzitutto un potenziale di grande creatività e costruzione. Dico, però, che c’è un aspetto di responsabilità grande, sia da parte di chi crea l’I.A. (e lo dico in primis a me stesso), sia da parte di chi la utilizza. Al tempo stesso, chi è chiamato a educare (genitori, insegnanti, docenti universitari) non può non sentirsi richiamato a chiedersi come l’educazione debba affrontare la sfida di un cambio cosi rapido e radicale del nostro rapporto con la tecnologia.

Contenuti correlati

VIDEO | Imparare per ripartire, webinar n. 4

L’economia al tempo del lockdown: infrastrutture digitali

14 MAG 2020 | GARRONE, FRATICELLI

Quali infrastrutture per la trasformazione digitale? Quali sono le nuove applicazioni digitali? Come le imprese stanno rispondendo?


ARTICOLO | “Atlantide” n. 41 (2017)

Tre principi per governare il rapporto uomo – macchina

DIC 2017 | Intervista a Luciano Violante

La macchina non deve mai essere autonoma rispetto all’uomo. L’uomo deve poterla spegnere in qualsiasi momento. Devono essere sempre noti il finanziatore, il costruttore e chi detiene la capacità di governo della macchina.


ARTICOLO | “Atlantide” n. 41 (2017)

La dignità della persona nell’epoca della machina sapiens

NOV 2017 | Paolo Benanti

L’avvento della ricerca digitale, dove tutto viene trasformato in dati numerici, porta alla capacità di studiare il mondo secondo nuovi paradigmi gnoseologici: quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale connessione.