Trimestrale di cultura civile

Perché bisogna parlare di “intelligenze artificiali”

  • GEN 2024
  • Paolo Benanti

Condividi

Dopo le dimissioni di Giuliano Amato, Paolo Benanti è stato nominato nuovo presidente della Commissione IA per l’informazione del governo italiano. Francescano, è professore della Pontificia Università Gregoriana ed è l’unico italiano membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite. Benanti è intervenuto sei volte al Meeting di Rimini. Per gentile concessione, pubblichiamo una sintesi dei suoi interventi del 2023 su “Il potere degli algoritmi. L’uomo e la sfida dell’Intelligenza artificiale”, e del 2019 “Con quale coscienza creiamo algoritmi?” (il testo non è stato rivisto dall’autore).

Io spezzerei anzitutto una lancia per una visione positiva della tecnologia, perché forse oggi sentiamo troppi profeti negativi. Abbiamo avuto filosofi all’inizio del Novecento, come Arnold Gehlen, che vedevano nell’artefatto tecnologico un segno della carenza umana, come se fossimo una realtà venuta fuori male, per cui non corriamo veloci come il ghepardo, non ci arrampichiamo come le scimmie, non nuotiamo come il delfino, e l’artefatto tecnologico sarebbe ciò che sviluppiamo per evitare questa nostra inferiorità; ma una specie inferiore non si capisce come possa realizzare tutto questo.

Perché dobbiamo interrogarci così tanto per la creazione di un utensile particolare come il machine learning e l’intelligenza artificiale? Perché questa nuova versione del martello è così profondamente provocatoria per il nostro tempo?

Per capirlo torniamo a una stagione passata. Quando nel XVI secolo abbiamo realizzato la lente convessa, da questa abbiamo tirato fuori due utensili, il telescopio e il microscopio. Con il telescopio abbiamo iniziato a studiare l’infinitamente grande, e nulla ci è apparso più come prima: la Terra non era più al centro dell’universo, e abbiamo cominciato a capire il cosmo in una maniera diversa. Con la stessa lente convessa, generando il microscopio, abbiamo iniziato a studiare l’infinitamente piccolo e abbiamo visto che anche la nostra vita non era più la stessa, eravamo composti da un insieme di piccole cellule viventi che hanno cambiato la nostra comprensione di ciò che siamo. Quindi un artefatto tecnologico, questa sorta di interfaccia tra noi e il mondo, ha la capacità di cambiare tutto ciò che capiamo e conosciamo del mondo e di noi stessi.

 

Un nuovo utensile: il “macroscopio”

Oggi non è più questione di lente convessa, non è più questione di infinitamente grande o di infinitamente piccolo, ci troviamo di fronte un nuovo utensile che è quello che potremmo chiamare un “macroscopio”, che ci consente di studiare l’infinitamente complesso, cioè le relazioni che troviamo tra i dati, facendocele emergere come correlate.

Ed ecco che le intelligenze artificiali basate su questo “macroscopio” stanno di nuovo cambiando quello che noi capiamo della realtà. In astrofisica, raccogliamo i dati con enormi telescopi e poi cerchiamo degli algoritmi che ci spieghino la correlazione tra di essi. Ma cambia anche quello che capiamo di noi: le neuroscienze ci dicono che la coscienza può essere in qualche modo spiegata come una correlazione tra dati all’interno del nostro sistema nervoso centrale. Ci troviamo cioè in un cambio d’epoca analogo a quello che ha introdotto la scienza moderna, un nuovo modo di spiegare la realtà e noi stessi.

L’uomo si trova di fronte a un’altra specie “sapiens”, questa volta una macchina, che ci pone una domanda fondamentale sulla nostra specificità. Prima eravamo gli unici “sapiens” sulla Terra, ora che abbiamo una macchina sapiens, chi siamo noi?

Il filosofo Ludwig Wittgenstein diceva: “I confini del mio mondo sono i confini del mio linguaggio”, delle mie parole. Per la prima volta ci siamo trovati di fronte al fatto di dover utilizzare un termine, “intelligenza”, che applicavamo principalmente agli umani, e con qualche riduzione ad alcuni animali, per descrivere una macchina che abbiamo costruito. Ci mancano le parole – e questo è parte del problema – per descrivere la differenza tra qualcosa che funziona, la macchina, e qualcuno che esiste. Non pretendo di dare una risposta, però mi chiedo se, a questo punto, non possiamo prendere qualcosa dalla tradizione di pensiero che abbiamo come occidentali per cercare di descrivere questa differenza, per provare a rispondere alla domanda su che cos’è questa forma di intelligenza non animale e non umana.

 

Una grande famiglia di strumenti

Andrei sui classici: nell’Odissea Ulisse è definito “astuto”, nel greco classico in realtà è detto con un termine che serviva a indicare una forma di intelligenza diversa. Il greco conosce il nous, quella forma di intelligenza che capisce, e la metis, quella che trova le soluzioni. L’intelligenza artificiale è metis, una forma pratica. Nelle lingue contemporanee non c’è un corrispondente che distingua l’una dall’altra forma di intelligenza, che ci stupisce nella macchina perché trova per noi delle cose che normalmente ci costano un po’ di fatica cognitiva.

Ma, a questo punto, sorge un’altra questione: quando parliamo di “intelligenza artificiale”, non è neanche così appropriato definirla al singolare: sono tutte macchine che dentro di loro hanno una qualche scheggia, una qualche particolarità di alcune delle forme che caratterizzano l’intelligenza umana. Forse la cosa migliore, più corretta anche dal punto di vista umanistico, sarebbe definirle al plurale, le “intelligenze artificiali”. Perché quella macchina che fa quella cosa che sembra simile all’intelligenza umana è diversa da quell’altra, non hanno la stessa forma di intelligenza ed eseguono compiti differenti. Le intelligenze artificiali, allora, sono una grande famiglia di strumenti, più o meno efficienti, più o meno potenti, più o meno energivori – di questo si parla poco – che ci consentono di trovare dei mezzi per risolvere certi problemi.

Questo significa che un’intelligenza artificiale è utile solo se abbiamo davanti a noi un’ermeneutica della realtà in cui la realtà è un problema da risolvere. Una domanda esistenziale, invece, non è un problema da risolvere, è una qualità di esperienza da vivere, quindi, è molto umana e molto poco artificiale.

La frontiera dell’intelligenza artificiale che ha guadagnato l’onore delle cronache negli ultimi tempi riguarda i grandi modelli linguistici, più conosciuti con il nome di una delle applicazioni, ChatGPT. Con questa, la macchina dovrebbe essere in grado di indicare qual è la prossima parola in una frase. Però l’abbiamo fatta così potente che indovina non solo la prossima parola ma tutto il paragrafo, tutta la pagina, e anche qualcosa di più. Queste intelligenze artificiali si interfacciano con una parte della persona che va guardata con molta cura perché, fin da bambini, sappiamo che chi ci racconta le storie, chi ci racconta le fiabe, ci dà una certa prospettiva sul mondo.

 

Quel “difetto” che si chiama libertà

Allora la sfida non è nella macchina in sé ma in quello che la macchina oggi ci invita a capire della realtà e di noi stessi. Insomma, il problema è ancora l’uomo e non la macchina.

Abbiamo costruito una macchina che non solo è in grado di scegliere i mezzi per arrivare a un obiettivo, a un fine, ma ha il grande potere di predire qualcosa che ancora non è successo. Se noi sulla stazione spaziale orbitante raccogliamo tutti i dati che vengono dai sensori di tutte le parti mobili, in alcuni momenti potremmo trovarne alcuni che si discostano dalla normalità: per esempio un compressore dell’aria rompe un cuscinetto, e inizia a vibrare un po’. La macchina, nella sua ossessione di regolarità, è in grado di riconoscere questa anomalia e segnalarla o, ancora di più, trasformarla in una predizione di rottura di quel componente. Quindi potremmo sviluppare un sistema che ci riesce a dire, in base all’anomalia di quelle vibrazioni, che tra 5 ore, 22 minuti e 35 secondi quel compressore si romperà. Capite che, in una situazione critica come stare nello spazio, poter riparare un sistema vitale di bordo prima che si rompa diventa un potere enorme: non devo aspettare che si accenda la spia del guasto, posso intervenire prima.

Però questo problema di predizione funziona bene sul tipo di dato che viene prodotto da un sistema meccanico, in cui i gradi di libertà, pochi, sono stati decisi a tavolino da un ingegnere. Ma se iniziamo a utilizzare gli stessi sistemi, le stesse scorciatoie, su dati prodotti da un sistema strano, basato sulla chimica del carbonio, come siamo io e voi, dal punto di vista ingegneristico abbiamo un brutto difetto, che chiamiamo “libertà”: questo nostro avere più gradi di libertà fa sì che la macchina che interagisce con l’essere umano, non solo in alcuni casi predice quello che facciamo, ma sembra, da una serie di studi, in grado di produrre parte del nostro comportamento.

Chi se ne è accorto prima è stato il marketing: quell’annuncio “forse ti interessa anche” che compare sulla piattaforma dove hai comprato l’ultimo libro, non solo ha predetto la lettura che ti interessa, ma ha prodotto almeno un 10/15% di vendite in più. Avere uno strumento che predice e produce dei comportamenti è utilissimo, ma può essere anche pericolosissimo.

Non è però un problema di questa frontiera tecnologica: quando la specie umana, 70mila anni fa, in una caverna, per la prima volta ha preso in mano una clava, era un utensile per aprire più noci di cocco o un’arma per aprire più crani di altri sapiens? Il fatto che tutto questo possa essere usato nel bene e nel male è il problema etico che esiste da sempre, è quella cosa che faceva dire a Solzenicyn in Arcipelago Gulag: “Lentamente compresi che la linea sottile che separa il bene dal male passa dritta al centro del cuore di ciascuno di noi”. Non è un problema della macchina, non è il problema del “potere degli algoritmi”, è il problema del potere dietro gli algoritmi. Cioè di come tutto questo diventa società, diventa sistema organizzato. Questa è l’etica della tecnologia, che ho chiamato “algoretica”, dove il bene è un valore che deve diventare un valore numerico che la macchina può computare.

 

Un’amicizia a “tre dimensioni”

Quando nel 1980 Langdon Winner ha lanciato questo modo di mettere sotto una critica sociale la tecnologia, lo ha fatto con un esempio: se andate a New York, potreste vedere una bella autostrada a sei corsie che unisce Manhattan a Long Island, quella e tante altre opere pubbliche sono state fatte da Robert Moses, un famoso politico newyorkese. Noi tutti, in quella strada, probabilmente vedremmo quello che vediamo quando in Italia percorriamo la A1: calcestruzzo e asfalto. Ma se andiamo a leggere la vita di Moses, raccontata in Potentate, (R. Caro, The Power Broker, 1974) un libro importante, di oltre mille pagine, che ha vinto il Premio Pulitzer nel 1974 e che è annoverato tra i migliori 100 volumi di non-narrativa del mercato americano, scopriremmo che Moses aveva delle idee oggi non più accettabili, ma all’epoca molto chiare, per cui la parte migliore della città doveva essere destinata alle persone migliori: per lui Jones Beach, la spiaggia più bella di New York, doveva essere riservata alla classe media bianca. Dunque, non prevede nessun treno per andare a Jones Beach, e i ponti in calcestruzzo che vi danno accesso sono 2 piedi, ovvero 60 centimetri più bassi dello standard: nessun autobus riesce a passare, solo chi possedeva una macchina poteva andare al mare. Ogni artefatto tecnologico, nella sua iniezione sociale, nel suo entrare all’interno della società, funziona come uno strumento d’ordine e come un dispositivo di potere.

Allora la domanda che ci dobbiamo fare per rispondere a quali sono le potenzialità e quali sono i pericoli dell’IA è esattamente questa: mettere sotto il microscopio la tecnologia e chiederci che forma d’ordine, che strumento di potere rappresenta all’interno delle nostre relazioni sociali.

Dopo il Covid questo è abbastanza facile da capire. Non è più questione solo di calcestruzzo e di cemento armato, ma di un diritto costituzionale, il diritto alla salute, che è stato ordinato tra noi secondo un criterio nascosto dietro gli algoritmi del portale della sanità regionale. Gli algoritmi di oggi sono le autostrade di Moses. L’etica della tecnologia non dice se la tecnologia è buona o cattiva, ma aiuta a leggere un certo uso che se ne fa in una determinata circostanza con certi fini, e a chiedersi, e a chiedere a tutti i portatori di interesse, cioè a tutta la società civile, se questo uso afferma, confonde o nega altre forme di diritto che abbiamo detto essere al cuore della nostra società.

E allora eccoci qua: di nuovo tra bene e male, purtroppo spetta a noi.

Allora abbiamo bisogno, potremmo dire, di una amicizia “a tre dimensioni”. La prima forma è un’amicizia con noi stessi. Una volta il motto “conosci te stesso” era un po’ la missione di tutto l’uomo, di tutto ciò che siamo: “Fatti non foste a viver come bruti…”. C’è qualcosa che non ci basta, dobbiamo andare oltre. A un certo punto, con Linneo, è successo qualcosa: nel suo sistema di classificazione, derivato anche dal teatro anatomico, alla voce “conosci te stesso” è comparso il nome della specie più vicina a noi, una scimmia, “homo”, con però una caratterizzazione unica che ci distingueva dal resto delle scimmie: “sapiens”.

Ora che abbiamo realizzato una macchina “sapiens”, non ci accontentiamo di essere solo scimmie. E allora la prima forma di passione è una passione per l’umano. La prima forma di amicizia di cui abbiamo bisogno è l’amicizia per la “persona”, la categoria così fragile che è alla base di quello spazio che è l’Occidente e che mai come oggi sembra essere diventata per certi versi vuota.

È in atto una sfida linguistica, giorno dopo giorno, con una macchina che si umanizza sempre di più e un uomo che si “macchinizza”, o comprende se stesso come una macchina, ogni giorno di più. La prima forma di amicizia la dobbiamo avere per noi stessi, e per questo senso di insoddisfazione costante che ci spinge verso l’“oltre”.

La seconda forma di amicizia di cui abbiamo bisogno è tra le discipline, tra il diritto costituzionale, la fisica e le scienze informatiche, la filosofia e la teologia. Bisogna tornare a fare universitas, tornare a parlare tra noi. Parlare di intelligenza artificiale non è più parlare di una disciplina, sono necessarie competenze tecniche, giuridiche, sociologiche... Competenze psicologiche: cosa sta producendo sulla mente dei nuovi nati essere esposti così tanto alle macchine “da clic”? Faranno le scelte più importanti della loro vita come si sceglie un video su YouTube? Non lo sappiamo.

E, infine, abbiamo bisogno anche di una terza amicizia, che guarda al futuro, un’amicizia tra generazioni. Ma guarda anche al passato. Perché le persone più fragili di oggi sono ai due estremi della curva gaussiana della popolazione, i giovani e gli anziani. Se noi sviluppiamo questi strumenti di intelligenza artificiale pensando solo a chi sta al centro della curva, a chi ce la fa, a chi può avere una sorta di anticorpi per adeguarsi e gestire questa trasformazione, stiamo creando degli esclusi, stiamo creando delle periferie esistenziali all’interno delle quali diciamo che ci sono vite meno importanti di altre. Allora questa amicizia intergenerazionale ci deve far guardare anzitutto ai nostri ragazzi, e deve diventare una passione educativa: dobbiamo mettere al centro l’idea che quei giovani che abbiamo davanti saranno le donne e gli uomini di domani.

C’è un passo bellissimo di Antoine de Sant-Exupéry, in un libro meno conosciuto del famoso Piccolo principe, che si intitola Terra degli uomini, dove lui racconta che tornando in treno una sera, dalla Francia verso la Germania, vede tanti minatori polacchi che rientrano a casa con le loro famiglie, vede questi uomini piegati, contorti dalla fatica del lavoro in miniera che hanno con loro figli piccoli biondi, bellissimi. Riflette tra sé e sé: sono come le rose di un giardino. E si chiede chi avrà cura di loro, perché non vengano piegati dalla vita come i loro genitori...

Ecco, è questa passione che ci deve animare, l’amicizia che dobbiamo avere. Altrimenti entriamo in un’ottica in cui consumiamo noi quello che ci serve e il domani non ci interessa. E questa amicizia deve diventare poi una forma di diritto, l’intenzione di voler addomesticare queste tecnologie a quella cosa così fragile ma così fondamentale che è la democrazia. Come europei nel Novecento, le pagine scritte con il sangue dei conflitti che abbiamo attraversato ci hanno detto che la democrazia non è perfetta, ma è l’unico modo che conosciamo per tenere sotto controllo cose che ci potrebbero sfuggire di mano. Allora, di fronte a tecnologie così potenti, e alle poche, pochissime aziende che in questo momento le producono – sono nove le “regine” di questo mondo – abbiamo bisogno di addomesticare queste aziende e questi strumenti al regime democratico.

E questo si fa solo se siamo tutti insieme, cioè se c’è un’amicizia tra noi.

La sintesi è tratta da P. Benanti, Il potere degli algoritmi. L’uomo e la sfida dell’Intelligenza artificiale, intervento al Meeting per l’amicizia fra i popoli, Rimini, 22 agosto 2023 e P. Benanti, Con quale coscienza creiamo algoritmi?, intervento al Meeting per l’amicizia fra i popoli, Rimini, 20 agosto 2019 (il testo non è stato rivisto dall’autore).

Paolo Benanti, francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie. Insegna alla Pontificia Università Gregoriana ed è l’unico italiano membro del New Artificial Intelligence Advisory Board delle Nazioni Unite. Da gennaio 2024 è presidente della Commissione sull’Intelligenza Artificiale per l’informazione, organo del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio dei Ministri.

Clicca qui!