Trimestrale di cultura civile

Come regolarsi con l’Intelligenza Artificiale

  • GEN 2024
  • Andrea Simoncini

Condividi

Oggi è centrale il tema di come arginare l’invadenza di questa rivoluzione tecnologica. La discussione è animata a proposito di quali regole vadano introdotte. Le decisioni da assumere riguardano sia le democrazie che i regimi dove gli spazi di libertà sono fortemente compromessi se non negati del tutto. L’Europa si sta muovendo, indirizzando l’attenzione soprattutto per porre dei limiti alle imprese produttrici di tecnologia; il che comporta dei rischi. Tuttavia, la questione di una regolamentazione è sì importante, ma non esaurisce la complessità della spinosa materia. Perché resta fondamentale “una corretta educazione nei confronti della tecnica”. L’esercizio di pensiero umano sorretto da una feconda capacità critica. Tenuto in grande considerazione che sarebbe contro l’umano opporsi all’IA in termini pregiudiziali.

È senza dubbio il tema del momento. La priorità “numero uno” in tutte le agende economiche, politiche, sociali, scientifiche nel mondo. Così decisiva, che persino il Papa ha deciso di intitolarle il discorso del primo dell’anno1, dedicato alla pace (…e cosa c’è di più importante che la pace, oggi?). È il tema dell’Intelligenza Artificiale.

C’è da chiedersi, perché? È, davvero, così importante? Viviamo una sorta di allucinazione collettiva, oppure davvero ci troviamo davanti a “un rischio per la sopravvivenza e un pericolo per la casa comune”2, come dice Papa Francesco?

Per rispondere occorre, innanzitutto, cercare di capire di cosa stiamo parlando.

Non è la prima volta che l’umanità si trova davanti a grandi rivoluzioni tecnologiche. Cos’ha l’IA di così unico e travolgente? Cerchiamo di capire.

Fino a oggi l’uomo ha chiesto alla tecnica di aiutarlo a realizzare ciò che aveva deciso di fare. Pensiamo alla rivoluzione industriale: la scoperta di nuove forme di energia (termica o elettromagnetica) ha consentito di eseguire compiti sino ad allora svolti da esseri umani o da animali, con una velocità, potenza, accuratezza infinitamente superiore a qualsiasi capacità umana.

Dov’è la novità delle nuove tecnologie digitali? Il fattore di novità irriducibile è che oggi non chiediamo più alle macchine di fare quello che abbiamo deciso, ma chiediamo loro di decidere.

Non usiamo più la tecnica per andare dove abbiamo pensato, ma per decidere dove andare.

Ma da dove nasce questa novità?

 

La nuova sorgente di “energia”

 

Il segreto delle tecnologie digitali che vanno sotto il nome di “Intelligenza Artificiale” sta tutto nella nuova sorgente di “energia” scoperta a partire dagli anni Ottanta del secolo scorso: i dati.

Oggi è disponibile una quantità sterminata di dati – personali e non – prodotta soprattutto dal web e da ciò che a esso è collegato. Proprio come il petrolio, però, i dati per essere sfruttati come energia, devono essere “raffinati”, “elaborati”, “processati”.

Così nasce l’IA, quella serie di strumenti analitici, matematici e statistici (algoritmi), in grado di elaborare questi dati, secondo la definizione dell’OECD, e di utilizzarli come il propellente per “prendere decisioni, realizzare previsioni o raccomandazioni, intraprendere autonomamente azioni, esprimere giudizi o valutazioni”3.

È l’inizio di un mondo nuovo. Attraverso l’analisi massiva dei dati si può chiedere a una macchina di fare quello che fino a qualche tempo fa pensavamo fosse una prerogativa esclusiva degli esseri umani o, quantomeno, degli esseri intelligenti.

Fino a qualche anno fa, a nessuno sarebbe venuto in mente di citare in giudizio per un incidente stradale l’automobile perché è il dispositivo mobile che ha effettivamente urtato una persona e l’ha ferita; il responsabile è senza dubbio il guidatore, colui che ha “usato” il dispositivo. Ma oggi, lo sappiamo, esistono automobili in cui non c’è più un umano alla guida; è il “mezzo” che decide la velocità, la direzione, se e quando frenare, e lo decide autonomamente, secondo la definizione dell’OECD, ovverosia sulla base dei dati che analizza e non sulla base di un comando umano.

Cominciamo, dunque, a capire perché questo tipo di tecnologia non sia come tutte le altre e perché il Papa faccia bene a porre delle domande.

L’uomo sta sempre più affidando le sue decisioni a sistemi tecnologici artificiali, diventandone, così, inevitabilmente dipendente. Proviamo a chiederci: dopo anni di uso dei navigatori (come Google Maps o Waze) per guidare, chi sarebbe oggi capace di farne a meno per un viaggio? O ancora più banalmente, dopo anni di uso delle rubriche elettroniche, chi ricorda più un numero di telefono a memoria?

Si potrebbe obiettare: ma dov’ è il problema nell’affidare alle macchine la scelta della strada per andare a casa o per andare a trovare un amico, ovvero la ricerca di un numero di telefono? Il guadagno in termini di tempo e fatica è assolutamente maggiore della perdita di autonomia. Si liberano tempo ed energie per attività ben più rilevanti e interessanti.

Il punto cruciale è che questo spostamento della libertà verso l’automazione è progressivo e incrementale. Dunque si comincia dalle operazioni semplici, ma l’ambizione è maggiore.

 

L’educazione libera in un contesto democratico

 

Soprattutto, occorre essere consapevoli che questa graduale sostituzione sta avvenendo in due forme: una esplicita, l’altra invisibile.

La prima forma, esplicita, è quella sotto gli occhi di tutti.

Pensiamo a una persona che voglia essere trasportata da una self-driving car e, quindi, consapevolmente chieda alla macchina di decidere al suo posto. Oppure, pensiamo a un giudice che deve decidere la pena per un reato e chieda a un algoritmo di predire la pericolosità sociale dell’imputato. In questi casi la macchina decide al posto nostro, o meglio, suggerisce una decisione, perché siamo noi a chiederlo. Esiste, però, un altro modo attraverso cui macchine guidate dall’IA interferiscono con le nostre decisioni in maniera invisibile ma, se possibile, ancora più determinante.

Proviamo a pensare: sulla base di cosa, normalmente, prendiamo le nostre decisioni? Non parlo delle decisioni “importanti”, quelle che cambiano il corso della vita, ma anche di quelle banali, giornaliere, che però costruiscono il tessuto pratico della nostra esistenza. Ordinariamente, noi decidiamo sulla base delle informazioni che abbiamo. Sulla base dei dati a nostra disposizione, sulla base delle alternative possibili, sul loro costo (economico o personale). È da qui che nasce il marketing: scelgo (o invento…) le informazioni da inviarti con lo scopo di orientare le tue scelte. Dunque, è la gestione dell’informazione l’altra modalità cruciale attraverso cui è possibile influenzare e, addirittura, determinare le decisioni delle persone.

Per questo è così importante l’educazione libera in un contesto democratico, perché consente di valutare criticamente le informazioni sulla realtà che abbiamo.

Ebbene, chiediamoci oggi dove cerchiamo ordinariamente le informazioni per decidere? Le informazioni quotidiane: da dove comprare un abito a cosa è successo ieri nel mondo, dalle notizie sulla politica nazionale a dove andare in vacanza. La risposta è univoca, quantomeno per la parte di mondo in cui è diffusa la rete Internet: sulle piattaforme digitali disponibili sul web. Ovverossia, sistemi tecnologici dotati di motori che “vanno” a IA. Quegli stessi algoritmi a cui possiamo consapevolmente chiedere di supportare le nostre decisioni, inconsapevolmente le influenzano, fornendo le informazioni che ci arrivano dai motori di ricerca o dai social media.

Oggi la nostra conoscenza del mondo è sempre più intermediata da sistemi tecnici a propulsione digitale. È così che nasce il fenomeno delle “bolle filtro” (le filter bubbles di Eli Pariser4): le macchine forniscono informazioni che hanno lo scopo di tenerti “connesso” il più a lungo possibile, di massimizzare la tua dipendenza e, per ottenere questo scopo, ti replicano all’infinito, in una sorta di “stanza dell’eco” o come il mitico serpente circolare Uroboro di cui ha parlato Michele Ainis in un bel libro qualche anno fa, infinito perché perennemente collegato a se stesso5.

In questo caso, il meccanismo attraverso cui le nostre decisioni vengono influenzate è indiretto, implicito, non come nel caso delle self-driving car o di un software per trovare il prezzo più conveniente. Potremmo chiamarlo il “paradigma TikTok”. Questa notissima piattaforma è generata da un algoritmo d’Intelligenza Artificiale che propone in continuazione video brevi, all’infinito, tenendoti connesso per ore. E allora può succedere che, dopo aver visto centinaia di volte una “challenge” su TikTok, una ragazzina di 10 anni di Palermo decida di partecipare, cioè di “fare” – non solo di guardare – quello che gli altri fanno, e così, terribilmente, muore. Dinanzi a questa tragedia tutti – compreso il nostro Garante per la Privacy6 – si sono resi conto che il modo “indiretto” di influenzare le decisioni – fondato sull’indole emulativa degli esseri umani – non è meno efficace di quello diretto.

Dunque, è lucidissimo il Papa nel chiudere il suo discorso del primo gennaio su Intelligenza Artificiale e pace con due sfide: l’educazione e il diritto.

La prima sfida è quella dell’educazione.

 

L’importanza del pensiero critico

 

Dinanzi a questo tornante della civiltà umana e dinanzi alle eccezionali possibilità di progresso e di avanzamento delle condizioni di vita, sarebbe contro l’umano opporsi pregiudizialmente.

“L’intelligenza è espressione della dignità donataci dal Creatore, che ci ha fatti a sua immagine e somiglianza (cfr. Gen 1,26) e ci ha messo in grado di rispondere al suo amore “attraverso la libertà e la conoscenza”.

Dunque, ogni possibilità che la nostra conoscenza scopre non può saltare la libertà dell’uomo, ovverossia la sua capacità di scegliere ciò che veramente lo rende uomo; per questo è, innanzitutto, decisiva una corretta educazione nei confronti della tecnica: “L’educazione all’uso di forme di Intelligenza Artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico. È necessario che gli utenti di ogni età, ma soprattutto i giovani, sviluppino una capacità di discernimento nell’uso di dati e contenuti raccolti sul web o prodotti da sistemi di Intelligenza Artificiale”.

Promuovere il pensiero critico nei confronti della tecnologia, soprattutto quella che utilizziamo quotidianamente come supporto alla nostra vita individuale e sociale, è la sfida principale che l’umanità oggi trova dinanzi a sé, pena una “desertificazione” morale e intellettuale dell’umano forse peggiore di quella che Oppenheimer temeva dalla bomba atomica.

 

Il grande rischio che corre il Vecchio Continente

 

La seconda sfida è quella del diritto. I sistemi giuridici sono gli strumenti che l’umanità ha escogitato per dare un ordine alle relazioni sociali e un limite alle azioni che possono recare danno alle persone; è inevitabile, quindi, che, dinanzi a queste possibilità e a questo rischio, si chieda alla legge e al diritto di intervenire.

L’Europa, tra le istituzioni globali più attente alle ragioni del diritto, ha annunciato un importante regolamento – l’AI Act – che entrerà in vigore proprio su questo tema nei prossimi mesi. Ma anche l’amministrazione Biden ha adottato recentemente un executive order sull’AI e perfino la Cina, a modo suo – ovverossia con varie direttive adottate direttamente dal Partito – sta creando regole o norme per arginare questi sviluppi tecnologici.

Ognuno a modo suo, perché il diritto è figlio delle diverse società e delle diverse culture. Divisa tra l’America – essenzialmente pro libero mercato e anti monopolio – e la Cina – preoccupata di mantenere la sua sovranità digitale interna ed espanderla attraverso l’esportazione delle infrastrutture – l’Europa propone un approccio basato sui rischi possibili e sulla loro mitigazione attraverso regole indirizzate ai produttori di tecnologia.

Così facendo l’Europa – sia consentito il gioco di parole – si prende un grande “rischio”.

Perché porre regole diverse a seconda dei tipi di impiego dell’IA, significa che, appena un nuovo utilizzo viene scoperto, devi correggere, integrare, precisare le regole. Cioè sempre.

Mentre l’AI Act era in discussione è arrivato ChatGPT – ovverossia un nuovo tipo di Intelligenza Artificiale “generale” utilizzabile per qualsiasi compito e non solo per compiti specifici – ; ebbene questa novità ha costretto a una frettolosa integrazione che ha messo in evidenza quanto il tema della velocità dei cambiamenti tecnologici rischi di creare regole vecchie prima ancora di essere approvate.

Questa, ovviamente, non è una buona ragione perché le istituzioni preposte al bene comune rinuncino al compito, ma, casomai, perché esse si pongano una domanda su “come regolare”. E proprio su questo tema il Papa sottopone alcuni suggerimenti di straordinaria utilità e pertinenza: “L’obiettivo della regolamentazione, naturalmente, non dovrebbe essere solo la prevenzione delle cattive pratiche, ma anche l’incoraggiamento delle buone pratiche, stimolando approcci nuovi e creativi e facilitando iniziative personali e collettive. […] Questo processo di discernimento etico e giuridico può rivelarsi un’occasione preziosa per una riflessione condivisa sul ruolo che la tecnologia dovrebbe avere nella nostra vita individuale e comunitaria e su come il suo utilizzo possa contribuire alla creazione di un mondo più equo e umano. Per questo motivo, nei dibattiti sulla regolamentazione dell’Intelligenza Artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati e altri che spesso rimangono inascoltati nei processi decisionali globali”7.

NOTE

1. Messaggio di Sua Santità Francesco per la LVII giornata mondiale della pace, 1 gennaio 2024, Intelligenza Artificiale e pace, Par. 1.

2. Lettera enciclica Laudato si’ del Santo Padre Francesco sulla cura della casa comune, 24 maggio 2015, 104.

3. OECD, Recommendation of the Council on Artificial Intelligence, 22 maggio 2019.

4.  E. Pariser, The filter bubble: what the Internet is hiding from you, Penguin, 2012.

5.  M. Ainis, Il regno dell’Uroboro. Benvenuti nell’era della solitudine di massa, La nave di Teseo, Milano 2018.

6.  Che, com’è noto, con il Provvedimento 7 luglio 2022 [9788429] ha sospeso temporaneamente l’uso di TikTok in Italia https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9524224

7. Messaggio di Sua Santità Francesco per la LVII giornata mondiale della pace, 1 gennaio 2024, Intelligenza Artificiale e pace, Par. 8.

Andrea Simoncini è professore ordinario di Diritto costituzionale presso l’Università degli Studi di Firenze; ha pubblicato numerosi contributi scientifici sui temi dell’Intelligenza Artificiale e, insieme ad altri autori, ha curato per Routledge il volume “Dialogues in Italian Constitutional Justice”.

Clicca qui!