Trimestrale di cultura civile

La responsabilità sociale aumentata

  • GEN 2024
  • Antonio Palmieri

Condividi

Quanto più si procede spediti, quanto più è opportuno mantenere vive le domande per provare a comprendere quel che sta avvenendo dopo l’ingresso dirompente dell’Intelligenza Artificiale generativa e conversazionale. La questione riguarda tutti: dagli Stati al singolo individuo. “Chi sta investendo miliardi in questo settore saprà ‘allargare’ la propria concezione di profitto e assumersi una quota di quella che chiamo ‘responsabilità sociale aumentata’, sul modello della realtà aumentata che si ottiene sovrapponendo le informazioni digitali agli oggetti del mondo fisico?”. Questa è la domanda…

“L’uomo del XXI secolo corre per strada gridando: ho tutte le risposte, quali sono le domande?” Questa citazione di Marshall McLuhan sociologo, filosofo, critico letterario e autorevole studioso dei mass media è la miglior introduzione per fare il punto dopo un anno di IA generativa e conversazionale.

È la prima volta che un’innovazione tecnologica diventa un tema di interesse generale. Probabilmente ciò è dovuto anche al fatto che essa impatta sul lavoro dei giornalisti, messi sotto pressione da software che producono testi, immagini e video in pochissimi minuti e a costo prossimo allo zero. “Ho simulato una sorta di gara con ChatGPT e sono sotto choc. Ho il vago sospetto di aver perso io”. Così Federico Rampini il 12 febbraio 2023 in prima pagina sul Corriere della Sera commentava il suo esperimento con ChatGPT3. Rampini gli aveva chiesto di scrivere un breve saggio sull’invasione cinese in Africa: in soli cinque minuti ne era uscito un prodotto definito da Rampini “dignitoso”, pur se privo della profondità di analisi e della capacità di attingere a fonti inedite proprie di un giornalista esperto come lui.

 

Qui si scardinano economie, mercati, industrie

Questa evidenza mediatica ci sta tutta, perché, come ha scritto Marco Bardazzi il 21 agosto 2023 su Il Foglio, con l’IA generativa “non cambia qualcosa di specifico, ma il ‘modo’ stesso in cui facciamo tutte le cose (un po’ come l’elettricità o il digitale)”. Stesso concetto ribadito il giorno dopo dal filosofo del digitale Cosimo Accoto nella sua intervista a Fortune Italia. L’impatto dell’IA sulla società è così travolgente perché queste “sono rivoluzioni tecnologiche che scardinano in profondità economie, mercati e industrie. Non introducono nella società solo innovazioni tecnologiche, ma cambi culturali e istituzionali. Non trasformano, cioè, solo il ‘cosa’ produciamo, ma ‘come’ ci organizziamo per produrre merci, servizi ed esperienze... Cambieranno modelli di business, strategie competitive, assetti geopolitici”.

Di fronte a questo, ci sentiamo davvero piccoli. Gli interessi in gioco sono enormi e ingenti sono i capitali investiti in Occidente ma anche in Oriente, a partire dalla Cina.

Come orientarci tra scenari apocalittici e concezioni salvifiche della tecnologia? Come capire le potenzialità e i rischi dell’IA?

Più leggo, ascolto e rifletto, più la nostra Fondazione Pensiero Solido approfondisce il tema, più mi rendo conto che la postura giusta per affrontare l’impatto sulla vita di tutti di questa nuova versione di IA sia racchiusa in una sola parola: responsabilità.

Il primo ambito in cui essa va esercitata riguarda il rapporto tra gli Stati, le imprese e gli scienziati. Al riguardo, abbiamo vissuto mesi di notevole fermento politico, in una complessa partita geopolitica tra blocchi distinti e all’interno dei rapporti tra le democrazie occidentali.

1. L’intelligenza artificiale è stato uno dei temi principali affrontati al G7 dello scorso maggio in Giappone, dove è stato avviato il “Processo di Hiroshima sull’intelligenza artificiale” con l’obiettivo di allineare i Paesi del G7 e l’Europa intorno a un approccio concordato sull’IA generativa. Il 30 ottobre sono state pubblicate le linee guida per sistemi avanzati formulate nell’ambito del G7, per chiedere alle aziende di non sviluppare sistemi di IA che possano indebolire le democrazie, arrecare danni a individui o società, facilitare il terrorismo e i criminali, mettere a rischio la sicurezza, la protezione e la tutela dei diritti umani.

La premier Meloni aveva già annunciato che questo sarà uno dei principali temi del G7 a guida italiana in programma il prossimo giugno in Puglia. In questo ambito, la premier, ai primi di novembre, ha annunciato per la prossima primavera una conferenza internazionale a Roma sull’impatto dell’IA sul mondo del lavoro.

 

I sei principi guida

2. Il 14 giugno 2023 il Parlamento europeo ha approvato la legge sull’IA, ora in attesa del passaggio finale al Consiglio dei capi di Stato e di governo. La legge vuole “affrontare i rischi e promuovere l’innovazione”, come ha affermato il commissario per il Mercato interno Breton.

I sei principi guida indicati nel testo prevedono: controllo e supervisione umani sui software di IA; solidità tecnica e sicurezza, per ridurre al minimo eventuali danni non intenzionali; rispetto delle norme vigenti in materia di privacy e protezione dei dati; trasparenza, nel senso che gli esseri umani devono sapere se interagiscono con un sistema di IA; parità di accesso, non discriminazione ed equità nei contenuti prodotti; i software di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell’ambiente. Poiché la normativa è destinata a entrare in vigore non prima del 2026, entro fine anno la Commissione europea proporrà alle aziende del settore un codice di condotta comune, per garantire da subito trasparenza, sicurezza, rispetto dei diritti e della privacy dei cittadini.

 

Le mosse degli USA e del Regno Unito

3. Dopo una serie di incontri e audizioni con il Congresso e con il Senato USA, dopo l’accordo in sei punti del 20 luglio 2023 con Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, sottoscritto il 13 settembre 2023 da altre otto importanti aziende tecnologiche – Adobe, Cohere, Ibm, Nvidia, Palantir, Salesforce, Scale AI e Stability – il 31 ottobre 2023 il presidente Biden ha emanato un ordine esecutivo per una “Intelligenza Artificiale sicura, protetta e affidabile”.

Il decreto presidenziale vuole proteggere gli americani dai potenziali rischi dell’IA. Esso fa riferimento allo sviluppo di standard, tool e test per assicurare che i sistemi di IA siano sicuri e affidabili; alla definizione di standard e best practice per distinguere i contenuti generati dall’IA; a stabilire un programma di cybersecurity per sviluppare tool di IA per trovare e risolvere vulnerabilità; a tutelare privacy, minoranze, consumatori, studenti, persone malate.

4. Infine lo scorso 2 novembre 2023 la conferenza internazionale di Londra sui rischi dell’IA voluta dal premier britannico Rishi Sunak ha prodotto un accordo con le aziende impegnate nello sviluppo della IA. Esse hanno firmato una dichiarazione in cui concordano che i governi hanno un ruolo nel fare in modo che i nuovi modelli di IA siano sottoposti a una verifica esterna, prima e dopo il loro rilascio al pubblico. Questo implica una collaborazione fra autorità e privati per verificare potenziali impieghi pericolosi della IA, in particolare negli ambiti della sicurezza nazionale e dei danni alla società. Un ruolo importante in tutto ciò dovrebbe svolgerlo il nuovo “Istituto per la sicurezza dell’intelligenza artificiale”, che nascerà in Gran Bretagna: il suo compito sarà testare con attenzione i nuovi tipi di IA ed esplorarne tutti i rischi, dalla disinformazione a quelli più estremi, come la possibilità che l’umanità ne perda il controllo.

 

La via della responsabilità

L’auspicio è che davvero le iniziative sopra ricordate siano i primi passi sulla via della responsabilità e della collaborazione tra tutti i grandi soggetti coinvolti, governi e grandi imprese tecnologiche. Nelle democrazie la politica è stretta tra la necessità di non ostacolare lo sviluppo dell’innovazione e quella altrettanto importante di tutelare i cittadini. Il tutto in un contesto in cui la poderosa avanzata tecnologica cozza con la ponderosa lentezza dei processi decisionali politici. Per superare questo divario, per guidare la complessità della transizione digitale, le istituzioni politiche e gli ambienti tecnologici-finanziari devono operare insieme, nel segno della responsabilità.

Papa Francesco ha richiamato “l’urgenza di orientare la concezione e l’utilizzo delle intelligenze artificiali in modo responsabile, perché siano al servizio dell’umanità”; non a caso la Giornata mondiale per la pace è stata dedicata al tema “Intelligenza artificiale e pace”. Chi sta investendo miliardi in questo settore saprà “allargare” la propria concezione di profitto e assumersi una quota di quella che chiamo “responsabilità sociale aumentata”, sul modello della realtà aumentata che si ottiene sovrapponendo le informazioni digitali agli oggetti del mondo fisico?

Se ciò accadrà “lo scopriremo solo vivendo”. Nel frattempo, se è vero, come è assolutamente vero, che la prima responsabilità compete alle imprese e ai politici noi, tu e io, possiamo limitarci al ruolo di spettatori? No. Anche noi siamo chiamati ad assumerci la nostra parte di responsabilità sociale aumentata. Abbiamo, innanzitutto, il compito di diventare più consapevoli e quindi più liberi, perché non siamo di fronte a un destino ineluttabile, già scritto. “Saremo noi, le persone, a decidere come vogliamo che sia il futuro. In particolare, dovremo essere noi a decidere quali attività affidare alla tecnologia, quali tenere esclusivamente per noi, anche se l’IA potrebbe eseguirle in maniera più efficace ed efficiente, e per quali invece vogliamo creare un team di lavoro dove persone e macchine possano aiutarsi a vicenda.” Così ha scritto nel suo libro Il confine del futuro. Possiamo fidarci dell’intelligenza artificiale? Francesca Rossi, che in IBM si occupa di come guidare lo sviluppo dell’IA che unisca innovazione etica e profitto aziendale. Sapremo fare le domande giuste evocate da McLuhan? Non mi riferisco alle cose da chiedere (i prompt) ai software di IA. Mi riferisco alle domande, alle scelte che ciascuno di noi è chiamato a fare su come usare questi sistemi.

Per esempio, io, imprenditore, dirigente, professionista, sceglierò di sostituire i nuovi assunti che lavorano con me con un abbonamento a un software di IA generativa che mi costa molto meno, non si ammala, non va in ferie, non resta incinta, avviando in prospettiva “l’inverno demografico del lavoro” e potenzialmente azzerando intere generazioni di nuovi lavoratori? Oppure investirò in un software di Intelligenza Artificiale che affianchi il giovane e lo aiuti a fare meglio e più velocemente il suo lavoro?

Io insegnante, mi accontenterò di evitare che i miei studenti usino l’IA per copiare i compiti oppure mi (e li) educherò a usarla sapendo che, paradossalmente, proprio il modo in cui imparano i software di IA ci indica la via del cambiamento? Gli algoritmi di machine learning mettono in connessione tra loro i dati, scovano relazioni tra fatti e concetti, imparano sulla base di un metodo. Inconsapevolmente indicano un modo di apprendere che fa emergere il gusto della domanda, della ricerca, che educa alla connessione e alla collaborazione.

Queste scelte da compiere sono esempi di come il potere di noi “senza potere” (tecnologico), parafrasando Havel, sia grande. In una società che anche nelle democrazie occidentali ha diversi tratti in comune con quella descritta da Havel, noi abbiamo dalla nostra parte il fatto che per funzionare ogni strumento tecnologico ha bisogno di ciascuno di noi, di me, di te. Nessun algoritmo può obbligarci a usare questi strumenti in modo non rispettoso di noi stessi e degli altri. Non vi è struttura esterna che possa impedirci il buon uso della nostra libertà, se abbiamo una coscienza preparata e saldamente ancorata ai principi dell’umano. È una impostazione culturale ricca di conseguenze, che abilita la nostra capacità di giudizio, a partire dal comprendere che non tutto ciò che è tecnicamente fattibile è eticamente e umanamente accettabile, perché la tecnologia non è neutra.

In conclusione, la via della responsabilità ci riguarda tutti, grandi della terra e delle imprese tecnologiche e noi che siamo, apparentemente, senza potere. Dobbiamo fare in modo che questa nuova forma di IA sia veramente generativa e migliori le nostre capacità umane. Diamoci da fare, tutti insieme. Siamo davanti all’inizio di una nuova fase della storia dell’uomo, a noi il compito di fare in modo che sia scritta con intelligenza e umanità.

Antonio Palmieri è fondatore e presidente della Fondazione Pensiero Solido https://fondazionepensierosolido.it

Clicca qui!