Trimestrale di cultura civile

L’emergere storico dell’Intelligenza Artificiale

  • GEN 2024
  • Alberto Chierici

Condividi

In principio c’era il pensiero, colto e accademico. Ipotesi e ragionamenti sensati nel campo della filosofia, dell’economia, delle neuroscienze. È in quel territorio che è affiorata, non certo dal nulla dunque, l’Intelligenza Artificiale. Pertanto, un filo sottile ma non troppo la connette con Aristotele, Adam Smith e Alan Turing, lo scienziato che ha impresso un cambiamento radicale nel modo di valutare l’intelligenza delle macchine. Ecco allora la necessità di un breve excursus agganciato alla storia. Allo scopo di evidenziare alcuni passaggi chiave che hanno portato l’IA nel cono di luce delle nostre esistenze

Nella incessante ricerca del progresso, si potrebbe presupporre ingenuamente che i progressi tecnologici innalzino in modo inequivocabile la qualità della vita umana. Tuttavia, la storia spesso racconta una storia più sfumata.

Riflettendo su un esempio quotidiano, si può comprendere meglio tutto ciò. Come millennial, si è attraversato il precipizio dell’era digitale. Internet alla fine degli anni Novanta era una novità, un rifugio per appassionati che dibattevano sui meriti di Netscape rispetto a Explorer, avventurandosi nell’emergente mondo della musica digitale su Napster e nella nascente sfera sociale su MSN. Eppure, questi erano gli svaghi di pochi appassionati, non la connessione digitale di massa che oggi osserviamo.

Contrapponiamo a ciò il coordinamento sociale pre-digitale. Quando si voleva uscire una sera tra amici, si usava l’elegante e semplice “albero telefonico”. Una singola chiamata dava il via a una cascata di comunicazioni, culminando in un incontro conviviale orchestrato senza la confusione delle opinioni o la tirannia di troppe opzioni. Questa semplicità, ora apparentemente arcaica, sottolinea il nostro attuale impasse digitale. Il coordinamento sociale moderno, facilitato da piattaforme come WhatsApp, soffre di una diffusione delle responsabilità e di un eccesso di comunicazione. Il processo, una volta lineare, si è trasformato in una negoziazione caotica tra i partecipanti, più simile a una diplomazia ad alto rischio che alla pianificazione di un incontro amichevole. La strada verso il consenso è costellata di indecisione, conflitto e a volte dei danni collaterali delle relazioni tese.

Il problema si aggrava quando queste interazioni, destinate a facilitare la comunicazione, favoriscono, invece, un ambiente ricco di indecisione e di fobia dell’impegno. L’inondazione di informazioni e il costante chiacchiericcio diluiscono l’essenza della comunicazione, riducendola spesso a semplice rumore. Dove una volta c’era certezza e anticipazione, ora si trovano ansia e imprevedibilità.

In questo senso, l’impatto della tecnologia sulle norme sociali e sulle dinamiche interpersonali non è intrinsecamente vantaggioso. Non semplifica o arricchisce uniformemente la nostra vita; piuttosto, a volte, complica il nostro tessuto sociale. Questa consapevolezza è particolarmente evidente mentre ci troviamo sulla soglia dell’era dell’Intelligenza Artificiale (IA), che promette – o forse minaccia – di ridefinire radicalmente l’esperienza umana. A differenza delle epoche tecnologiche precedenti, la traiettoria dell’IA potrebbe divergere, presentando sfide uniche alla nostra percezione di responsabilità, impegno e interazione significativa.

Pertanto, mentre la tecnologia avanza nella sua ricerca per ridefinire le frontiere delle capacità e della comprensione umana, è essenziale che la società si interroghi – garantendo che questi progressi nutrano l’esperienza umana, anziché confonderla o sminuirla.

 

Rintracciare la genesi intellettuale dell’IA: un viaggio dalla filosofia alla tecnologia

L’inizio dell’IA non è avvenuto in un vuoto improvviso; piuttosto, è emersa, come una fenice, dalle ceneri intellettuali di secoli di pensiero accademico, che spaziano tra discipline diverse come la filosofia, l’economia e la neuroscienza.

L’impronta indelebile dell’antica Grecia segna i primi tentativi di comprendere il ragionamento umano, con Aristotele che ha introdotto la meccanizzazione della logica. Il suo concetto fondamentale di sillogismo – trarre conclusioni ragionate da premesse stabilite – ha gettato le basi per replicare i processi di pensiero umano all’interno di una costruzione ingegneristica, anticipando l’essenza dell’IA.

Secoli dopo, il dualismo rivoluzionario di Cartesio ha smontato l’esistenza in mente e materia, la ragione concepita, quindi, come entità astratta e sganciata dal corpo, aprendo la strada ai dibattiti contemporanei sulla coscienza e la cognizione. Le sue teorie, come espresse da Russell & Norvig1, implicano un enigma: se la presa di decisioni umana è una deduzione logica, simile ai sillogismi meccanici, dove trova rifugio il libero arbitrio? La dicotomia Cartesiana – gli esseri umani dotati di menti non fisiche e gli animali come automi senza anima – si sarebbe dissolta sotto l’analisi evolutiva di Darwin, portando alla provocatoria realizzazione: se gli esseri umani sono simili agli animali, anche loro possono essere decifrati e quindi replicati dalle macchine.

Il viaggio dal ragionamento astratto all’intelligenza computazionale ha visto contributi fondamentali da numerose discipline. La matematica ha donato all’IA il dono della logica, il robusto quadro che supporta conclusioni informate e razionali. Non da meno, la statistica ha arricchito l’IA con la capacità di navigare nell’incertezza, formando la spina dorsale delle metodologie di apprendimento automatico.

Parallelamente, l’economia, fin dai tempi delle intuizioni epocali di Adam Smith, si è impegnata nell’ottimizzazione della presa di decisioni all’interno di sistemi complessi, uno sforzo che si riflette negli obiettivi dell’IA. Tuttavia, le critiche moderne suggeriscono che le prospettive economiche tradizionali – che ancorano il modus operandi delle aziende, in particolare dei giganti tecnologici che sviluppano e impiegano l’IA – possono nascondere carenze intrinseche, rendendo necessaria una rivalutazione di ciò che le aziende mirano a ottimizzare.

Nel campo della biologia, le esplorazioni dei percorsi cerebrali da parte delle neuroscienze hanno ispirato paradigmi dell’IA come le reti neurali, mentre le indagini della psicologia sulla cognizione si sono reciprocamente intrecciate con l’informatica, convergendo sul terreno delle scienze cognitive. Questa sinergia interdisciplinare sottolinea il sentimento predominante tra gli studiosi, secondo cui le teorie cognitive dovrebbero essere parallele agli schemi computazionali2, un principio che permea la progettazione contemporanea dell’IA.

L’ingegneria e la linguistica contribuiscono ulteriormente a colmare il divario tra l’intelligenza astratta e l’output tangibile. L’evoluzione dell’IA è inestricabilmente legata ai progressi della potenza di calcolo, sottolineando la relazione simbiotica tra l’IA e l’ingegneria informatica. Inoltre, i campi della teoria del controllo e della cibernetica sostengono i sistemi autonomi, essenziali per i meccanismi di autoregolazione dell’IA.

Infine, la linguistica, intrecciata con la genesi dell’IA, continua a svolgere un ruolo vitale, specialmente nel campo in rapida crescita dell’elaborazione del linguaggio naturale, sottolineando il profondo legame tra linguaggio e cognizione.

Alan Turing (1912-1954), con il suo famoso Test di Turing3, ha proposto un cambiamento radicale nel modo di valutare l’intelligenza delle macchine. Invece di concentrarsi sulla loro capacità di “pensare” nel senso umano tradizionale, Turing ha suggerito di valutare se le macchine potessero imitare in modo convincente l’intelligenza umana. Questo approccio ha spostato il dibattito dall’esistenza di una coscienza o cognizione nelle macchine, alla loro abilità di simulare risposte umane per iscritto. Anche se nessuna macchina ha superato completamente questo test fino a oggi, l’idea di Turing ha influenzato profondamente lo sviluppo dell’Intelligenza Artificiale, ponendo l’accento sulle capacità pratiche delle macchine piuttosto che sulle loro qualità filosofiche o intuitive. Tuttavia, implicitamente o esplicitamente, si è andata adottando una concezione di “intelligenza” limitata, anziché realizzare che le macchine non possono essere “intelligenti,” si è progredito col definire l’intelligenza al ribasso – anche quella umana!

In sintesi, il ricco intreccio dell’IA è intessuto con diversi fili intellettuali, ognuno dei quali contribuisce a una comprensione olistica dell’IA e intrinseca. Mentre ci troviamo sull’orlo di notevoli progressi tecnologici, è fondamentale riconoscere l’IA non come un fenomeno isolato, ma come il culmine della curiosità intellettuale umana e della convergenza interdisciplinare. Navigando nel vasto panorama delle radici interdisciplinari dell’IA, ci concentriamo ora sul momento storico in cui abbiamo sentito per la prima volta il termine “Intelligenza Artificiale”.

 

Dal workshop di Dartmouth a oggi

Nel 1956, il workshop di Dartmouth, guidato da McCarthy, Minsky, Shannon e Rochester, segnò una svolta nella storia dell’IA, ponendo le basi per una nuova disciplina. Qui, si concepì l’idea di macchine capaci di linguaggio, auto-miglioramento e risoluzione dei problemi, aree precedentemente esclusive dell’intelligenza umana. Sebbene questo incontro non abbia prodotto risultati immediati, ha stimolato un’ondata di ricerca nell’IA in istituzioni prestigiose come il MIT, la CMU, Stanford e IBM.

Con l’avanzare della tecnologia e l’ascesa di Internet, l’IA si è specializzata in nicchie come il riconoscimento di modelli e linguaggio parlato, divergendo però dalle ambizioni originarie dei pionieri. Mentre alcuni, come McCarthy e Minsky, propendevano per una rinascita dell’obiettivo fondamentale dell’IA a livello umano (HLAI: Human-Level AI) o addirittura per l’Intelligenza Artificiale generale (AGI: Artificial General Intelligence), la ricerca contemporanea si è orientata verso traguardi più pratici e immediatamente applicabili, influenzati dalle forze di mercato. Questo ha portato a una tensione tra ricerca accademica e obiettivi commerciali, come evidenziato dalla transizione di DeepMind da istituzione accademica a entità più orientata al mercato, con la sua acquisizione da parte di Google nel 2014, o dalle recenti lotte intestine tra la peculiare struttura non-profit e quella a capped-profit dell’azienda OpenAI, creatrice del famoso ChatGPT.

Negli anni Ottanta, l’IA divenne un pilastro industriale, con i sistemi esperti come MYCIN e R1 che rappresentavano passi cruciali nell’automazione e nel risparmio aziendale. Questo periodo vide anche un’ondata di start up innovative incentrate sull’IA. Tuttavia, gli anni Novanta hanno portato a un “inverno” dell’IA, un periodo di stagnazione causato da aspettative eccessive e da un afflusso di capitale avventato. In sintesi, la storia moderna dell’IA è stata un viaggio di aspirazioni ideali e di adattamento a realtà pratiche, oscillando tra progresso tecnologico e reazioni del mercato, riflettendo una continua evoluzione delle sue ambizioni e applicazioni.

 

L’IA oggi

L’avvento della connettività internet ubiqua e dell’informatica personale sofisticata ha riavviato l’impresa dell’IA. Alimentata dalla proliferazione dei dati, dal capitale d’investimento e dalle tendenze sociali, la ripresa dell’IA non riguardava solo il miglioramento dell’efficienza operativa, ma una crescita esponenziale nell’interazione degli utenti e nella valutazione di start up ad alto rischio, che attraeva il gusto dei venture capitalist per le storie di successo ad alta velocità.

I giganti tecnologici di oggi devono gran parte del loro successo alla mano invisibile dell’IA. Gli algoritmi di ricerca di Google, i suggerimenti di networking di Facebook e i motori di raccomandazione di Amazon, YouTube e Spotify sono tutte costruzioni di IA progettate per catturare l’attenzione degli utenti e stimolare l’interazione, portando queste piattaforme a un valore economico enorme in tempistiche senza precedenti.

Dando una definizione pragmatica e realistica di ciò che intendiamo oggi per IA, possiamo dire che è un artefatto ingegneristico e si riferisce a programmi informatici avanzati che analizzano enormi quantità di dati per completare attività come riconoscere contenuti di immagini, testi, predire un trend, migliorandone le prestazioni e ottimizzando obiettivi specifici.

Questi sistemi sono progettati per prendere decisioni in modo autonomo sulla base di nuove informazioni, operando senza bisogno di dettagliate istruzioni umane. Elaborando dati rilevanti a velocità elevate, l’IA ottimizza le operazioni, si adatta a nuovi input e svolge compiti in modo efficiente, rappresentando un salto significativo rispetto alla programmazione tradizionale. Per esempio, il sistema di raccomandazione di Netflix è un programma che usa tecniche di IA per analizzare le preferenze e le abitudini di visione degli utenti, offrendo suggerimenti personalizzati su film e serie TV. Questo, in teoria, migliorerebbe l’esperienza dell’utente, ma in verità non fa altro che ottimizzare la probabilità (o propensione) che gli utenti rimangano fedeli al servizio.

In questo panorama, l’attenzione è merce ambita. Le piattaforme sfruttano l’IA per monopolizzare il tempo degli utenti, coltivando vaste raccolte di dati pronti per l’esplorazione. Questa dinamica, opportunamente definita “l’economia dell’attenzione” dagli analisti culturali come Tristan Harris (informatico e imprenditore statunitense, autore del documentario The Social Dilemma, presidente e cofondatore del Center for Humane Technology), prefigura un’era in cui l’interazione degli utenti sia la valuta e la pubblicità mirata sia il modello di reddito.

 

Corsa incosciente o cosciente?

L’intreccio tra IA e tessuti economici globali sollecita una profonda introspezione morale. Le delibere sui confini etici dell’IA sono inscindibili dalla critica e profonda disamina delle nostre strutture economiche. Mentre ci troviamo in questo crocevia, il dialogo va oltre la moralità degli algoritmi, invitandoci a reimmaginare paradigmi economici più adatti per un futuro potenziato dall’IA.

Lo sviluppo dell’IA non dovrebbe essere una corsa incosciente verso ciò che può essere raggiunto, ma un viaggio ponderato, consapevole di ciò che dovrebbe essere cercato. La responsabilità ricade sulle generazioni attuali e future per navigare saggiamente in questo terreno.

Come primo passo, occorre confrontarsi con le origini e le traiettorie dell’IA in modo critico, riconoscendo il suo potenziale in vari ambiti ma anche i limiti, sia tecnici che culturali. Il nostro principio guida dovrebbe essere la circospezione, garantendo che mentre plasmiamo il futuro dell’IA, siamo inequivocabilmente impegnati a migliorare l’esperienza umana, non ad aggravare le sue sfide.

L’obiettivo è chiaro: utilizzare intuizione e saggezza nel guidare un progresso che possa innalzare realmente, anziché minare involontariamente, la qualità della nostra esistenza collettiva.

NOTE

1.   S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach, Prentice Hall, Upper Saddle River, NJ, 2009.

2. J.P. Anderson, Computer Security Threat Monitoring and Surveillance, technical report, James P. Anderson Company, Fort Washington, Pennsylvania, 1980.

3. A. Turing, Computing machinery and intelligence, in Mind, 1950.

Alberto Chierici è Ph.D. Computer Science & Engineering presso la New York University, imprenditore e autore del libro “The Ethics of AI”.

Clicca qui!