Trimestrale di cultura civile

Tra uomo e macchina nessuna equazione plausibile

  • GEN 2024
  • Evandro Agazzi
  • Carlo Dignola

Condividi

Dice il filosofo della scienza Evandro Agazzi: “La possibilità di vedere non appartiene alla pura e semplice struttura meccanica. Il fatto di sapere che due entità sono capaci di eseguire le stesse operazioni non mi dice niente circa la loro natura. Io questo criterio lo applico anche ai computer e all’Intelligenza Artificiale”. Un criterio che permette di diradare una certa coltre di nebbia che impedisce spesso di avere un rapporto critico con la tecnologia. E al contempo di occuparsi della rilevanza antropologica dell’Intelligenza Artificiale. E aggiunge, partendo da una domanda: “Se la macchina pensa come l’uomo, l’uomo pensa come la macchina? Un’impostazione tanto diffusa quanto esposta a profondi equivoci”. Intervista.

La Universidad Panamericana di Città del Messico gli ha appena attribuito il grado di “Professore emerito nazionale” (è il solo), il più alto all’interno del Sistema di ricerca.

Filosofo della scienza di rango internazionale, ha da poco pubblicato un libro che ha un titolo un po’ provocatorio: Dimostrare l’esistenza dell’uomo (Mimesis, 2023). È al tempo stesso un compendio del suo lungo lavoro filosofico ma anche qualcosa di nuovo. In esso Evandro Agazzi affronta anche il tema della “rilevanza antropologica dell’Intelligenza Artificiale”, e ha qualcosa da ridire sull’equazione uomo=macchina che da Cartesio in poi ha dominato gran parte della scienza e della filosofia meno avvertite.

“L’espressione Intelligenza Artificiale – scrive Agazzi –, per quanto in apparenza sembri riguardare una caratteristica psicologica quale appunto è l’intelligenza, è in realtà una branca dell’ingegneria: quella che si occupa di creare macchine di grande complessità”. Il filosofo nota che “l’uso dell’aggettivo ‘intelligente’ provoca la domanda: ‘Se la macchina pensa come l’uomo, l’uomo pensa come la macchina?’: un’impostazione tanto diffusa quanto, dice, ‘esposta a profondi equivoci’”.

Professore, perché si è sentito in dovere di “dimostrare l’esistenza dell’uomo”? Ciò che rende uomo l’uomo, ci sta sfuggendo di mano?

Il titolo è volutamente sibillino, e paradossale: “Ma come?!”, potrebbe obiettare qualcuno, “abbiamo passato secoli interi riflettendo sulla natura dell’uomo, c’è bisogno di dimostrarla?”. Ci sono stati tempi in cui l’impegno fondamentale della filosofia era dimostrare l’esistenza di Dio, e questo non perché la gente non ci credesse, anzi, era un problema molto sentito ma si avvertiva il bisogno di rivisitarlo attraverso il pensiero riflesso. Oggi impera la tecnologia, che consiste nella produzione di macchine; e da un altro lato la biologia presenta l’uomo come un animale frutto dell’evoluzione: “Dimostrare l’esistenza dell’uomo”, ossia evidenziarne l’autentica natura, è allora voler dimostrare che l’uomo non è né una macchina né un puro e semplice animale. Questa è in sostanza la tesi portante del libro.

Già nel lontano 1967 lei, sulla “Rivista di filosofia neoscolastica” dell’Università Cattolica, pubblicò “Alcune osservazioni sul problema dell’Intelligenza artificiale”.

È uno di quei temi che mi hanno interessato fin dalle origini. Mi è apparso subito in tutta la sua importanza e non l’ho mai perso di vista. In particolare, in quelle riflessioni, insistevo sul tema dell’intenzionalità del processo conoscitivo, che fin da allora mi appariva il punto discriminante. Oggi il tema dell’Intelligenza Artificiale è tornato di moda e anch’io ho aggiunto alcuni approfondimenti, ma ritengo che la mia posizione sia ancora fedele alle linee tracciate in quell’articolo le cui radici risalgono addirittura al 1964: ovvero a sessant’anni fa.

Che differenza c’è, dunque, tra intelligenza umana e Intelligenza Artificiale?

Io, grazie a una macchina, posso far meglio dell’uomo in un limitato caso, nel calcolo ad esempio: un’equazione differenziale molto complicata a un matematico esperto richiederebbe due anni di lavoro, un computer in due minuti è in grado di risolverla. Non perché abbia usato un’intelligenza particolare o superiore, semplicemente può fare una certa operazione 25 miliardi di volte in un secondo. L’Intelligenza Artificiale è in primis e ante omnia un tema di ingegneria. “Possono pensare le macchine?”, si chiedono molti oggi; ciò significa che non è chiaro cosa intendiamo per “pensiero”, né per “macchina”.

Tanti dibattiti sull’IA sono noiosi perché sono pieni di petizioni di principio. In quell’articolo del 1967 facevo una proposta molto radicale: siamo in grado di riconoscere gli esseri umani dalle macchine? La risposta è sì, e non c’è neppure bisogno di andare troppo a fondo: andiamo a vedere se tutte le attività di cui è capace l’essere umano sono tali che un computer sarebbe in grado di ripeterle. Se fosse capace di farlo, francamente non avrei più la possibilità di distinguere.

La filosofia scolastica medievale diceva: operari sequitur esse, il modo in cui una cosa lavora dipende da ciò che essa è. In quel saggio avevo proposto questo metodo: prendiamo la tesi dell’Intelligenza Artificiale forte, che dichiara l’identità dell’uomo e della macchina. Il computer – si dice oggi – apprende. Il computer ha una memoria. Il computer impara, deduce, induce, astrae… Sono tutti termini che si riferiscono alle attività del pensiero umano. La macchina calcola, certo, “apprende” – mettiamoci delle virgolette. Il fatto è che queste virgolette piano piano nel nostro discorso cadono, a furia di parlare delle macchine; utilizzando i termini del pensiero umano ci stiamo gradatamente convincendo che la macchina possa fare le stesse cose dell’uomo.

C’è una certa confusione.

Ci sono altri casi in cui noi utilizziamo termini umani per parlare di macchine, senza che ciò crei confusione: abbiamo inventato una “macchina per cucire”, per lavare, per scrivere... Ma dobbiamo a questo punto distinguere tra quelle che i vecchi filosofi scolastici chiamavano “attività immanenti” e le “attività transitive”: queste ultime sono operazioni, e hanno per oggetto un cambiamento del mondo esterno; le attività immanenti, invece, sono quelle che non cambiano lo stato del mondo ma lo stato del soggetto: vedere, ascoltare, riflettere, desiderare, prevedere... Non c’è niente nel mondo che cambi per il fatto che io sto pensando o osservando. Quest’idea mi ha sempre guidato nelle mie riflessioni sull’IA.

Prendiamo una macchina fotografica molto perfezionata, scattiamo una foto e chiediamo a un fisico come è possibile che sulla sua memoria si sia fissata un’immagine. Ci darà una spiegazione molto dettagliata. O chiediamo al fisiologo come sulla retina si formi l’immagine del mondo esterno, ad esempio di un albero. Però io non posso dire che la macchina “pensa” l’albero. Ci vuole qualcosa di più: questo qualcosa è l’intenzionalità, la capacità dell’uomo di introiettare il mondo sotto forma di rappresentazione. Nel 1967 questa parola era quasi sconosciuta nel linguaggio filosofico, eccezion fatta per chi conosceva a fondo il pensiero medievale; la utilizzavano un po’ i fenomenologi che avevano letto Edmund Husserl. L’intenzionalità non si può definire. Allude a un fatto che è presente nell’esperienza di ciascuno. La coscienza non ha niente a che vedere con la ricchezza e il dettaglio dell’informazione. Io dirò che la macchina non vede l’albero e invece lo vede una persona anziana, anche se avesse ridottissime capacità visive, e persino un gatto quasi cieco vede perfettamente: la ricchezza di dettagli della sua visione è irrisoria rispetto alle macchine che usiamo oggi e tuttavia il gatto vede e la fotocamera no. Perché la possibilità di vedere non appartiene alla pura e semplice struttura meccanica.

Il fatto di sapere che due entità sono capaci di eseguire le stesse operazioni non mi dice niente circa la loro natura. Io questo criterio lo applico anche ai computer e all’Intelligenza Artificiale. Già nel Seicento c’erano macchine meccaniche in grado di eseguire calcoli; poi sono arrivati i transistor, i chip, i computer, macchine via via sempre più perfezionate e veloci; ma il fatto che tu mi dica che esse sanno imitare, replicare esattamente determinate operazioni umane, non giustifica affatto una identità di natura, di struttura tra esse e l’essere pensante.

Le macchine oggi sembrano fare “ragionamenti logici”.

La questione è solo apparentemente spinosa, perché fin dall’epoca di Aristotele gli uomini hanno inventato la logica formale, che consiste nel trasformare il ragionamento intuitivo in una manipolazione di segni materiali. Già Aristotele era stato capace di vedere che, applicando un’argomentazione corretta a premesse vere, necessariamente si raggiungono conclusioni vere. Questo era ancora il sogno di Leibniz, l’idea che sia possibile una mathesis universalis: due filosofi che stanno discutendo, invece di arrabbiarsi, si siedono all’abaco, una primitiva macchina logica, e si dicono: “Calculemus”. E alla fine il calcolo dirà loro qual è la tesi corretta che segue da certe premesse. È la logica poi di George Boole e di tutta la matematica moderna. Dunque, un’idea nient’affatto rivoluzionaria.

Nella macchina-computer – un “calcolatore”, appunto – possiamo immettere le manipolazioni di quegli schemi che già la logica formale aveva elaborato: sono schemi meccanici, non c’è niente da capire; anche se tu non ti ricordi perché, lo schema che applichi funziona lo stesso. Il computer è esattamente in questa situazione. È più “stupido” di un ragazzino di sei anni, sebbene molto più veloce: non fa altro che ripetere operazioni elementari. Ma soltanto l’essere pensante umano è in grado di distinguere la verità. Un computer di una certa complessità è in grado di controllare se ha lavorato bene, è possibile chiedergli di verificare se nei suoi calcoli c’è stato qualche errore. Però un computer non sarà mai in grado di dire: ho dedotto questa conseguenza eppure essa è falsa. Né è in grado di compiere una “induzione”, da una collezione infinita di casi universali una regola: tra le rappresentazioni e il concetto universale, per esso resta sempre un anello mancante.

L’intenzionalità è la possibilità che ha l’uomo di portare il mondo all’interno del soggetto senza “mangiarlo”, senza distruggerlo. La pianta assimila gli elementi del terreno e dell’aria e li trasforma in se stessa. Anche l’animale lo fa. L’uomo ha la possibilità di interiorizzare non soltanto il mondo materiale esterno ma anche l’astratto, il possibile, il desiderabile, il dovere. Tutte queste cose ci permettono di dire che quella tra uomo e macchina non è un’equazione plausibile.

Le neuroscienze indagano sempre più a fondo il cervello.

Al massimo potranno dirci come funziona, ma il cervello non pensa, siamo noi che pensiamo. Il cervello è necessario per pensare, come le gambe sono necessarie per camminare. Se io non ho le gambe non posso dirigermi in un certo luogo, ma il fatto che le abbia non implica che lo faccia. Già Socrate lo diceva: c’è di mezzo il volere, che è la causa di certi comportamenti. Fra Intelligenza Artificiale e uomo resta un abisso: il libero arbitrio, la capacità di valutare e discernere. Mentre l’animale si può rappresentare solo il mondo fisico, l’uomo si rappresenta anche il futuro, il bene e il male, i valori, tutte cose che sono “pensate”. Tutto questo non si può tradurre in “operazioni” replicabili da una macchina cibernetica.

Ormai costruiamo robot che suonano la tromba, dipingono, rispondono alle domande, baciano...

Anche questi progressi devono risvegliare il nostro senso critico. Ci sono aspetti dell’intelligenza umana che nessuna macchina riuscirà mai a imitare. I robot che imitano il nostro comportamento, anche quello emotivo, “affettivo”, resteranno sempre macchine. L’idea che questi automi possano essere ciò che ci sostituirà è una sciocchezza. Eppure, queste parole d’ordine stanno prendendo piede.

Anche Federico Faggin, l’italiano che ha inventato (lavorando negli Stati Uniti) i chip che fanno funzionare tutti i nostri sistemi informatici, dice che per quanto affascinante, l’evoluzione dell’Intelligenza Artificiale non avrà mai a che vedere con l’intelligenza umana.

Gli avanzamenti dell’IA si ottengono con progressi di calcolo, di cibernetica, di scienza dell’informazione. La macchina, attraverso i suoi algoritmi, fa, in un piccolo campo, mille volte meglio di quello che riusciamo a fare noi. L’arricchimento dell’ingegneria oggi merita un’attenzione del tutto particolare, però non copre l’intero dell’esperienza umana. E ci lascia perplessi anche circa le possibilità dei futuri sviluppi.

Nel mondo dell’IA, quale sarà lo spazio per l’etica? La coscienza morale riconosce degli imperativi assoluti. La voce della coscienza ricerca ciò che è intrinsecamente buono e, come tale, anche universalizzabile. Via via che andiamo a sviluppare delle applicazioni tecnologiche molto avanzate, abbiamo il grande problema di gestirle, e non potranno essere le macchine stesse a farlo. Per questo parlo di “dimostrare l’esistenza dell’uomo”. Qui troviamo quello che stavamo cercando: stiamo dimostrando l’esistenza dell’uomo, un essere dotato di quella caratteristica che chiamiamo pensiero, ragione, riflessione, che gli consente anche di vedere gli spazi aperti per l’etica. L’uomo sa di non essere arrivato sulla scena della storia senza niente alle spalle, e che non la potrà lasciare senza avvertire una responsabilità verso le generazioni future: noi ci chiediamo quale mondo lasceremo ai nostri figli e nipoti.

C’è un diffuso timore, fra chi ha costruito l’IA negli ultimi decenni, che questa possa sfuggire di mano e prendere il sopravvento sull’uomo, o almeno condizionarne pesantemente le scelte e le decisioni: lei condivide questo allarme?

Solo in parte. Si tratta di una preoccupazione avanzata anche in passato al momento della comparsa di importanti innovazioni tecnologiche. Tutto dipende dalla saggezza con cui si utilizzano i prodotti dell’Intelligenza Artificiale, tenendo presente che, di fatto, “artificiale” è l’intero ecosistema dell’uomo, e allo stesso tempo esso corrisponde alla sua natura, che non è mai stata quella di adattarsi all´ambiente, ma di adattare l’ambiente alle proprie esigenze.

Ci si chiede anche se l’uomo ibridato con la macchina sarà ancora “uomo” o piuttosto un essere trans-umano?

Sin dai tempi preistorici l’uomo si è servito di artefatti da lui prodotti ed è intervenuto sulla sua stessa natura mediante farmaci e protesi che hanno sempre indotto anche riflessioni di natura morale, circa la loro liceità. Ma l’idea di una ibridazione dell’uomo è talmente vaga da non appartenere neppure a una seria fantascienza.

Evandro Agazzi vive tra Genova e Città del Messico. È professore emerito delle università di Friburgo e Genova e ha ricevuto 12 dottorati honoris causa da varie università del mondo. Dirige il Centro Interdisciplinare di Bioetica presso l’Università Panamericana di Città del Messico.

Clicca qui!