Trimestrale di cultura civile

L’IA può allargare il “divario digitale”

  • GEN 2024
  • Nikitah Okembe-RA Imani

Condividi

Chi è e come viene utilizzata l’Intelligenza Artificiale? La questione è assai rilevante perché il tema impatta su criticità consolidate e sul rapporto tra popoli e tecnologie digitali. Il presente denuncia già pericoli e insidie. Ma anche aspetti positivi che potrebbero sostenere un percorso virtuoso. Il passaggio è cruciale: avrà una chance la cosiddetta democratizzazione della tecnologia oppure a beneficiarne saranno le solite élites, venendo così a negare proprio quella “democratizzazione” annunciata? Per il destino dei prossimi equilibri globali si tratta di un dilemma macroscopico. Che soprattutto l’Occidente non può trascurare o contribuirà a determinare, un’altra volta, l’ennesima ingiustizia sociale.

L’uso contemporaneo e colloquiale del termine Intelligenza Artificiale è un po’ un termine improprio, in quanto l’IA come disciplina nell’ambito dell’informatica esiste da quasi tutto il tempo del computer moderno. A livello macroscopico si riferiva ai calcoli e alle correlazioni che le macchine potevano fare utilizzando grandi insiemi di dati. Esse potevano elaborare a velocità molto elevate, il che significa che potevano – in un certo senso – superare la velocità con cui il normale cervello umano poteva fare lo stesso. Per esempio, una delle prime dimensioni del lavoro dell’Intelligenza Artificiale riguardava il gioco degli scacchi da parte del software, che veniva poi messo a confronto con i grandi maestri disposti a partecipare alla competizione. Le macchine tendevano a fare molto bene contro gli esseri umani, poiché erano in grado di considerare tutte le possibilità matematiche sia per le mosse passate, sia per quelle future, sia per lo stato della scacchiera in un determinato momento. All’inizio gli avversari umani tenevano testa, ma alla fine e inevitabilmente venivano sconfitti.

Questo si ricollega direttamente alla seconda evoluzione dell’IA, ovvero al concetto di apprendimento automatico. Le macchine non erano solo in grado di elaborare i dati storici esistenti o di creare modelli esponenziali decontestualizzati di ciò che sarebbe potuto accadere in futuro, ma potevano anche imparare dagli esseri umani stessi, raccogliendo e classificando le loro mosse e strategie.

Ecco perché gran parte della discussione contemporanea potrebbe avere meno a che fare con l’IA, in senso stretto, e più a che fare con le conseguenze, le potenzialità e i limiti dell’“apprendimento automatico”.

 

Dopo l’imperativo “asimoviano”

Ci si potrebbe, quindi, legittimamente chiedere perché un professore ed ex-direttore di dipartimento di Black Studies, uno scienziato sociale di formazione, sia così intimamente interessato e coinvolto nella discussione sull’IA, al di là della semplice curiosità intellettuale e del fatto che, in una precedente fase della mia vita, ero profondamente impegnato nell’esame delle implicazioni sociali della tecnologia e della digitalizzazione e nella programmazione e nel suo rapporto con la matematica.

Di fatto, l’interesse per la digitalizzazione all’interno della mia disciplina, Black Studies, mi ha permesso di mettere in luce alcuni importanti aspetti positivi e negativi.

Tra gli aspetti positivi emerge, innanzitutto, il potenziale di conservazione delle immagini e delle fonti primarie nel mondo africano. Questo non è un problema da poco, dato che molte comunità africane non hanno le risorse per conservare le fonti primarie in modo ottimale. La digitalizzazione, quindi, potrebbe essere un modo per salvare fonti storiche insostituibili per future generazioni di studiosi e comunità. Potrebbe anche fornire nuove possibilità di accesso, in particolare a coloro che non potrebbero logicamente accedere a tali materiali “in loco”.

D’altra parte, non si possono trascurare gli aspetti negativi inerenti alla digitalizzazione applicata a questo campo. Proprio le disuguaglianze in termini di risorse di cui sopra hanno fatto sì che le decisioni su ciò che sarebbe stato digitalizzato, “conservato”, e su chi avrebbe potuto trarre vantaggio dal più ampio potenziale di accesso, fossero facilmente prese da coloro che appartenevano a classi economiche più elevate, con livelli di istruzione più alti e così via. In effetti, le élite – sia a livello mondiale che locale – hanno finito per determinare quali dati sarebbero stati disponibili per le masse e in che misura. In questo senso, si può dire che la democratizzazione teoricamente promessa dalla diffusione della tecnologia informatica sia stata, nel migliore dei casi, sopravvalutata e, nel peggiore, una frode.

È iniziato così un grande dibattito sul cosiddetto “digital divide”, un’esplorazione che ha cercato di affrontare le implicazioni del movimento di dati nel contesto digitale in un processo condizionato dalle forze di mercato e impregnato di pregiudizi etnici, linguistici, geografici, religiosi e di altri elementi di stratificazione sociale.

Mi rendo conto ora di quanto poco la maggior parte delle persone abbia seguito questo dibattito e di come, soprattutto nei Paesi tecnologicamente più avanzati e benestanti del mondo, non sia considerato un problema rilevante. Me ne rendo conto perché per molti l’IA e l’apprendimento automatico stanno sollevando le stesse identiche questioni che la digitalizzazione, la diffusione e la crescente dipendenza dai computer in quanto tali avevano sollevato in precedenza e la reazione, anche da parte di alcuni dei fornitori e creatori della tecnologia, è di sorpresa.

 

Dati… di fatto

Partiamo dalle stesse identiche questioni. In primo luogo, i Big Data. La famiglia umana, fin dagli albori dell’era informatica, ha accumulato quantità incredibili di dati. Ci si chiede chi vi abbia accesso, chi li controlli, quali siano le eventuali regole di accesso, cosa succeda con il razionamento dell’ingresso da parte del mercato e se vi siano problemi di giustizia sociale derivanti da tutto ciò o anche dalla sola presenza di alcuni di questi insiemi di dati, che possono esporre individui e gruppi a un’intera panoplia di pericoli.

Quindi, aggiungiamo il carattere degli insiemi di dati. Nei Big Data sono incorporate le decisioni che gli esseri umani – in particolare quelli socialmente più potenti – hanno preso su cosa dovrebbero contenere e come dovrebbero essere interpretati. Queste decisioni sono incorporate negli algoritmi di ricerca e nei modelli di apprendimento automatico. Proprio come coloro che progettano i programmi scolastici hanno un impatto positivo o negativo significativo su ciò che gli studenti imparano o non imparano, a causa delle loro decisioni, così anche i potenti architetti dei Big Data decidono cosa sarà “lì” per noi da accedere e considerare e come lo faremo. I loro pregiudizi e i loro preconcetti diventano i nostri per legge.

Se si decidesse di non considerare l’importanza dei dati africani in qualche aspetto, essi non sarebbero presenti nel set di dati a cui attingere, o forse ci sarebbero ma in modo marginale, o forse sarebbero ideologicamente rifiutati e sminuiti. Eppure, gli studenti, i docenti e gli altri hanno a disposizione l’algoritmo e dipendono dai dati che ottengono. Inoltre, c’è il mercato che determinerà esso stesso, a un altro livello, i dati più accessibili, i più importanti per generare profitti.

Supponiamo che abbiate un database di materiali africani completo e relativamente accurato. Potreste trovarvi in un sistema in cui l’accesso a questo materiale è razionato dal mercato, poiché il vostro potenziale bacino di utenza è più piccolo, l’accesso è minore o addirittura, a un certo punto, interrotto in quanto non “socialmente improduttivo”.

Tutte queste domande erano già presenti prima della “nuova” IA di cui tutti parlano. Ciò che si aggiunge è che, per la prima volta su scala di massa, le macchine e i programmi saranno dei veri e propri surrogati dell’attività e del pensiero umano.

Storicamente, tutte queste tecnologie sono state viste come limitate da una sorta di imperativo “asimoviano” secondo cui potevano solo facilitare e assistere l’attività umana. L’aumento della velocità, dell’accuratezza e delle capacità dei moderni processori è tale che ora la parte umana delle considerazioni sul lavoro e sul pensiero è inefficiente. La soluzione ottimale, da ciò che sembra essere una prospettiva logica e redditizia, è semplicemente quella di sostituire l’inefficiente lavoro umano con la macchina.

Il trucco di questa logica implicita – o per citare il gruppo rock dei Police – il “fantasma nella macchina”, è il fatto che per quanto questa elaborazione sia veloce e accurata, rimane comunque vincolata dall’umanità. I dati, qualunque essi siano, sono stati accumulati da noi, con tutti i nostri difetti e le nostre manie, gli errori e le negatività intenzionali.

Gli algoritmi non vanno oltre la massimizzazione delle nostre capacità di analizzare i dati e di costruire un output generato dalla macchina sulla base di essi.

 

La minaccia possibile

Siamo di nuovo di fronte a tutti gli aspetti dei problemi di giustizia sociale del divario digitale. Cosa succede alle creazioni artistiche delle persone socialmente emarginate quando esse possono essere modellate e sostituite da un rendering generato dalla macchina? Certamente si tratta di una minaccia per tutti i creativi ma, in particolare, per gli emarginati sociali che hanno già seri ostacoli nel marketing e nella commercializzazione dei loro beni e servizi. Cosa accadrà quando genereremo modelli per la pratica medica, costruiti su serie di dati che includono popolazioni e popoli dominanti e non includono test per altri? Abbiamo già questo problema, ma immaginiamo quanto questa situazione verrà esacerbata quando tale esclusione, discussa e contestata, sarà sublimata come verità naturalizzata dalle nostre macchine perfette.

C’è il rischio che coloro che sono già socialmente ed economicamente emarginati, già vittime del “divario digitale” in termini di accesso ai computer, al software, alla capacità di creare tecnologie culturalmente rilevanti e culturalmente appropriate, all’energia e allo spazio per immagazzinarle e mantenerle, vengano ora esclusi ancora di più dal mondo, dove tutti gli altri hanno il conforto della bolla di una realtà generata dalle macchine di IA di cui in maniera esistenziale non fanno parte. I ricchi diventeranno più ricchi. I poveri diventeranno più poveri. Ma il pericolo più grande è che all’improvviso il lavoro di quelli che di noi “stanno in guardia” contro queste eventualità venga ulteriormente delegittimato. Si dirà che non è quello che dice l’algoritmo. Perché non è nei “dati”.

Nikitah Okembe-RA Imani è professore di Black studies all’University of Nebraska at Omaha dal 2012, in precedenza ha insegnato Sociologia e studi africani alla James Madison University.

Clicca qui!