«Nell’IA
va prevista la saggezza by design»
De
Caro e Giovanola nel loro saggio “Intelligenze” propongono un approccio basato
sull’etica della virtù per le macchine e chi interagisce con esse Privacy,
equità, opacità del funzionamento, problemi per sicurezza e occupazione.
Sono
tante le questioni cruciali poste alle politiche pubbliche, che chiedono
risposte
De Caro: «Il rischio, più che esistenziale, è che amplifichi crisi e disinformazione»
Giovanola: «La sfida non è tanto capire come i sistemi ci trasformino, ma l’influenza reciproca.
E valutare l’impatto sulla democrazia»
-di
ANDREA LAVAZZA
Il
futuro con l’intelligenza artificiale è roseo o cupo? La domanda è ormai
all’ordine del giorno e le risposte che vengono proposte variano lungo un ampio
spettro. Spesso, tuttavia, sono poco meditate, quando non improvvisate. Un
volume appena pubblicato ha il pregio di provare a indagare con competenza,
chiarezza e concisione l’IA come possibile soggetto etico e come fattore capace
di trasformare il nostro agire. Si tratta del lavoro di Mario De Caro e
Benedetta Giovanola, Intelligenze. Etica e politica dell’IA (il
Mulino, pagine 174, euro 18,00). Abbiamo dialogato con gli autori,
rispettivamente professore di Filosofia morale all’Università Roma Tre e alla
Tufts University di Boston, e professoressa di Filosofia morale all’Università
di Macerata e titolare della Cattedra Jean Monnet EDIT.
Un
tema cruciale per i nuovi sistemi di IA, ma anche un’affascinante questione
filosofica, è la comprensione che essi hanno del linguaggio naturale. I chatbot
capiscono davvero? Che cosa sappiamo oggi e quali sarebbero le implicazioni di
una risposta affermativa? De Caro: «Oggi c’è
forte disaccordo sull’idea che i chatbot, come ChatGPT, Gemini, Claude,
DeepSeek e così via, comprendano il linguaggio. Non c’è dubbio che passino il
test di Turing ovvero, linguisticamente si comportano come ci comporteremmo noi
-, ma per molti ciò non basta: la “comprensione” resta dunque in questione.
Secondo l’esperimento mentale della “Stanza cinese” di John Searle, appena
scomparso, i sistemi artificiali non fanno altro che manipolare simboli,
imitando la nostra comprensione ma senza mai acquisirla veramente. Però altri
(da Steven Pinker a Daniel Dennett, da Paul e Patricia Churchland a Ned Block)
hanno argomentato che non c’è ragione per ritenere che la comprensione non
possa emergere anche da basi non biologiche. Gli LLM apprendono da grandi corpora e
da input multimodali e costruiscono efficaci modelli operativi del mondo, pur
con limiti (come le allucinazioni, che tuttavia vanno diminuendo man mano che i
modelli si affinano). Infine, nel libro sosteniamo che gli argomenti secondo
cui ChatGPT & Co. sarebbero meri “pappagalli stocastici” non sono molto
convincenti. In sintesi, se si ritiene che la comprensione richieda la
coscienza - tesi su cui molti non sono d’accordo e nemmeno noi-, allora l’IA
non può comprendere. In ogni caso, non è controverso che oggi si possa già
parlare di comprensione funzionale, parziale e distribuita da parte dei sistemi
artificiali».
L’intelligenza
artificiale intesa come strumento solleva molti interrogativi etici in senso
pieno, dalla privacy all’uguaglianza di opportunità. Qual è il problema
emergente o ancora sottovalutato cui dovremmo prestare più attenzione?
Giovanola: «Un
problema ancora sottovalutato, che però richiede grande attenzione, è quanto e
come l’IA trasformi il nostro agire e le nostre capacità epistemiche: spesso il
dibattito – anche pubblico – è impostato su presunte somiglianze o differenze
tra l’intelligenza artificiale e l’intelligenza umana. Questa impostazione
devia l’attenzione dalla vera sfida, ovvero comprendere come esseri umani e
sistemi di IA possono interagire in modo proficuo, poiché l’essere umano, da
sempre, trasforma il mondo che lo circonda ma, al contempo, trasforma se stesso
attraverso ciò che produce. Inoltre, non comprendere questa relazione di
reciproca influenza offusca un problema centrale e, al contempo, emergente:
l’impatto dell’IA – dai sistemi di raccomandazione fino all’IA generativa –
sulle nostre capacità cognitive ed epistemiche, ovvero sulla nostra fiducia
nelle nostre capacità di comprendere il mondo, di distinguere vero e falso, di
sapere scegliere cosa è bene per noi e per la
società in cui viviamo».
Accostare
l’IA alla politica costituisce una novità. Nel libro si esplorano i rischi, che
appaiono concreti. Ma recenti sviluppi, come algoritmi per guidare i dibattiti
e capaci di ridurre gli estremismi mostrando agli interlocutori diversi punti
di vista, sembrano aprire scenari di ottimismo. Che bilancio si può fare?
Giovanola: « La teoria politica dell’IA è un campo emergente: troppo spesso si tende a ritenere l’IA un ambito politicamente neutrale, una questione solo o soprattutto tecnologica, caratterizzata da uno sviluppo inarrestabile, che sfugge a ogni tipo di controllo. Bisogna comprendere, invece, che l’IA è, oggi più che mai, una questione politica, che va gestita e governata. Di certo affidarsi all’ethics by design – garantendo, ad esempio, che gli algoritmi operino in direzione della diversificazione dei punti di vista piuttosto che dell’estremizzazione – è importante, ma da sola non può risolvere il problema. Occorre indagare le strutture di potere nella governance dell’IA e la legittimità di chi decide; bisogna riflettere sui rapporti tra attori privati (detentori dei dati e dell’infrastruttura tecnologica) e poteri pubblici; è, infine, necessario valutare l’impatto dell’IA sulla democrazia: rischi di influenza o manipolazione che sfruttano vulnerabilità cognitive ed emotive possono minare l’eguaglianza politica, sociale e morale».
Rendere
“etici” fin dall’origine i sistemi di intelligenza artificiale sembra la via
preferibile per scongiurare conseguenze negative del loro uso massiccio. Vi
sono però problemi teorici prima ancora che tecnici. Potete riassumere la
vostra originale proposta?
Giovanola: «
La nostra proposta parte dal riconoscimento di un parallelismo tra l’evoluzione
dei sistemi di IA e le trasformazioni dell’etica. I sistemi di IA si sono
evoluti in direzione di modelli bottom-up o “post-simbolici”,
che utilizzando le reti neurali artificiali si basano sull’apprendimento dai
dati, sulla predizione, sul riconoscimento di pattern e su
rappresentazioni contestuali del significato. Parallelamente, l’etica è passata
da concezioni “generaliste” basate su principi generali, regole o leggi
universali, ad approcci “contestualisti”, che sottolineano piuttosto
l’importanza di comprendere le circostanze particolari in cui compiamo le
nostre azioni. Muovendo da questo parallelismo, proponiamo di adottare la
cosiddetta “etica della virtù”, un approccio contestualistico che consente sia
di progettare sistemi di IA “saggi” by design (cioè fin
dall’inizio, dalla progettazione) sia di promuovere la saggezza morale in
coloro che interagiscono con tali sistemi».
Il
pericolo esistenziale proveniente dall’intelligenza artificiale sembrerebbe
lontano, eppure nel libro lo discutete all’inizio. Dovremmo essere già oggi
preoccupati? Che tipo di scenari si possono ipotizzare?
De
Caro: « Recentemente, una lettera di trecento luminari
– tra cui dieci premi Nobel, inclusi Giorgio Parisi e Geoffrey Hinton, uno dei
padri delle reti neurali artificiali – ha prospettato il rischio esistenziale
con parole molto preoccupate (e preoccupanti): “L’IA ha un immenso potenziale
per migliorare il benessere umano, ma la sua traiettoria attuale presenta
pericoli senza precedenti. L’IA potrebbe presto superare di gran lunga le
capacità umane e amplificare rischi quali pandemie ingegnerizzate, disinformazione
su vasta scala, manipolazione massiva degli individui, compresi i bambini,
problemi di sicurezza nazionale e internazionale, disoccupazione di massa e
violazioni sistematiche dei diritti umani”. Data la diffusione capillare
dell’IA, imporre vincoli etici ai sistemi artificiali è una sfida ardua ma non
impossibile, indipendentemente dalla possibilità di ottenere la tanto discussa
Intelligenza Artificiale Generale. È bene sottolineare, però, che, oltre a
schiudere prospettive luminose in molti ambiti — a partire dalla medicina —,
l’IA pone sfide più specifiche, oltre a quella esistenziale generale. Nel
nostro libro, parliamo dei rischi riguardanti l’autonomia, la privacy,
l’equità, la sostenibilità ambientale e sociale, oltre che del cosiddetto
problema della explainability, ossia l’opacità del
funzionamento dei sistemi artificiali. Inoltre, come detto, non vanno
sottovalutati i rischi che la loro rapida ascesa comporta per la tenuta stessa
dei meccanismi democratici».
Forse,
più che macchine che ci distruggano volontariamente, dovremmo temere macchine
intelligenti/ stupide che faranno tutto il nostro lavoro lasciandoci
disoccupati, sufficientemente ricchi e senza scopi nell’esistenza. Cosa ne
pensate?
De
Caro: « Il rischio esistenziale posto dall’IA è
presente – a prescindere dalla possibilità che essa diventi cosciente o
“intelligente” in senso forte – proprio per la diffusione capillare che essa ha
in ogni ambito della nostra vita. Il rischio di disoccupazione è reale e
richiederà politiche pubbliche incisive e innovative. Più remoto ci pare,
invece, il rischio di smarrire gli scopi dell’esistenza: nella storia, i valori
etici e culturali hanno già attraversato e superato crisi profonde. Resta
invece assai problematica l’idea che l’IA ci renda “sufficientemente ricchi”:
il costante aumento dell’indice di Gini, che misura la disuguaglianza nella
distribuzione del reddito e della ricchezza, indica che la crescita – in buona
parte provocata proprio dall’avvento della nuova IA – si va sempre più
concentrando soprattutto ai piani alti, con un incremento sproporzionato delle
risorse dei super- ricchi. Il problema dell’equità sociale ed economica sarà
una delle maggiori sfide dei prossimi anni».
Nessun commento:
Posta un commento