mercoledì 19 novembre 2025

I. A. SAGGEZZA E DEMOCRAZIA

 

Immagine che contiene testo, schermata, elmetto, maschera antigas

Il contenuto generato dall'IA potrebbe non essere corretto.

«Nell’IA va prevista la saggezza by design»

 

De Caro e Giovanola nel loro saggio “Intelligenze” propongono un approccio basato sull’etica della virtù per le macchine e chi interagisce con esse Privacy, equità, opacità del funzionamento, problemi per sicurezza e occupazione.

Sono tante le questioni cruciali poste alle politiche pubbliche, che chiedono risposte

De Caro: «Il rischio, più che esistenziale, è che amplifichi crisi e disinformazione»

Giovanola: «La sfida non è tanto capire come i sistemi ci trasformino, ma l’influenza reciproca.

 E valutare l’impatto sulla democrazia»

 

-di ANDREA LAVAZZA


Il futuro con l’intelligenza artificiale è roseo o cupo? La domanda è ormai all’ordine del giorno e le risposte che vengono proposte variano lungo un ampio spettro. Spesso, tuttavia, sono poco meditate, quando non improvvisate. Un volume appena pubblicato ha il pregio di provare a indagare con competenza, chiarezza e concisione l’IA come possibile soggetto etico e come fattore capace di trasformare il nostro agire. Si tratta del lavoro di Mario De Caro e Benedetta Giovanola, Intelligenze. Etica e politica dell’IA (il Mulino, pagine 174, euro 18,00). Abbiamo dialogato con gli autori, rispettivamente professore di Filosofia morale all’Università Roma Tre e alla Tufts University di Boston, e professoressa di Filosofia morale all’Università di Macerata e titolare della Cattedra Jean Monnet EDIT.

Un tema cruciale per i nuovi sistemi di IA, ma anche un’affascinante questione filosofica, è la comprensione che essi hanno del linguaggio naturale. I chatbot capiscono davvero? Che cosa sappiamo oggi e quali sarebbero le implicazioni di una risposta affermativa? De Caro: «Oggi c’è forte disaccordo sull’idea che i chatbot, come ChatGPT, Gemini, Claude, DeepSeek e così via, comprendano il linguaggio. Non c’è dubbio che passino il test di Turing ovvero, linguisticamente si comportano come ci comporteremmo noi -, ma per molti ciò non basta: la “comprensione” resta dunque in questione. Secondo l’esperimento mentale della “Stanza cinese” di John Searle, appena scomparso, i sistemi artificiali non fanno altro che manipolare simboli, imitando la nostra comprensione ma senza mai acquisirla veramente. Però altri (da Steven Pinker a Daniel Dennett, da Paul e Patricia Churchland a Ned Block) hanno argomentato che non c’è ragione per ritenere che la comprensione non possa emergere anche da basi non biologiche. Gli LLM apprendono da grandi corpora e da input multimodali e costruiscono efficaci modelli operativi del mondo, pur con limiti (come le allucinazioni, che tuttavia vanno diminuendo man mano che i modelli si affinano). Infine, nel libro sosteniamo che gli argomenti secondo cui ChatGPT & Co. sarebbero meri “pappagalli stocastici” non sono molto convincenti. In sintesi, se si ritiene che la comprensione richieda la coscienza - tesi su cui molti non sono d’accordo e nemmeno noi-, allora l’IA non può comprendere. In ogni caso, non è controverso che oggi si possa già parlare di comprensione funzionale, parziale e distribuita da parte dei sistemi artificiali».

L’intelligenza artificiale intesa come strumento solleva molti interrogativi etici in senso pieno, dalla privacy all’uguaglianza di opportunità. Qual è il problema emergente o ancora sottovalutato cui dovremmo prestare più attenzione?

Giovanola: «Un problema ancora sottovalutato, che però richiede grande attenzione, è quanto e come l’IA trasformi il nostro agire e le nostre capacità epistemiche: spesso il dibattito – anche pubblico – è impostato su presunte somiglianze o differenze tra l’intelligenza artificiale e l’intelligenza umana. Questa impostazione devia l’attenzione dalla vera sfida, ovvero comprendere come esseri umani e sistemi di IA possono interagire in modo proficuo, poiché l’essere umano, da sempre, trasforma il mondo che lo circonda ma, al contempo, trasforma se stesso attraverso ciò che produce. Inoltre, non comprendere questa relazione di reciproca influenza offusca un problema centrale e, al contempo, emergente: l’impatto dell’IA – dai sistemi di raccomandazione fino all’IA generativa – sulle nostre capacità cognitive ed epistemiche, ovvero sulla nostra fiducia nelle nostre capacità di comprendere il mondo, di distinguere vero e falso, di sapere scegliere cosa è bene per noi e per la società in cui viviamo».

Accostare l’IA alla politica costituisce una novità. Nel libro si esplorano i rischi, che appaiono concreti. Ma recenti sviluppi, come algoritmi per guidare i dibattiti e capaci di ridurre gli estremismi mostrando agli interlocutori diversi punti di vista, sembrano aprire scenari di ottimismo. Che bilancio si può fare?

Giovanola: « La teoria politica dell’IA è un campo emergente: troppo spesso si tende a ritenere l’IA un ambito politicamente neutrale, una questione solo o soprattutto tecnologica, caratterizzata da uno sviluppo inarrestabile, che sfugge a ogni tipo di controllo. Bisogna comprendere, invece, che l’IA è, oggi più che mai, una questione politica, che va gestita e governata. Di certo affidarsi all’ethics by design – garantendo, ad esempio, che gli algoritmi operino in direzione della diversificazione dei punti di vista piuttosto che dell’estremizzazione – è importante, ma da sola non può risolvere il problema. Occorre indagare le strutture di potere nella governance dell’IA e la legittimità di chi decide; bisogna riflettere sui rapporti tra attori privati (detentori dei dati e dell’infrastruttura tecnologica) e poteri pubblici; è, infine, necessario valutare l’impatto dell’IA sulla democrazia: rischi di influenza o manipolazione che sfruttano vulnerabilità cognitive ed emotive possono minare l’eguaglianza politica, sociale e morale».

Rendere “etici” fin dall’origine i sistemi di intelligenza artificiale sembra la via preferibile per scongiurare conseguenze negative del loro uso massiccio. Vi sono però problemi teorici prima ancora che tecnici. Potete riassumere la vostra originale proposta?

Giovanola: « La nostra proposta parte dal riconoscimento di un parallelismo tra l’evoluzione dei sistemi di IA e le trasformazioni dell’etica. I sistemi di IA si sono evoluti in direzione di modelli bottom-up o “post-simbolici”, che utilizzando le reti neurali artificiali si basano sull’apprendimento dai dati, sulla predizione, sul riconoscimento di pattern e su rappresentazioni contestuali del significato. Parallelamente, l’etica è passata da concezioni “generaliste” basate su principi generali, regole o leggi universali, ad approcci “contestualisti”, che sottolineano piuttosto l’importanza di comprendere le circostanze particolari in cui compiamo le nostre azioni. Muovendo da questo parallelismo, proponiamo di adottare la cosiddetta “etica della virtù”, un approccio contestualistico che consente sia di progettare sistemi di IA “saggi” by design (cioè fin dall’inizio, dalla progettazione) sia di promuovere la saggezza morale in coloro che interagiscono con tali sistemi».

Il pericolo esistenziale proveniente dall’intelligenza artificiale sembrerebbe lontano, eppure nel libro lo discutete all’inizio. Dovremmo essere già oggi preoccupati? Che tipo di scenari si possono ipotizzare?

De Caro: « Recentemente, una lettera di trecento luminari – tra cui dieci premi Nobel, inclusi Giorgio Parisi e Geoffrey Hinton, uno dei padri delle reti neurali artificiali – ha prospettato il rischio esistenziale con parole molto preoccupate (e preoccupanti): “L’IA ha un immenso potenziale per migliorare il benessere umano, ma la sua traiettoria attuale presenta pericoli senza precedenti. L’IA potrebbe presto superare di gran lunga le capacità umane e amplificare rischi quali pandemie ingegnerizzate, disinformazione su vasta scala, manipolazione massiva degli individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche dei diritti umani”. Data la diffusione capillare dell’IA, imporre vincoli etici ai sistemi artificiali è una sfida ardua ma non impossibile, indipendentemente dalla possibilità di ottenere la tanto discussa Intelligenza Artificiale Generale. È bene sottolineare, però, che, oltre a schiudere prospettive luminose in molti ambiti — a partire dalla medicina —, l’IA pone sfide più specifiche, oltre a quella esistenziale generale. Nel nostro libro, parliamo dei rischi riguardanti l’autonomia, la privacy, l’equità, la sostenibilità ambientale e sociale, oltre che del cosiddetto problema della explainability, ossia l’opacità del funzionamento dei sistemi artificiali. Inoltre, come detto, non vanno sottovalutati i rischi che la loro rapida ascesa comporta per la tenuta stessa dei meccanismi democratici».

Forse, più che macchine che ci distruggano volontariamente, dovremmo temere macchine intelligenti/ stupide che faranno tutto il nostro lavoro lasciandoci disoccupati, sufficientemente ricchi e senza scopi nell’esistenza. Cosa ne pensate?

De Caro: « Il rischio esistenziale posto dall’IA è presente – a prescindere dalla possibilità che essa diventi cosciente o “intelligente” in senso forte – proprio per la diffusione capillare che essa ha in ogni ambito della nostra vita. Il rischio di disoccupazione è reale e richiederà politiche pubbliche incisive e innovative. Più remoto ci pare, invece, il rischio di smarrire gli scopi dell’esistenza: nella storia, i valori etici e culturali hanno già attraversato e superato crisi profonde. Resta invece assai problematica l’idea che l’IA ci renda “sufficientemente ricchi”: il costante aumento dell’indice di Gini, che misura la disuguaglianza nella distribuzione del reddito e della ricchezza, indica che la crescita – in buona parte provocata proprio dall’avvento della nuova IA – si va sempre più concentrando soprattutto ai piani alti, con un incremento sproporzionato delle risorse dei super- ricchi. Il problema dell’equità sociale ed economica sarà una delle maggiori sfide dei prossimi anni».

 www.avvenire.it

 

Nessun commento:

Posta un commento