L’«Intelligenza
artificiale generativa»
e il nostro futuro
- di Ferenc Patsch *
Una
urgente necessità di regolamentazione
Guardandola
da un secolo futuro, la nostra epoca sarà probabilmente ricordata come quella
della nascita[1] della cosiddetta «intelligenza artificiale generativa»[2].
Sebbene sia impossibile giudicare i processi attuali (a causa della mancanza di
distanza storica), tutti i segnali indicano che stiamo vivendo la fase iniziale
di una rivoluzione informatica e tecnologica che ha lanciato l’«intelligenza»
delle macchine. Molti si chiedono cosa ci riserverà il futuro in questo senso.
Di recente siamo stati costretti a imparare alcuni termini nuovi, come
«algoritmo», «apprendimento automatico» (machine learning) o, più recentemente,
«modelli linguistici di grandi dimensioni» (large language models), ma
questo è solo l’inizio. Le nuove tecnologie stanno già trasformando le nostre
vite vorticosamente e gli esperti dicono che esse hanno in serbo altre
incredibili potenzialità.
Naturalmente,
si parla sempre più spesso anche dei pericoli, alcuni dei quali, purtroppo,
sono divenuti ben familiari in relazione ai social media: dipendenza,
disinformazione, salute mentale, polarizzazione, censura ecc.[3]. Hanno ragione
coloro che accolgono con entusiasmo i cambiamenti recenti o coloro che fanno
previsioni apocalittiche e distopiche? È difficile orientarsi in una gamma così
ampia di opinioni. In questo articolo, tuttavia, cercheremo – anche se si
tratta di un’impresa ben ardua – di fornire alcuni punti di riferimento per
aiutare il lettore a orientarsi. Ora che la mania di ChatGPT, di cui si parlerà
più avanti, si è un po’ placata [4], è possibile fare una riflessione più
equilibrata su questa vexata quaestio.
La
tecnologia «smart» come arma a doppio taglio
Per
capire meglio l’«intelligenza artificiale generativa», partiamo da più lontano.
Ecco un esperimento di pensiero. Cosa avremmo pensato se un viaggiatore nel
tempo, tornato dal futuro negli anni Settanta, avesse fatto la seguente
previsione: presto ci sarà a disposizione un dispositivo di nuova invenzione
che permetterà a gran parte dell’umanità di comunicare in modo rapido ed
efficace, indipendentemente dalla distanza fisica, e di cooperare tra le persone
[5]? Con questo apparecchio avremo accesso a quasi tutte le conoscenze
dell’umanità e saremo in grado di recuperare quasi istantaneamente una grande
quantità di informazioni (dati, musica, film, gran parte dei libri, dei
giornali e degli articoli pubblicati ecc.). Sarà anche possibile tradurre
qualsiasi testo in qualsiasi lingua in pochi secondi. Ebbene, oggi abbiamo
questo strumento: è a disposizione di ciascuno di noi. I professionisti – e gli
onesti scrittori di fantascienza – di solito confessano di aver sognato una
cosa del genere, ma di aver pensato che ci sarebbe voluto molto più tempo per
ottenerla.
Di
fatto, abbiamo cognizione di quasi tutti gli elementi dell’intelligenza
artificiale da 40-50 anni, eppure ora abbiamo una conoscenza tecnica
nuovissima, non ipotizzabile cinquant’anni fa: come gli stessi algoritmi
avrebbero potuto funzionare su macchine 10 milioni di volte più veloci. Stiamo
solo iniziando a vedere l’impatto che questo nuovo strumento ha sull’istruzione
(sviluppo dei bambini, ricerca scientifica, cambio dei valori), sulla cultura
(giornalismo sociale, canali di comunicazione), sulla politica (discorso
democratico, elezioni), sull’economia (marketing, Pil) e, non da ultimo, sulla
nostra vita spirituale.
I
progressi della tecnologia digitale costituiscono tutti una buona notizia?
Purtroppo, come sarà sempre più evidente, non è così; c’è, indubbiamente, anche
un lato negativo. Se, ad esempio, negli anni Settanta quello stesso viaggiatore
nel tempo di cui sopra ci avesse detto anche che questo magico dispositivo
avrebbe causato la difficoltà dei rapporti e la distrazione dei nostri figli;
che alcune semplici app – chiamate «social media» – avrebbero causato un acuto
disagio emotivo negli adolescenti e che la popolazione adulta avrebbe corso il
rischio di un disordine da deficit di attenzione e di problemi di stress e di sonno
[6], saremmo stati altrettanto entusiasti? È vero che abbiamo perfezionato il
concetto pascaliano di divertissement, ma, secondo gli studiosi, i cambiamenti
che abbiamo già apportato rischiano di toglierci il senso della vita e la
capacità di goderne [7], per non parlare del rapporto con Dio, della preghiera
e della contemplazione [8].
E
se il nostro viaggiatore nel tempo ci avesse avvertito anche che le nuove
tecnologie ci avrebbero resi vulnerabili alla manipolazione e alla raccolta
illegale di dati (perché il misterioso dispositivo conosce i numeri delle
nostre carte di credito, legge la nostra posta elettronica, tiene traccia delle
nostre coordinate geografiche, e persino conta i nostri passi quotidiani, se
glielo chiediamo)? Chi avrebbe immaginato che l’invenzione più potente del
nostro tempo, i social media, ci avrebbe intrappolato in una «bolla» di
comunicazione – una echo chamber – in cui sentiamo solo chi ha le nostre
stesse opinioni, aumentando così le divisioni sociali a livelli senza
precedenti? Di fatto, il dispositivo che chiamiamo smartphone ha avuto un
effetto molto ambiguo: ci ha connesso a una rete di informazioni globale, da
cui ora noi sembriamo essere intrappolati. Con il suo utilizzo siamo
globalizzati più che mai nella storia dell’umanità, ma, nello stesso tempo,
siamo anche solitari. Questo dispositivo ha risvegliato i peggiori demoni della
nostra anima (pornografia, violenza), ed è così difficile separarsene che ha
causato una vera e propria epidemia di dipendenza [9]. Abbiamo allora ancora
voglia di festeggiare?
Ma c’è di più. Tutti i segnali
indicano che siamo solo all’inizio di questa storia di trasformazione. Infatti,
i social media, responsabili di gran parte dei disagi sopramenzionati,
funzionavano ancora con strumenti estremamente primitivi rispetto a quelli
recenti. In sostanza, la loro magia consisteva nel fatto che i motori di
ricerca erano programmati per consigliare articoli di notizie o video di
YouTube in base agli interessi e ai clic precedenti degli utenti (registrati
anche senza il loro consenso). Ma già questi metodi primitivi hanno dato loro
un potere incredibile: non solo ci hanno tenuti davanti ai nostri schermi,
rubandoci anche il sonno[10], ma hanno manipolato le nostre opinioni,
polarizzato il nostro discorso politico, minato la nostra salute mentale e
destabilizzato le nostre società democratiche[11]. Fino a poco tempo fa avevamo
a che fare solo con contenuti informativi prodotti dall’uomo; recentemente,
però, è avvenuto qualche cambiamento importante.
«The next big thing»
Il 22 novembre 2022 è stata resa
disponibile una nuova invenzione tecnologica, il cui impatto futuro è destinato
a fare scalpore più che mai. La startup californiana OpenAI ha dato vita a un
«grande modello linguistico» alimentato da una «intelligenza artificiale»,
chiamato ChatGPT. Questo ha aperto un nuovo capitolo nella storia della
tecnologia e, secondo alcuni, anche in quella dell’umanità. Nel giro di cinque
giorni, un milione di persone si sono iscritte all’applicazione e in due mesi
il numero di utenti ha superato i 100 milioni[12]. Ma cos’è questo chatbot che
è passato, quasi da un giorno all’altro, dalla totale oscurità a essere un
attore potenzialmente fondamentale per il futuro del mondo?
ChatGPT è un esempio della
cosiddetta «intelligenza artificiale generativa», in grado cioè di generare
contenuti di pensiero simili a quelli umani, semplicemente sulla base di un
addestramento sulla vasta quantità di informazioni testuali, immagini e suoni
presenti in Internet. Per la prima volta nella storia della nostra specie è
diventato possibile interagire direttamente come utente – anche se finora solo
per iscritto – con una potente «intelligenza» non biologica (inorganica, basata
sul silicio). Possiamo dialogare e chattare con essa, ed essa risponderà
prontamente alle nostre domande. Anche la maggior parte degli esperti è rimasta
sorpresa dalla complessità dei compiti che il chatbot può svolgere. Avendo
imparato il linguaggio umano e utilizzandolo in modo abile, esso può fornire
informazioni in qualsiasi lingua e su qualsiasi argomento discusso su Internet.
La sua caratteristica più sorprendente e innovativa, tuttavia, è quella di fare
ciò in «modo creativo», ossia esso può generare testi, immagini e video propri.
È questo che ha reso la creazione di OpenAI un successo senza precedenti.
Inoltre, ChatGPT non è l’ultimo
stadio di sviluppo, ma, al contrario, solo uno dei primi passi. Dopo la sua
apparizione, nuovi sviluppi si sono manifestati quasi ogni settimana: Google ha
lanciato Bard, il proprio chatbot per alimentare il proprio motore di ricerca,
e ha investito 300 milioni di dollari in Anthropic; GPT-4, ancora più potente
del modello precedente, è ora disponibile; Google ha lanciato il potente
modello linguistico PaLM 2; e Baidu, noto come «il Google della Cina», ha
presentato un chatbot chiamato «Claude» ecc.[13]. In breve, è entrata nel
dominio pubblico una «intelligenza», non direttamente umana, che è in grado di
scrivere testi (compresi saggi e tesi scolastiche), di tradurli, di disegnare
immagini, di comporre musica, e persino di creare programmi informatici con una
qualità sorprendente e in continua evoluzione. Questa è una buona notizia?
Un realismo critico e proattivo
Per alcuni, però, tutto questo non
costituisce un passo in avanti, ma piuttosto un passo indietro nella storia
della civiltà umana. Prima di cedere a un’euforia acritica, essi ci avvertono,
va notato che ChatGPT non funziona perfettamente: a volte, per esempio,
«allucina», cioè «immagina», afferma falsità, e il problema non sembra
risolvibile in maniera definitiva. Inoltre, è spaventosamente facile usare la
nuova invenzione per commettere frodi, producendo, per esempio, una qualità
impressionante di immagini, suoni e video falsi (deep-faking). Questo ha già
attirato l’attenzione dei criminali: la Federal Trade Commission statunitense
ha riferito che l’anno scorso negli Stati Uniti sono state commesse frodi per
un valore di 11 milioni di dollari, utilizzando l’«intelligenza artificiale»
per imitare la voce di una persona o creare un avatar in movimento della
stessa, truffando così parenti ignari[14]. Un celebre caso in Italia è stato
quello di una signora di 83 anni, Laura Efrikian, ex moglie del cantante Gianni
Morandi, truffata per una somma considerevole da criminali che, con l’aiuto
dell’«intelligenza artificiale», sono riusciti a imitare la voce di un suo
nipote.
Quindi, se in futuro non vedremo
qualcuno di persona, non potremo più fidarci della sua identità? Sembra proprio
di sì. Ma la minaccia maggiore non sembra essere l’«intelligenza artificiale»
che aiuta anche nelle frodi contrattuali e nell’evasione fiscale, bensì
l’«intelligenza artificiale» che imita le relazioni intime con le persone reali
(«amici» e «amiche», anche intimi, robot che fanno finta di capirci, senza
avere vera capacità di compassione, falsificando così le relazioni umane
reali)[15]. Secondo il filosofo americano Daniel Dennett, non si tratta affatto
di uno scherzo, ma piuttosto di una vera e propria «minaccia alla nostra
civiltà»[16]. A questo proposito, sembra riemergere l’antica domanda: che cosa
significa essere umani?
Anche gli esperti – filosofi,
teologi, storici, avvocati, economisti ecc. – sono divisi su questa domanda,
come pure su ciò che sta effettivamente accadendo con l’ingresso – o meglio,
con la vera e propria invasione – dell’«intelligenza artificiale» nella nostra
cultura. Alcuni, che costituiscono una minoranza, cercano di sminuire la
portata di tali accadimenti, affermando che si tratta solo di un altro
«miracolo» di breve durata: l’umanità ha vissuto traumi maggiori nei 200.000
anni della sua storia. Altri vanno nella direzione diametralmente opposta,
paragonando la diffusione dell’«intelligenza artificiale generativa» non solo
all’invenzione del fuoco, della ruota o della scrittura, ma al nuovo inizio
dell’evoluzione – quella inorganica –, che per loro rappresenta una nuova
singolarità e anticipa un futuro inevitabilmente apocalittico (istruzione
impossibile, masse di disoccupati, feudalesimo digitale fino all’estinzione
dell’umanità). Ci sembra di poter rendere giustizia a Sam Altman,
amministratore delegato della società madre di ChatGPT, OpenAI, il quale,
quando ChatGPT ha fatto il suo debutto pubblico, ha previsto che l’importanza
della loro creazione avrebbe «superato la rivoluzione agricola, la rivoluzione
industriale e la rivoluzione di Internet messe insieme»[17]. Tutto questo però
non può allontanarci dal nostro agire in modo responsabile.
Un punto di vista più equilibrato
tra la falsa alternativa dell’allarmismo disperato e l’incoscienza credulona è
un realismo informato, responsabile e proattivo. Sebbene il futuro sia, in
linea di principio, imprevedibile e, soprattutto in questo caso, non abbiamo
esempi analoghi per capire ciò che sta accadendo, alcune previsioni possono
essere formulate in modo responsabile. La prima è che sembra che ci troviamo
dinanzi a un cambiamento davvero storico, e vi ci dobbiamo preparare.
L’«intelligenza artificiale», anche se non distruggerà necessariamente il
nostro modo di pensare e di vivere, senza dubbio lo trasformerà entro pochi
decenni su una scala senza precedenti: sconvolgerà il sistema educativo e il
mondo della scienza, mettendo in discussione le nostre idee sui concetti
fondamentali del lavoro intellettuale (la creatività, la proprietà
intellettuale e il diritto d’autore) e ci costringerà ad adottare nuove
pedagogie, dalle scuole primarie alle università; richiederà una
riorganizzazione del settore sanitario e cambierà la nostra visione
dell’umanità; trasformerà l’economia, soprattutto il mercato del lavoro,
lanciando così una sfida agli economisti e ai politici; cambierà anche la
politica, mettendo in crisi la democrazia, e la guerra, creando armamenti
basati sull’«intelligenza artificiale»; e infine, e in modo più radicale,
influenzerà l’intero pensiero umano, ossia ciò che consideriamo «reale» e
«vero». La risposta adeguata a tutte queste sfide non sarà la disperazione, né
l’arrendersi, ma il monitoraggio, la riflessione e l’agire in modo
responsabile.
Quattro argomenti a favore di una
regolamentazione
L’emergere di ChatGPT, come abbiamo
visto in precedenza, suggerisce che siamo all’alba di una nuova era.
Quest’epoca sarà caratterizzata dal rapido sviluppo dell’«intelligenza
artificiale», con conseguenze di vasta portata per quasi tutti gli aspetti della
società. Non si può non riflettere su come si debba reagire.
Certo, per il discernimento
servirebbe anche la guida del magistero ecclesiastico. La Chiesa, però, di
solito non è precipitosa nel dare orientamenti. Aspetta pazientemente finché
maturi una riflessione ben ponderata. Questo atteggiamento ha senz’altro dei
vantaggi: impedisce le reazioni avventate e permette di agire con accortezza.
Ma per quanto riguarda l’«intelligenza artificiale», abbiamo la legittima
sensazione che il magistero della Chiesa non possa avere lo stesso ritmo di
sempre. Sono necessari tempi di reazione più brevi. Le cose accadono con
velocità fulminea. Il 1983 è generalmente considerato l’anno della scoperta di
Internet; e il Pontificio Consiglio delle comunicazioni sociali ha pubblicato
il documento The Church and Internet solo nel 2002. I social media sono nati
nel 1997[18]; e il Dicastero per la comunicazione ha pubblicato il documento
Verso una piena presenza solo nel 2023[19]. Papa Francesco cerca di stare
maggiormente al passo con i tempi. Si prevede che egli dedicherà le sue riflessioni
per la Giornata mondiale delle comunicazioni sociali (24 gennaio 2024, nella
festa di san Francesco di Sales) al tema «Intelligenza artificiale e sapienza
del cuore»[20]. Ma anche il testo del messaggio per la Giornata mondiale della
pace del 1° gennaio 2024 sarà analogamente dedicato a «Intelligenze artificiali
e pace»[21]. Ciò dovrebbe stimolarci ancora di più a riflettere su questo
argomento.
1) Uno degli aspetti più importanti
riguarda la regolamentazione dell’«intelligenza artificiale generativa». Questo
è richiesto, innanzitutto, da circostanze morali ricorrenti e urgenti, come la
situazione di guerra. Alcuni esperti, tra cui Audrey Kurth Cronin, direttrice
dell’Istituto per la sicurezza e la tecnologia della Carnegie Mellon
University, hanno parlato già da anni di questo pericolo, sostenendo che
«l’innovazione tecnologica aperta sta armando i terroristi di domani»[22]. Gli
avvenimenti recenti hanno largamente confermato le preoccupazioni dei
professionisti: nel conflitto israeliano Hamas ha utilizzato tecnologie
economiche e facilmente accessibili, ma avanzate (reti sociali, droni, sensori
e razzi «intelligenti»), per rendere più efficace la sua capacità di
distruzione, aumentando il numero delle vittime degli attacchi terroristici.
Questo semplice fatto dovrebbe essere un ulteriore monito per chi sta
sviluppando le nuove tecnologie dell’«intelligenza artificiale generativa»:
essa avrà il potere di moltiplicare l’efficacia della distruzione di massa (per
esempio, creando nuovi virus mortali).
2) Invece di creatività nella
distruzione, occorrono soluzioni innovative per proteggere gli esseri umani.
Sebbene tutti i principali protagonisti della rivoluzione digitale – da OpenAI
a Google, passando per Microsoft e Anthropic (ora nell’orbita Amazon) – si
dicano consapevoli degli immensi rischi insiti nella manipolazione di tali
tecnologie da parte di malintenzionati, le dichiarazioni di buona volontà ormai
non sembrano essere sufficienti. Tanto più che proprio i «grandi» non si
sentono responsabili! Lo stesso Elon Musk, multimiliardario amministratore
delegato della multinazionale automobilistica Tesla e proprietario e presidente
di X (ex Twitter), viene ripetutamente tacciato di diffondere notizie false.
Egli, in un primo tempo, ha drasticamente ridotto il sistema di verifica dei
contenuti immessi in rete in nome dell’assoluta libertà d’espressione; poi ha
dato spazio a meccanismi economici che premiano la divulgazione di montature
false, ma suggestive, capaci di generare molte visualizzazioni; infine,
recentemente, ha esortato a seguire, per quanto riguarda Israele, due siti che
gli sembravano interessanti: siti antisemiti, che abitualmente diffondono
falsità. Quando gli hanno fatto notare gli errori, egli ha ritirato il suo
invito, che, però, era stato già letto da 11 dei 160 milioni di suoi
follower[23].
Similmente, risulta dannosa e
insostenibile la politica controcorrente di Mark Zuckerberg, un altro
miliardario, capo di Meta (ex Facebook), il quale, discutendo
dell’«intelligenza artificiale» davanti al Congresso, ha sostenuto l’importanza
di una sua regolamentazione, ma ha negato la necessità dei limiti d’accesso. In
questo si può scorgere il sospetto che la brama del potere offuschi gli occhi
delle persone coinvolte, impedendo loro di vedere: sarebbe irresponsabile
mettere un potere così ampio nelle mani di attori potenzialmente pericolosi. In
passato, questi giudizi palesemente sbagliati avrebbero infranto una volta per
tutte il sogno di una possibile democratizzazione della tecnologia, e tocca a
noi ora trarne le conseguenze. Purtroppo, decisioni così importanti non
dovrebbero essere affidate a singoli individui, anche se non fossero del tutto
male informati dal punto di vista politico e morale. Per evitare il peggio,
saranno necessarie sia la trasparenza sia la responsabilizzazione
(accountability) democratica di tutti gli attori principali.
3) Naturalmente, questa assunzione
di responsabilità risulta particolarmente complessa nel caso di potenti aziende
multimiliardarie come il colosso americano Google (YouTube è utilizzato da 1,3
miliardi di persone ogni giorno, per una media di 70 minuti) o il gigante
cinese TikTok (ormai semimonopolista dell’informazione dei ragazzi americani ed
europei). Dietro queste piattaforme di social media ci sono anche algoritmi
basati sull’«intelligenza artificiale» e sviluppati dai migliori scienziati
comportamentali del mondo per tenerci incollati davanti allo schermo. Non c’è
da stupirsi se oggi stiamo perdendo la capacità di focalizzare la nostra
attenzione. In questi settori, la regolamentazione dovrebbe significare che
l’obiettivo non è quello di distogliere l’attenzione a ogni costo – il che
serve solo a massimizzare il guadagno personale di alcuni, mentre polarizza il
resto della società –, ma piuttosto quello di informare, di rafforzare e
potenziare (empowering), attivando così le nostre migliori risorse. È indispensabile,
per utilizzare un neologismo del francescano Paolo Benanti, un’«algoretica»,
ossia dare un’etica agli algoritmi[24].
4) La regolamentazione è necessaria
non solo per combattere le guerre, i produttori di fake news e gli operatori
irresponsabili dei social media, ma anche per salvare (e perfezionare) il
sistema politico democratico esistente. Il modo in cui potenze straniere hanno
interferito nelle elezioni presidenziali statunitensi del 2017 è ben noto. È
meno noto però che nelle elezioni parlamentari slovacche del 30 settembre 2023,
in cui ha vinto il populista filorusso Robert Fico, sono stati utilizzati
metodi molto più sofisticati. La falsa campagna, sostenuta da deep fake, era
diretta principalmente contro il candidato liberale progressista Michal
Simecka. Per quanto possa sembrare un episodio divertente, si tratta invece di
una questione seria: mentre Facebook disinnescava un video in cui un falso
Simecka annunciava che avrebbe raddoppiato il prezzo della birra in caso di
vittoria, 48 ore prima dell’apertura delle urne è stato diffuso anche una clip
audio di un altro falso Michal che affermava di voler comprare i voti della
minoranza rom[25].
Con l’enorme progresso della
tecnologia, è possibile che non riusciamo più a credere a ciò che vediamo con i
nostri occhi sullo schermo? Può darsi. Tuttavia, ci dovrebbe essere una
regolamentazione. Come in passato la contraffazione di prodotti veniva punita
severamente, così pure oggi la contraffazione di esseri umani dovrebbe essere
condannata[26]. E questo non viola la libertà di parola, perché i bot non hanno
diritto alla libertà di parola.
La buona notizia è che
l’«intelligenza artificiale generativa», per come noi la conosciamo, non è
cosciente e non svilupperà autocoscienza (infatti, diversamente da noi, non
comprende ciò che dice). Ma questo non significa che non possa essere
pericolosa. Essa richiede perciò una continua regolamentazione, che sarà un
compito permanente etico, teologico e spirituale nostro, cioè veramente umano.
* Professore di Teologia fondamentale alla Pontificia Università Gregoriana di Roma.
La
Civiltà Cattolica
Immagine