-
di Fabrizio
Foschi
La
notizia rilanciata da alcune rubriche radiofoniche (cfr. Media e dintorni su
Radio Radicale) è la seguente: interrogata su quale possa essere il “credo” di
una religione adeguata ai nostri tempi, ChatGPT ha risposto fornendo una serie
preoccupante di coordinate che sembrano descrivere, piuttosto che un possibile futuro
scenario, il panorama della riduzione contemporanea della domanda religiosa,
propria di ogni uomo, ad una sorta di pensiero dominante, tipico di una tribù
di robot, ma per questo non meno inquietante.
La
risposta dell’intelligenza artificiale si è condensata in questo messaggio: in
un mondo interconnesso la religione deve essere inclusiva, rispettare tutte le
scelte personali senza discriminazione di alcun tipo, essere aperta alla
scienza e alla razionalità, essere impegnata nella giustizia sociale e nella
protezione dell’ambiente, favorire la libertà individuale e il pensiero critico
senza imporre dogmi e credenze rigide.
Per
quanto poi riguarda l’inserimento di Dio nel possibile catalogo delle opzioni,
ChatGPT avrebbe risposto che tale concetto non è fondamentale, perché l’idea di
Dio è del tutto soggettiva e poco in linea con le attuali conoscenze
scientifiche.
Tale
incursione dell’intelligenza artificiale nel campo della religione si presta a
diversi tipi di giudizio. Dal momento che ChatGPT è una procedura algoritmica
che risulta da una media statistica dei dati che le sono stati forniti, si
tratterebbe di capire in quale modo siano state immagazzinate le informazioni.
Se sia corretto, in altri termini, pretendere una risposta prettamente
meccanica rispetto ad una problematica (quella del bisogno di Dio) che non è il
risultato di un’equazione, ma una scelta. Una scelta dell’uomo (singolo ma in
comunione con tutto il genere umano) rispetto alla quale l’identità algoritmica
mostra tutta la sua limitatezza. Proprio perché rielabora, ma non crea né è
responsabile di alcunché, se non dell’universo degli input che le sono stati
sottoposti. Il cuore dell’uomo, verrebbe da dire, è altrove, non si trova nella
ChatGPT.
Il
bellissimo film Blade Runner del 1982 (!) diretto da Ridley Scott e
interpretato da Harrison Ford, avente come trama la storia di un gruppo di
androidi replicanti che hanno o desiderano avere un’identità simile a quella
umana (per esempio una vita più lunga di quella programmata), perché costruiti
con immissione nelle loro articolazioni di memorie umane, dimostra, come può
farlo una fiction, che l’immaginazione non è nel foglietto delle istruzioni per
l’uso di una macchina. A dimostrazione di ciò, si può citare il famoso monologo
del replicante Roy Batty (“Ho visto cose che voi umani…”) in cui si suggerisce
che è la memoria di un passato a costruire la personalità e non le formule
matematiche.
Eppure,
c’è chi sostiene che AI, soprattutto nel campo della machine learning, possa
assumere decisioni rispetto a determinati compiti, dopo avere fatto
“esperienza” di apprendimento, raffinando cioè la capacità di risolvere i
problemi in determinate situazioni. Avremmo dunque un meccanismo responsabile,
capace di produrre scelte dotate di un certo grado di “moralità”. D’altra
parte, c’è chi ribatte che i risultati delle macchine che apprendono dipendono
ancora una volta dai dati introdotti (input) e dalle loro caratteristiche
strutturali, senza ovviamente sottovalutare la straordinaria capacità delle
macchine di elaborare soluzioni in tempi estremamente più ridotti di quanto
possa fare una mente umana.
Nel
frattempo si discute, anche in Italia, sul provvedimento del Garante della
Privacy (30 marzo 2023) che ha disposto in via d’urgenza il blocco di ChatGPT,
in base alla considerazione che, si legge nel testo dell’atto, “l’assenza di
filtri per i minori di età di 13 anni espone gli stessi a risposte
assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli
stessi”. Utile o meno, la fase dell’impedimento ha comunque una efficacia a
breve termine, dovuta allo sviluppo collaterale di altre simili applicazioni.
Resta
comunque un dubbio che pende dall’alto in questa faccenda come una spada di
Damocle: qual è il cuore di chi immette informazioni e dati nel sistema? Perché
le risposte sono così univoche e prevedibili, tanto da adattarsi così bene al
nostro tempo in cui, verrebbe da dire, si moltiplicano le esistenze alienate,
gli “io” senza “Dio”? Se l’intelligenza artificiale che relega Dio in un angolo
del nostro universo diventasse prevalente, sarebbe davvero auspicabile, e
chissà che prima o poi non accada, una rivolta degli androidi replicanti, cui è
stato concesso di dotarsi di memoria temporale e che desiderano avere un cuore
che anela a Dio, al posto della scheda elettronica che li fa muovere.
Nessun commento:
Posta un commento