martedì 2 maggio 2023

INTELLIGENZA ARTIFICIALE. DIO E' SUPERATO?

 Torniamo ad occuparci di intelligenza artificiale (AI) per le implicazioni culturali ed educative di questo progetto tecnologico-informatico che potrebbe modificare profondamente le forme attuali della comunicazione interpersonale e dei fondamenti della vita comunitaria.

 

- di Fabrizio Foschi

 

La notizia rilanciata da alcune rubriche radiofoniche (cfr. Media e dintorni su Radio Radicale) è la seguente: interrogata su quale possa essere il “credo” di una religione adeguata ai nostri tempi, ChatGPT ha risposto fornendo una serie preoccupante di coordinate che sembrano descrivere, piuttosto che un possibile futuro scenario, il panorama della riduzione contemporanea della domanda religiosa, propria di ogni uomo, ad una sorta di pensiero dominante, tipico di una tribù di robot, ma per questo non meno inquietante.

La risposta dell’intelligenza artificiale si è condensata in questo messaggio: in un mondo interconnesso la religione deve essere inclusiva, rispettare tutte le scelte personali senza discriminazione di alcun tipo, essere aperta alla scienza e alla razionalità, essere impegnata nella giustizia sociale e nella protezione dell’ambiente, favorire la libertà individuale e il pensiero critico senza imporre dogmi e credenze rigide.

Per quanto poi riguarda l’inserimento di Dio nel possibile catalogo delle opzioni, ChatGPT avrebbe risposto che tale concetto non è fondamentale, perché l’idea di Dio è del tutto soggettiva e poco in linea con le attuali conoscenze scientifiche.

Tale incursione dell’intelligenza artificiale nel campo della religione si presta a diversi tipi di giudizio. Dal momento che ChatGPT è una procedura algoritmica che risulta da una media statistica dei dati che le sono stati forniti, si tratterebbe di capire in quale modo siano state immagazzinate le informazioni. Se sia corretto, in altri termini, pretendere una risposta prettamente meccanica rispetto ad una problematica (quella del bisogno di Dio) che non è il risultato di un’equazione, ma una scelta. Una scelta dell’uomo (singolo ma in comunione con tutto il genere umano) rispetto alla quale l’identità algoritmica mostra tutta la sua limitatezza. Proprio perché rielabora, ma non crea né è responsabile di alcunché, se non dell’universo degli input che le sono stati sottoposti. Il cuore dell’uomo, verrebbe da dire, è altrove, non si trova nella ChatGPT.

Il bellissimo film Blade Runner del 1982 (!) diretto da Ridley Scott e interpretato da Harrison Ford, avente come trama la storia di un gruppo di androidi replicanti che hanno o desiderano avere un’identità simile a quella umana (per esempio una vita più lunga di quella programmata), perché costruiti con immissione nelle loro articolazioni di memorie umane, dimostra, come può farlo una fiction, che l’immaginazione non è nel foglietto delle istruzioni per l’uso di una macchina. A dimostrazione di ciò, si può citare il famoso monologo del replicante Roy Batty (“Ho visto cose che voi umani…”) in cui si suggerisce che è la memoria di un passato a costruire la personalità e non le formule matematiche.

Eppure, c’è chi sostiene che AI, soprattutto nel campo della machine learning, possa assumere decisioni rispetto a determinati compiti, dopo avere fatto “esperienza” di apprendimento, raffinando cioè la capacità di risolvere i problemi in determinate situazioni. Avremmo dunque un meccanismo responsabile, capace di produrre scelte dotate di un certo grado di “moralità”. D’altra parte, c’è chi ribatte che i risultati delle macchine che apprendono dipendono ancora una volta dai dati introdotti (input) e dalle loro caratteristiche strutturali, senza ovviamente sottovalutare la straordinaria capacità delle macchine di elaborare soluzioni in tempi estremamente più ridotti di quanto possa fare una mente umana.

Nel frattempo si discute, anche in Italia, sul provvedimento del Garante della Privacy (30 marzo 2023) che ha disposto in via d’urgenza il blocco di ChatGPT, in base alla considerazione che, si legge nel testo dell’atto, “l’assenza di filtri per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi”. Utile o meno, la fase dell’impedimento ha comunque una efficacia a breve termine, dovuta allo sviluppo collaterale di altre simili applicazioni.

Resta comunque un dubbio che pende dall’alto in questa faccenda come una spada di Damocle: qual è il cuore di chi immette informazioni e dati nel sistema? Perché le risposte sono così univoche e prevedibili, tanto da adattarsi così bene al nostro tempo in cui, verrebbe da dire, si moltiplicano le esistenze alienate, gli “io” senza “Dio”? Se l’intelligenza artificiale che relega Dio in un angolo del nostro universo diventasse prevalente, sarebbe davvero auspicabile, e chissà che prima o poi non accada, una rivolta degli androidi replicanti, cui è stato concesso di dotarsi di memoria temporale e che desiderano avere un cuore che anela a Dio, al posto della scheda elettronica che li fa muovere.

 

Il Sussidiario

Nessun commento:

Posta un commento