- di Giuseppe Savagnone*
Un
grido d’allarme
Ha
suscitato grande impressione – ma anche vivaci polemiche – la lettera aperta,
firmata da oltre mille personalità del mondo della cultura, della scienza e
dell’economia, in cui si denunciavano i rischi dell’attuale sviluppo
incontrollato dell’Intelligenza Artificiale (IA). «Negli ultimi mesi», si
diceva nella lettera, «i laboratori di IA si sono impegnati in una corsa fuori
controllo per sviluppare e impiegare menti digitali sempre più potenti che
nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare
in modo affidabile».
Il
problema posto dai firmatari è semplice: posto che «i sistemi di intelligenza
artificiale contemporanei stanno diventando competitivi con gli esseri umani
(…), dovremmo sviluppare menti non umane che alla fine potrebbero superarci di
numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il
controllo della nostra civiltà?». Da qui la richiesta: «Pertanto chiediamo a
tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi
l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe
essere pubblica e verificabile (…). I laboratori di IA e gli esperti
indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare
congiuntamente una serie di protocolli di sicurezza condivisi per la
progettazione e lo sviluppo di IA avanzate», volti a «garantire che i sistemi
che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio».
L’appello,
firmato tra l’altro da personalità discusse come Musk, è stato oggetto di due
ordini di critiche. Uno riguardante la sua praticabilità. È stato osservato da
più parti che non è realistica l’idea di coinvolgere tutti i paesi del pianeta
– dagli Stati Uniti, alla Russia, alla Cina – in uno stop di 6 mesi. Ma anche se ci si riuscisse – e questo è il
secondo ordine di obiezioni – , non basterebbero certo 6 mesi a creare un
sistema di controlli che rendano «sicuri al di là di ogni ragionevole dubbio» i
prodotti della ricerca sulle IA.
Nessuno,
però, ha contestato la serietà del problema che il documento solleva. Anzi
alcuni che non l’hanno firmato – come Eliezer Yudkowsky, uno dei maggiori
esperti nel campo della sicurezza dei sistemi di intelligenza artificiale – ,
hanno precisato di non averlo fatto perché troppo blando: «Mi sono astenuto dal
firmare», ha scritto Yudkowsky, perché penso che la lettera stia sottovalutando
la gravità della situazione».
E
poco dopo, ai primi di maggio, è arrivata la notizia che Geoffrey Hinton,
definito «il padrino dell’intelligenza artificiale» ha lasciato Google, con cui
aveva collaborato per anni, dichiarando che lo faceva per poter parlare
liberamente dei rischi dell’IA.
Dal
futuro al presente
Per
capire il contesto in cui si collocano questi gridi di allarme, basta leggere
l’apertura di un articolo del «Sole 24ore» del 15 gennaio 2023, in cui si
intervista Brad Smith, il presidente della «OpenAI», la società di Microsoft
che ha creato ChatGPT , il più potente sistema di intelligenza artificiale mai
prodotto finora e di cui è stata da poco annunciata una versione ancora più
potente (menzionata nella lettera citata all’inizio), GPT-4 .
Scrive
la giornalista dell’autorevole quotidiano, Barbara Carfagna: «Il 2023 è l’anno
in cui l’Intelligenza Artificiale entrerà in una nuova Era, sarà alla portata di
tutti e trasformerà l’economia, la sicurezza, il lavoro, le aziende e la vita
stessa dei singoli uomini. A deciderlo sono state le Big Tech che hanno in mano
i sistemi più avanzati e l’accesso ad una enorme mole di Dati».
Quel
che è certo è che siamo davanti a una svolta epocale, immensamente più
rilevante di tante altre questioni su cui le pagine e i giornali e i notiziari
televisivi polarizzano la loro attenzione e quella dell’opinione pubblica.
Forse la cosa più allarmante è proprio questa scarsa attenzione ai problemi che
una simile svolta comporta e il conseguente pericolo che essa venga gestita,
senza alcun adeguato controllo, da una élite economica la cui logica è,
fisiologicamente, quella imprenditoriale.
Dei
pericoli legati allo sviluppo dell’Intelligenza Artificiale si è sempre parlato
nei romanzi e nei film di fantascienza. Come nel famoso libro di Isaac Asimov
«Io robot», del 1950, dove già lucidamente si metteva in luce la necessità
che questi prodotti della tecnica
fossero soggetti a precise regole morali, inscritti nella loro stessa
struttura.
Erano le «tre leggi della robotica»:
«Un
robot non può recar danno a un essere umano né può permettere che, a causa del
suo mancato intervento, un essere umano riceva danno.
Un
robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali
ordini non vadano in contrasto alla Prima Legge.
Un
robot deve proteggere la propria esistenza, purché la salvaguardia di essa non
contrasti con la Prima o con la Seconda Legge».
In
realtà, tutta la produzione letteraria e filmica di questi ultimi settant’anni
si è incaricata di evidenziare la precarietà di questi sforzi dell’essere umano
di tenere sotto controllo le sue creature. Film famosi come «Blade runner»
(1982), di Ridley Scott, e «Matrix» (1999), dei fratelli Wachowsky, ci hanno
abituato alla prospettiva di un ammutinamento delle intelligenze artificiali,
dipingendo scenari in cui, da strumenti al servizio degli esseri umani, esse
entrano in competizione con loro, fino al punto di renderlo loro schiavi.
Ma
tutto questo rimaneva sempre nei limiti rassicuranti di una proiezione nel
futuro. Ora ci si dice che questo futuro è arrivato. E che i pericoli
ipotizzati sono incombenti nel presente.
I
pericoli
L’elenco
è lungo. Si comincia dalla più banale conseguenza di tute le rivoluzioni
tecnologiche, la minore necessità dell’intervento umano e la inevitabile
perdita di posti di lavoro. Anche se, come per il passato, potrebbero crearsene
altri proprio in funzione delle nuove tecniche.
Del
tutto nuovo è invece il pericolo che deriva dalla capacità dell’IA di
registrare e accumulare i dati personali, trasformandosi così in un “occhio
divino” che travolge tutte le regole della privacy ed è in grado di prevedere,
e in qualche modo di determinare, i nostri comportamenti. Già adesso tutti
constatiamo come i nostri gusti personali, espressi in acquisti fatti su
Internet, vengano archiviati e utilizzati per proporci, in base ad essi, altri
prodotti da comprare.
Traportato
nell’ambito della ricerca intellettuale, ciò espone al rischio che la rete ci
faccia trovare, su un argomento, proprio quelle fonti di informazione e quelle
risposte che corrispondono al nostro profilo intellettuale, delineato in base
alle nostre scelte precedenti, assecondando le nostre preferenze ma al tempo
stesso rendendoci prigionieri di esse.
Queste
forme di controllo possono diventare ulteriormente pericolose se i criteri in
base a cui vengono esercitate riflettono idee le idee di cloro che hanno creato
l’algoritmo in base a cui l’IA opera. Un’intelligenza artificiale che seleziona
il personale potrebbe allora fare le sue scelte in modo apparentemente
asettico, ma in realtà ispirato a logiche discriminanti in base al genere,
all’etnia, alle condizioni sociali ed economiche.
Per
non parlare della manipolazione che l’IA è in grado di operare sui dati,
fornendo rappresentazioni del tutto distorte della realtà e aprendo scenari di
realtà virtuale finora immaginati solo in film di fantascienza come «Matrix».
Nell’intervista al «Times» in cui ha spiegato le ragioni della sua decisione di
asciare Google, Hinton ha detto tra l’altro che con l’intelligenza artificiale
potremmo arrivare a vivere in un mondo in cui le persone «non saranno più in
grado di sapere cosa è vero».
L’intelligenza
artificiale può essere usata anche per l’automazione della guerra. Fino a che
punto può spingersi questo automatismo, scavalcando il controllo umano? Cosa
può accadere lasciando all’IA la decisione sul tipo di risposta da dare a
un’azione militare del nemico?
Ad
impressionare forse più di tutto è lo spettacolo, alla portata di tutti, di ciò
che è in grado di fare ChatGPT (di cui, come si è detto, è già pronta una
versione ancora più potente), nel rispondere ad ogni nostra richiesta con una
velocità sconosciuta alla mente umana e attingendo a un deposito di dati che
supera senza paragoni ogni nostra capacità di documentazione. Una
“super-intelligenza”, che però è sganciata dal nostro contesto valoriale e
opera solo come uno strumento senza essere in grado di valutare i fini.
Fino
ad ora ci si consolava sottolineando che in ogni caso l’IA non può far nulla
che non le sia insegnato e comandato da chi l’ha programmata. Le nuove
generazioni di intelligenza artificiale, però, cominciano ad essere capaci di
imparare e di evolversi autonomamente, rispetto al programma originario. Dove
può arrivare questa autonomia?
Una
sfida etica, ma innanzi tutto antropologica
Certo,
la più immediata esigenza è quella di mettersi d’accordo sui criteri di fondo a
cui la produzione in questo settore deve obbedire. Anche il presidente di
«OpenAI» è convinto che un compito fondamentale dell’umanità, in questo
momento, «è stabilire principi etici critici che sono importanti per tutte le
società del mondo (…) La prima sfida è creare dei principi etici e implementarli
così da poter essere fiduciosi che l’AI lavorerà per servire i valori umani».
In
questa prospettiva Brad Smith in Vaticano ha firmato una “Rome Call for AI
Ethics”, documento sottoscritto dalle tre religioni abramitiche promosso dalla
Pontificia Accademia per la Vita. Al di là delle differenze di cultura e di
religione, egli osserva, «c’è un consenso emergente sui principi che devono
guidare l’IA: evitare i pregiudizi, essere inclusiva, proteggere la privacy e
la sicurezza, essere trasparente così che la gente capisca cosa l’IA stia
facendo e resti rispettosa delle decisioni prese dagli esseri umani».
Ma
la sfida è più radicale: si tratta di capire che cosa ci caratterizza davvero
come persone umane e ci distingue dai nostri prodotti. In un momento storico in
cui la cultura dominante dell’Occidente rifiuta sdegnosamente, come un relitto
del passato, il concetto di “natura umana”, dobbiamo chiederci se ci sia un
confine – quale che sia il nome che gli diamo – tra umano e non-umano. I
princìpi etici dipendono da questo.
Non
a caso anch’essi oggi sono oggetto di una totale relativizzazione, che ne nega
l’universalità. Se non c’è più l’uomo (nel senso del termine greco “anthropos”,
che include il maschile e il femminile) come distinguere il bene il male che lo
riguardano? Ma a questo punto non ci sarà da stupirsi se le intelligenze che
noi stessi abbiamo inventato e costruito ci sostituiranno.
*
Pastorale della Cultura Diocesi Palermo
www.tuttavia.eu
Nessun commento:
Posta un commento