L’intelligenza artificiale
adesso corre governarla
con saggezza non è facile
La necessità di regolamentare l’IA per
garantire uno sviluppo tecnologico
responsabile e orientato
al benessere umano
È
necessaria una cooperazione che riconosca la peculiarità dell’essere umano e
delle sue capacità. Evitando la polarizzazione tra apocalittici e integrati,
tecnofobi e tecnofili
La ricerca di un’etica condivisa e le regole per evitare un uso improprio
-
di LUCIO ROMANO*
Il
2024 è stato l’anno in cui i sistemi di Intelligenza Artificiale (IA) hanno
segnato una sempre più rapida e larga applicazione. Nei più svariati ambiti.
Con sempre nuove prospettive e altrettanto pressanti interrogativi. Per
giungere, come facilmente prevedibile, a una presenza pressoché ubiquitaria.
Secondo le prime stime nel 2025 il mercato dell’IA è destinato a crescere del
26% in tutto il mondo. Per Gartner for Information Technology (IT) Executives,
l’IA trainerà ancor più la spesa per le IT in Europa raggiungendo nel i 1.280
miliardi di dollari. Un +8,7% rispetto al 2024, che dovrebbe chiudersi a 1.180
miliardi di dollari. Con una prevalenza degli investimenti soprattutto per le
IA generative nelle sue varie applicazioni e finanziamenti aumentati vertiginosamente
secondo l’Artificial Intelligence Index Report della Standford University. La
quota di mercato più grande per settore dell’IA è quello della sanità che già
rappresenta il 15,70%, seguito da finanza e produzione per il 13,65%. Proprio
nella sanità si riscontrano i maggiori progressi nella ricerca, nella
diagnostica, nei trattamenti di precisione e in quelli personalizzati. Sistemi
come AlphaFold di DeepMind hanno accelerato la scoperta di proteine definendo
le strutture in pochi minuti. Con un notevole grado di accuratezza,
reindirizzando tempo e risorse preziose per aiutare a risolvere le più grandi
sfide mediche. Così i modelli linguistici di grandi dimensioni (LLM, Large
Language Models) nei vari settori dell’assistenza.
Accentramento
di potere
È evidente
l’accentramento di potere economico nelle mani delle Magnificent Seven: Alphabet
(Google), Amazon, Apple, Meta (Facebook e Instagram, WhatsApp e Messenger,
Oculus Rift, visori di realtà virtuale), Microsoft, Nvidia, Tesla. Una vera e
propria élite di aziende che dominano il mercato globale. Con una ingente
disponibilità di risorse e potere di mercato tale da consentire enormi
investimenti. Come nel caso di Microsoft, tra i principali partner commerciali
di OpenAI, che ha annunciato un piano per ottenere energia elettrica necessaria
ai propri data center con la riapertura di uno dei reattori della centrale
nucleare di Three Mile Island, impianto in Pennsylvania diventato famoso alla
fine degli anni Settanta per il più grave incidente nucleare nella storia degli
Stati Uniti. Sopra tutti Elon Musk, che con i suoi asset principali come Tesla,
SpaceX e xAI (noto soprattutto per il chatbot Grok), è la persona più ricca al
mondo, con un patrimonio stimato di 428 miliardi di dollari.
SpaceX
è la società privata di maggiore valore, davanti a ByteDance (società madre di
Tik-Tok) e a OpenAI (sviluppatore di ChatGPT). Nella classifica dei
supermiliardari, dopo Musk, segue Jeff Bezos, fondatore e presidente di Amazon.
Altra faccia della stessa medaglia è il gap tecnologico dell’Europa rispetto ad
altri Stati come gli Stati Uniti o la Cina. Nel Rapporto Draghi sulla
competitività europea in relazione alle innovazioni tecnologiche dei sistemi di
IA si segnala che dal 2017 il 73% dei modelli di IA è stato sviluppato negli
Stati Uniti. Considerando le principali start-up a livello mondiale, il 61% dei
finanziamenti globali va ad imprese nate in Usa, il 17% a quelle cinesi e solo
il 6% a quelle dell'Ue. Di queste ultime, un terzo è migrata poi negli Stati
Uniti per poter incontrare un mercato dei capitali in grado di finanziarne
lo sviluppo. E merge una questione di sostenibilità dal punto di
vista etico, sociale e politico. Il Presidente della Repubblica Sergio
Mattarella alla XVII Conferenza delle Ambasciatrici e degli Ambasciatori
d’Italia, svolta il 16 dicembre 2024, ha parlato di «operatori internazionali
svincolati da ogni patria, la cui potenza finanziaria supera oggi quella di
Stati di media dimensione, e la cui gestione di servizi essenziali sfiora,
sovente, una condizione monopolistica». Concetto ribadito il giorno successivo
alla Cerimonia per lo scambio degli auguri di fine anno con i rappresentanti
delle istituzioni, delle forze politiche e della società civile: «La
concentrazione in pochissime mani di enormi capitali e del potere tecnologico,
così come il controllo accentrato dei dati – definibili come il nuovo petrolio
dell’era digitale – determinano una condizione di grave rischio. Gli effetti
sono evidenti. Pochi soggetti – non uno soltanto, come ci si azzarda a
interpretare – con immense disponibilità finanziarie. Grandi società che
dettano le loro condizioni ai mercati e – al di sopra dei confini e della
autorità degli Stati e delle Organizzazioni internazionali – tendono a sottrarsi
a qualsiasi regolamentazione». Insomma, poche aziende che hanno la possibilità
di reggere una sorta di IA globale del pianeta ( global repository of
intelligence).
Un
monopolio con un possesso illimitato di dati sensibili.
Una
vera e propria ingegneria sociale. Siamo al “capitalismo della
sorveglianza” di Shosana Zuboff. Ci si appropria
dell’esperienza umana usandola come materia prima da trasformare in dati
sui comportamenti per essere trasformati in prodotti predittivi. In un
orizzonte in cui avremo meno potere e controllo, nuove fonti d’ineguaglianza
divideranno le persone. In pochi saranno soggetti e in tanti oggetti. Una visione
che minaccia delicati sistemi di natura sociale come la democrazia e la
capacità di ogni persona di elaborare un giudizio morale autonomo. Emerge,
ancora una volta, un ineludibile e sostanziale interrogativo. Quale governance, ovvero
quale etica e regolamentazione per le innovazioni tecnologiche secondo uno
sviluppo umanocentrico? Come bilanciare innovazione e regolamentazione? Proprio
in questi giorni il Garante per la Protezione dei Dati Personali (GPDP) ha
adottato un provvedimento correttivo e sanzionatorio nei confronti di OpenAI
per il trattamento dei dati personali finalizzati all’addestramento
di ChatGPT, dopo istruttoria avviata nel 2023. In particolare, senza aver
prima individuato un’adeguata base giuridica e violando il principio di
trasparenza con i relativi obblighi informativi nei confronti degli utenti.
Inoltre, senza prevedere meccanismi per la verifica dell’età, emerge il rischio
di esporre i minori di 13 anni a risposte inidonee rispetto al loro grado di
sviluppo e autoconsapevolezza. Richiamando “Il crollo di Babele”, recente libro
di Paolo Benanti, attuale e non eccessiva risulta la necessità di definire guardrail etici
nelle democrazie computazionali. Sebbene a fronte delle circa 100 leggi sul
settore high tech e delle oltre 270 autorità di regolamentazione attive nelle
reti digitali in tutti gli Stati membri come emerge dal Rapporto Draghi.
La
peculiarità dell’uomo
È
proprio l’esigenza di una cooperazione che riconosca la peculiarità dell’essere
umano e delle sue capacità - servendosi delle tecnologie digitali per
ampliarle, non per restringerle rileva l’esigenza di uno sforzo comunitario per
un’etica applicata ai sistemi di IA. Tutelando diritti fondamentali e senza
voler significare un irrealistico neo-luddismo. Compito non certo facile vista
la sproporzione tra lentezza dei regolatori e velocità delle innovazioni
tecnologiche che ci fanno dire, con obiettiva certezza, che domani è già oggi.
Né tantomeno nell’accondiscendere la polarizzazione tra “apocalittici e
integrati”, tecnofobi e tecnofili. Ovvero tra coloro che hanno nei confronti
delle innovazioni tecnologiche un atteggiamento del tutto critico tale da
delineare un futuro distopico sottomesso alla tecnologia e gli altri, invece,
che vedono nei sistemi di IA la soluzione di ogni problema con una sorta di
totalitaria e fideistica delega tecnologica. Per approdare, secondo Ray
Kurzweil, ad una «singolarità sempre più vicina, quando l’umanità si unisce
all’IA». Posizioni che, nella loro radicalità, non rilevano la prioritaria
necessità: umanizzare i sistemi di IA passando dall’algocrazia (dominio degli
algoritmi) all’algoretica, nuovo grande capitolo dell’etica introdotto da P.
Benanti. Ovvero armonizzare le abilità dei sistemi computazionali con valori
etici. Algoretica non dice certo consapevolezza etica del sistema c.d.
intelligente, perché la macchina non è qualcuno dotato di capacità soggettiva.
«Non si tratta di dotare la macchina di una capacità di giudizio, cosa che è
impossibile, e nemmeno solo di surrogarla con guardrail etici. Si tratta anche
di creare uno spazio di critica sociale in cui sia possibile chiederci cosa
facciano gli algoritmi, che funzione abbiano».
È
l’orizzonte della visione umanocentrica dei sistemi di IA che Papa Francesco
pone come obiettivo. Richiamata al G7 presieduto dall’Italia nel giugno del
2024. «A volte, spesso nel difficile compito del governare, siamo chiamati a
decidere con conseguenze anche su molte persone. Da sempre la riflessione umana
parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno
in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle
macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver
ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i
toni drammatici e urgenti con cui a volte questa si presenta nella nostra
vita». È sfida di umanità. È tutela della democrazia rappresentativa.
*Coordinatore Osservatorio di Bioetica della Diocesi di Napoli, già senatore, membro del Comitato nazionale per la Bioetica e presidente nazionale di Scienza & Vita
www.avvenire.it
Nessun commento:
Posta un commento