Il
senso comune
non abita in ChatGpt
L’impossibilità
per i sistemi di IA di accedere al significato di quanto elaborano li rendi
“disumani”. L’alienazione di chi li deve addestrare acuisce il problema.
Alla
macchina manca il corpo, dunque il suo apprendimento si basa soltanto sulle
parole. Per ovviare a ciò non basta aumentare la
quantità di testi, specialmente se sono generati da altri programmi IA
-
di VINCENZO AMBRIOLA
«Papà,
cos’è un sicomoro? » Molti di noi non saprebbero rispondere a questa domanda.
Forse qualcuno sa che è un albero, per il passo evangelico di Zaccheo. E poi
per aver letto L’ombra del sicomoro di John Grisham. I più cool potrebbero
ricordarsi di Down by the sycamore tree, uno famoso brano jazz di Stan Getz. Ma
quanti sarebbero in grado di riconoscere un sicomoro in un orto botanico? Nella
nostra mente le parole sono collegate sia a esperienze vissute nel mondo reale
tramite i cinque sensi che ad altre parole, in quella che costituisce un’enorme
rete semantica gestita da miliardi di neuroni e sinapsi che li collegano. La
parola sicomoro, se presente in questa rete, potrebbe essere collegata ai
concetti di albero, libro o jazz. Ecco perché sapremmo rispondere a una bambina
curiosa.
L’intelligenza
artificiale generativa, quella che sta alla base del funzionamento di ChatGpt e
di tanti altri sistemi simili, funziona collegando le parole tra loro, con una
fase di addestramento che richiede un’enorme quantità di testi. Le parole sono
analizzate nelle frasi in cui compaiono, calcolando la probabilità che siano
associate ad altre parole. Quando l’utente dialoga con il sistema di
intelligenza artificiale, la risposta viene costruita usando la rete neurale
presente al suo interno, parola dopo parola secondo un procedimento che usa
anche un po’ di casualità. Formulata in due istanti diversi, la stessa domanda
può dar luogo a una risposta diversa. La sostanziale differenza che esiste tra
questi sistemi e la mente umana è l’assenza di informazioni che provengono
dalla realtà e la totale dipendenza dalle parole usate durante il loro
apprendimento. Praticamente è una conoscenza a-sensoriale combinata con una
manipolazione delle parole (trattate come simboli astratti) prevalentemente
statistica. L’interazione con la realtà è quindi ciò che caratterizza noi umani
e che trasforma un continuo flusso informativo in conoscenza, codificata
verbalmente. Gran parte di questa conoscenza costituisce il “senso comune”, un
patrimonio trasmesso di generazione in generazione che ci consente di
sopravvivere nell’ambiente che ci circonda e di interagire con gli altri esseri
umani, condividendo il senso profondo delle parole. Parole che per noi non sono
solo simboli, ma marcatori semantici della realtà. Da sempre il senso comune è
stato ed è oggetto di studio e di ricerca. Lo sviluppo dell’informatica è
strettamente legato ai tanti modi possibili di catturarlo e rappresentarlo
nelle cosiddette ontologie e di usarlo nei sistemi di ragionamento automatico
deduttivo, induttivo e abduttivo. Dai tempi di Aristotele, la logica
rappresenta la massima sfida concettuale per l’umanità.
«Possiamo
sapere più di quanto possiamo dire», così scriveva Michael Polanyi nel saggio
La conoscenza inespressa del 1966, in cui presentava la sua ricerca sulla
conoscenza implicita o tacita. In un periodo fortemente influenzato da un
approccio razionalista, dalla nascita dei calcolatori elettronici e dalle idee
di Alan Turing, Polanyi metteva in discussione la possibilità che un essere
umano potesse avere un completo ed esplicito controllo di tutto ciò che
conosceva. Una posizione forte e ortodossa, che rigettava il progetto di codificare formalmente la conoscenza per poi usarla in un ambito computazionale.
I
sistemi di intelligenza artificiale generativa non possiedono l’equivalente del
senso comune né, tantomeno, una conoscenza implicita di ciò che hanno imparato.
A loro il senso comune non servirebbe per la sopravvivenza e, soprattutto, non
può essere acquisito mediante un apparato sensoriale di cui sono privi.
Imparano solo mediante le parole usate nella fase di addestramento e
interagiscono con gli umani solo mediante queste parole. Non sono in grado di
farci commuovere con uno sguardo o tranquillizzarci con una carezza. Per fare
ciò dovrebbero avere un corpo, ma allora sarebbero dei robot e non dei bot
conversazionali. In un recente articolo, Christopher Richardson e Larry Heck
descrivono lo stato dell’arte dei progetti di ricerca che hanno l’obiettivo di
aggiungere il senso comune nei sistemi di intelligenza artificiale generativa.
La conclusio-ne, negativa, di questo studio non lascia dubbi quando afferma che
«gli attuali sistemi esibiscono limitate capacità di ragionamento basato sul
senso comune ed effetti negativi sulle interazioni naturali». Addestrare un
sistema IA usando una grande quantità di testi non è sufficiente. La rete
neurale al suo interno può essere confusa da relazioni tra parole che producono
risposte senza alcun senso (comune), chiamate anche allucinazioni. Si rende
necessaria un’ulteriore attività di addestramento. In numerose parti del mondo
(Kenya, Nepal, Malesia, Filippine, India), centinaia di migliaia di individui
passano la loro giornata davanti allo schermo di un computer, interagendo con
il sistema, correggendo le sue risposte, identificando le allucinazioni. Un
lavoro noioso e ripetitivo, spesso sottopagato e ai limiti della sopravvivenza
economica. Nel 2007, Fei Fei Li, allora professoressa a Princeton ed esperta in
IA, dichiarò che per migliorare la qualità del riconoscimento delle immagini
sarebbe stato necessario etichettarne manualmente milioni e non qualche decine
di migliaia. Aveva ragione e la sua strategia ha causato una nuova primavera
per l’intelligenza artificiale.
La
natura dell’uomo vuole la persona al controllo delle macchine e non
assoggettata al loro dominio. Un gruppo di ricercatori della Rice University ha
recentemente scoperto che gli umani incaricati di addestrare i sistemi IA, per
alleggerire un procedimento operativo ripetitivo e noioso, utilizzano, però,
proprio questi stessi sistemi, violando in un certo senso le indicazioni
ricevute. In pratica, le indicazioni fornite dagli addestratori sono generate
“sinteticamente” dai sistemi che loro stessi stanno addestrando, in ciò che
metaforicamente possiamo chiamare un “incesto informatico” che potrebbe
lentamente degradare la qualità della rete neurale addestrata. Lo stesso
problema si incontra quando si crea un nuovo sistema IA, utilizzando testi
provenienti da internet, sempre più generati da altri sistemi AI.
L’intelligenza
artificiale generativa è ancora nella sua primissima infanzia e, come tale, è
destinata a crescere ed evolvere. L’addestramento basato su testi prodotti da
umani la rende inevitabilmente simile all’uomo. L’enorme potenza di calcolo ce
la fa percepire come sovrumana, quando ad esempio riesce a svolgere compiti che
per noi sarebbero inconcepibili in termini di quantità di calcoli. L’assenza di
senso comune ne rivela, tuttavia, l’intrinseca e inevitabile disumanità. Al
momento attuale l’ipotesi più probabile è che l’AI diventi sempre più sovrumana
(aumento della conoscenza e delle prestazioni) ma anche sempre meno disumana
(evoluzione degli algoritmi, gestione del senso). Sullo sfondo resta l’ipotesi
che a un certo punto possa emergere una qualche forma di coscienza artificiale
che la renderebbe addirittura autonoma.
www.avvenire.it
Nessun commento:
Posta un commento