venerdì 25 agosto 2023

SENSO COMUNE e INTELLIGENZA ARTIFICIALE


 Il senso comune 

non abita in ChatGpt

L’impossibilità per i sistemi di IA di accedere al significato di quanto elaborano li rendi “disumani”.  L’alienazione di chi li deve addestrare acuisce il problema.

 Alla macchina manca il corpo, dunque il suo apprendimento si basa soltanto sulle parole.  Per ovviare a ciò non basta aumentare la quantità di testi, specialmente se sono generati da altri programmi IA

 

-         di VINCENZO AMBRIOLA

 «Papà, cos’è un sicomoro? » Molti di noi non saprebbero rispondere a questa domanda. Forse qualcuno sa che è un albero, per il passo evangelico di Zaccheo. E poi per aver letto L’ombra del sicomoro di John Grisham. I più cool potrebbero ricordarsi di Down by the sycamore tree, uno famoso brano jazz di Stan Getz. Ma quanti sarebbero in grado di riconoscere un sicomoro in un orto botanico? Nella nostra mente le parole sono collegate sia a esperienze vissute nel mondo reale tramite i cinque sensi che ad altre parole, in quella che costituisce un’enorme rete semantica gestita da miliardi di neuroni e sinapsi che li collegano. La parola sicomoro, se presente in questa rete, potrebbe essere collegata ai concetti di albero, libro o jazz. Ecco perché sapremmo rispondere a una bambina curiosa.

 L’intelligenza artificiale generativa, quella che sta alla base del funzionamento di ChatGpt e di tanti altri sistemi simili, funziona collegando le parole tra loro, con una fase di addestramento che richiede un’enorme quantità di testi. Le parole sono analizzate nelle frasi in cui compaiono, calcolando la probabilità che siano associate ad altre parole. Quando l’utente dialoga con il sistema di intelligenza artificiale, la risposta viene costruita usando la rete neurale presente al suo interno, parola dopo parola secondo un procedimento che usa anche un po’ di casualità. Formulata in due istanti diversi, la stessa domanda può dar luogo a una risposta diversa. La sostanziale differenza che esiste tra questi sistemi e la mente umana è l’assenza di informazioni che provengono dalla realtà e la totale dipendenza dalle parole usate durante il loro apprendimento. Praticamente è una conoscenza a-sensoriale combinata con una manipolazione delle parole (trattate come simboli astratti) prevalentemente statistica. L’interazione con la realtà è quindi ciò che caratterizza noi umani e che trasforma un continuo flusso informativo in conoscenza, codificata verbalmente. Gran parte di questa conoscenza costituisce il “senso comune”, un patrimonio trasmesso di generazione in generazione che ci consente di sopravvivere nell’ambiente che ci circonda e di interagire con gli altri esseri umani, condividendo il senso profondo delle parole. Parole che per noi non sono solo simboli, ma marcatori semantici della realtà. Da sempre il senso comune è stato ed è oggetto di studio e di ricerca. Lo sviluppo dell’informatica è strettamente legato ai tanti modi possibili di catturarlo e rappresentarlo nelle cosiddette ontologie e di usarlo nei sistemi di ragionamento automatico deduttivo, induttivo e abduttivo. Dai tempi di Aristotele, la logica rappresenta la massima sfida concettuale per l’umanità.

 «Possiamo sapere più di quanto possiamo dire», così scriveva Michael Polanyi nel saggio La conoscenza inespressa del 1966, in cui presentava la sua ricerca sulla conoscenza implicita o tacita. In un periodo fortemente influenzato da un approccio razionalista, dalla nascita dei calcolatori elettronici e dalle idee di Alan Turing, Polanyi metteva in discussione la possibilità che un essere umano potesse avere un completo ed esplicito controllo di tutto ciò che conosceva. Una posizione forte e ortodossa, che rigettava il progetto di codificare formalmente la conoscenza per poi usarla in un ambito computazionale.

 I sistemi di intelligenza artificiale generativa non possiedono l’equivalente del senso comune né, tantomeno, una conoscenza implicita di ciò che hanno imparato. A loro il senso comune non servirebbe per la sopravvivenza e, soprattutto, non può essere acquisito mediante un apparato sensoriale di cui sono privi. Imparano solo mediante le parole usate nella fase di addestramento e interagiscono con gli umani solo mediante queste parole. Non sono in grado di farci commuovere con uno sguardo o tranquillizzarci con una carezza. Per fare ciò dovrebbero avere un corpo, ma allora sarebbero dei robot e non dei bot conversazionali. In un recente articolo, Christopher Richardson e Larry Heck descrivono lo stato dell’arte dei progetti di ricerca che hanno l’obiettivo di aggiungere il senso comune nei sistemi di intelligenza artificiale generativa. La conclusio-ne, negativa, di questo studio non lascia dubbi quando afferma che «gli attuali sistemi esibiscono limitate capacità di ragionamento basato sul senso comune ed effetti negativi sulle interazioni naturali». Addestrare un sistema IA usando una grande quantità di testi non è sufficiente. La rete neurale al suo interno può essere confusa da relazioni tra parole che producono risposte senza alcun senso (comune), chiamate anche allucinazioni. Si rende necessaria un’ulteriore attività di addestramento. In numerose parti del mondo (Kenya, Nepal, Malesia, Filippine, India), centinaia di migliaia di individui passano la loro giornata davanti allo schermo di un computer, interagendo con il sistema, correggendo le sue risposte, identificando le allucinazioni. Un lavoro noioso e ripetitivo, spesso sottopagato e ai limiti della sopravvivenza economica. Nel 2007, Fei Fei Li, allora professoressa a Princeton ed esperta in IA, dichiarò che per migliorare la qualità del riconoscimento delle immagini sarebbe stato necessario etichettarne manualmente milioni e non qualche decine di migliaia. Aveva ragione e la sua strategia ha causato una nuova primavera per l’intelligenza artificiale.

 La natura dell’uomo vuole la persona al controllo delle macchine e non assoggettata al loro dominio. Un gruppo di ricercatori della Rice University ha recentemente scoperto che gli umani incaricati di addestrare i sistemi IA, per alleggerire un procedimento operativo ripetitivo e noioso, utilizzano, però, proprio questi stessi sistemi, violando in un certo senso le indicazioni ricevute. In pratica, le indicazioni fornite dagli addestratori sono generate “sinteticamente” dai sistemi che loro stessi stanno addestrando, in ciò che metaforicamente possiamo chiamare un “incesto informatico” che potrebbe lentamente degradare la qualità della rete neurale addestrata. Lo stesso problema si incontra quando si crea un nuovo sistema IA, utilizzando testi provenienti da internet, sempre più generati da altri sistemi AI.

 L’intelligenza artificiale generativa è ancora nella sua primissima infanzia e, come tale, è destinata a crescere ed evolvere. L’addestramento basato su testi prodotti da umani la rende inevitabilmente simile all’uomo. L’enorme potenza di calcolo ce la fa percepire come sovrumana, quando ad esempio riesce a svolgere compiti che per noi sarebbero inconcepibili in termini di quantità di calcoli. L’assenza di senso comune ne rivela, tuttavia, l’intrinseca e inevitabile disumanità. Al momento attuale l’ipotesi più probabile è che l’AI diventi sempre più sovrumana (aumento della conoscenza e delle prestazioni) ma anche sempre meno disumana (evoluzione degli algoritmi, gestione del senso). Sullo sfondo resta l’ipotesi che a un certo punto possa emergere una qualche forma di coscienza artificiale che la renderebbe addirittura autonoma.

 www.avvenire.it

 

Nessun commento:

Posta un commento