Ci stiamo ammalando
di epistemia,
l'illusione
di sapere cose
solo perché
l'AI le
scrive bene
L'intelligenza artificiale è molto brava a farci credere di sapere cose che non sa.
E noi ci stiamo convincendo di conoscerle,
mentre ci affidiamo a risposte che suonano
bene
-di
Luca Zorloni
C'era una volta l'episteme. La vera conoscenza, secondo i filosofi dell'antica Grecia. Oggi ci ritroviamo invece con l'epistemia. Che della conoscenza è un'illusione. Una sorta di specchio della realtà deformato da una fede cieca nelle risposte dei grandi modelli linguistici (Llm) alle nostre domande. Giudizi. Valutazioni. Classificazioni di fonti. Azioni di discernimento che deleghiamo ai modelli di AI. E fin qui, tutto lecito. Il problema insorge quando riceviamo la risposta. Quanto la prendiamo per buona?
Qui
si colloca il bivio tra episteme ed epistemia. Tra conoscenza e
illusione. Perché gli Llm non sono progettati per effettuare verifiche
sostanziali, ma per generare una risposta che sia plausibile dal punto di vista linguistico. Il loro scopo, in
fondo, è questo. Restituire un output che “suoni” bene. Al netto che sia vero o
falso. Se quel risultato non viene verificato da chi delega all'AI un pezzo del
suo lavoro, ecco che succede il patatrac.
È
qualcosa che ricorda molto da vicino il confronto tra Socrate e i sofisti nell'Atene
del quinto secolo. Di questi uno degli esponenti di spicco era Gorgia. Il quale
sosteneva che nulla esiste, che se anche esistesse non sarebbe conoscibile e se
anche fosse conoscibile, non sarebbe comunicabile. L'AI fa un po' il contrario,
perché può comunicare tutto, pur senza conoscerlo. Alla fine, però,
l'esito è lo stesso. Un esercizio di persuasione che si fonda sulla
capacità di costruire un discorso plausibile, non vero.
Lo
studio italiano
Un
recente studio pubblicato su Pnas e condotto da un team di
ricerca guidato da Walter Quattrociocchi, docente dell'università La Sapienza
di Roma e al timone del Center of data science and complexity for society, ha
analizzato per la prima volta in modo sistematico come sei modelli
linguistici di ultima generazione, tra cui ChatGPT di OpenAI, Gemini di
Google o Llama di Meta, “operazionalizzano il concetto di affidabilità".
Come si legge nella nota che annunciava la pubblicazione del progetto, "il
lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed
esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per
tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è
sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”.
In
una parola, l'epistemia. Se dovessi scegliere, è questa per me la parola dell'anno.
Perché identifica questa nuova stagione della nostra società dominata
dalla costruzione di una impressione di conoscenza che sta in piedi
perché non si sa, perché non si sa delegare all'AI e perché non si sa
controllare e verificare il risultato. Ci si bea, in compenso, di una risposta
cucita talmente bene da illuderci di non poter essere che vera. L'AI ci renderà
più stupidi se vorremo cullarci nella stupidità indotta. Se ci accontenteremo
della prima risposta del chatbot, senza considerare i meccanismi probabilistici
che governano il funzionamento dei grandi modelli linguistici.
Come
reagire?
Le
conclusioni dello studio condotto dal team di Quattrociocchi non identificano
solo il problema, ma indicano anche la soluzione. Che è saperne di più
dell'AI a cui ci affidiamo. Delegare la navigazione solo se si conosce la
rotta, la destinazione, gli scogli che affiorano. O se si hanno gli strumenti
per comprendere se, circondati dalla nebbia, si sta viaggiando nella giusta
direzione. L'impiego dell'AI richiede di alzare il nostro livello di
conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un lato, rispetto alla
capacità di utilizzare gli strumenti di intelligenza artificiale, di saperne
distinguere i risultati, i meccanismi di funzionamento e quindi i punti di
forza e quelli di debolezza. Dall'altro, rispetto alle materie su cui chiedono
all'AI di sostituirci a noi.
Alla
fine, quando si parla degli effetti della tecnologia sul sapere, torniamo
sempre al punto di partenza. Che fake news, deepfake, epistemia si disinnescano
non tanto con etichette posticce o filigrane, ma coltivando lo spirito critico,
investendo sulla formazione, allenando la mente a non cadere nei tranelli
di una conoscenza superficiale. È una buona notizia, se volete, che
ridimensiona gli allarmi delle trombe dell'Apocalisse. Ma è anche una
consapevolezza che sposta il fuoco della trasformazione dall'AI a noi stessi. E
ci inchioda alle nostre responsabilità. Sapremo uscirne migliori?
Immagine: Il pensatore di Auguste RodinGABRIEL BOUYS/AFP via Getty Images
Nessun commento:
Posta un commento