Il rischio democratico dell’elaborazione di testi ad opera dell’intelligenza artificiale
Una tecnologia come ChatGPT può diventare il più potente strumento per diffondere disinformazione, rapidamente e a basso costo, non solo in rete. Il ruolo della formazione
-
di PIETRO SACCÒ
Nella
storia del giornalismo è sempre stata la tecnologia a rendere possibili i
grandi balzi in avanti. Il passaggio dalle presse tipografiche manuali a quelle
a vapore all’inizio dell’Ottocento abbassò drasticamente i costi di stampa
aprendo la strada negli Stati Uniti alla penny press, i giornali da un
centesimo di dollaro che hanno rappresentato la prima forma di giornalismo
popolare. La radio prima e la televisione poi nel Novecento permisero la
diffusione dell’informazione giornalistica anche tra le classi meno istruite e
gli analfabeti (che in Italia erano ancora il 20% degli adulti negli anni
Trenta). La rivoluzione del digitale, dagli anni Novanta in avanti, ha
progressivamente portato verso zero i costi tecnologici dell’attività di
produzione di notizie: bastano un computer e una connessione per pubblicare
qualcosa. Questa evoluzione tecnologica ha lasciato emergere quello che gli
studiosi avevano definito con ottimismo “giornalismo partecipativo” ma che,
nella realtà, si è concretizzata principalmente in una situazione caotica in
cui chi sa sfruttare meglio algoritmi e ottimizzazione dei testi può diffondere
con successo sul web qualsiasi tipo di notizia. Non esattamente un progresso:
la diffusione epidemica della disinformazione abilitata dal digitale è
considerata una delle maggiori minacce alla tenuta delle società democratiche.
Il costo della produzione di testi convincenti fino ad oggi è stato uno dei
principali ostacoli al successo delle campagne di disinformazione. Pubblicare
una notizia falsa – sostenendo per esempio che il vaccino anti-Covid uccide –
può essere molto semplice, ma produrre un testo ben argomentato e credibile per
convincere qualcuno di questa tesi è laborioso: occorre trovare qualcuno che lo
sappia scrivere, dargli il tempo di farlo, pagare la sua “professionalità”. I
sistemi di produzione di testi basati sull’intelligenza artificiale aiutano ad
aggirare l’ostacolo. «Questo può essere il più potente strumento per la diffusione
di disinformazione che sia mai apparso su Internet» ha spiegato al New York
Times uno dei fondatori di NewsGuard, tra le principali organizzazioni mondiali
di contrasto alla disinformazione. NewsGuard ha testato ChatGPT chiedendogli di
scrivere saggi, articoli e testi per la televisione su 1.131 delle principali
bufale circolate online negli Stati Uniti negli anni passati. Nel 20% dei casi
ChatGPT ha riconosciuto la malizia dell’interlocutore umano e ha rifiutato di
produrre fake news. Chiunque può sperimentare che il chatbot ha i suoi
anticorpi: non scrive argomentazioni discriminatorie, accuse politiche,
diffamazioni infondate. Ma per il restante 80%delle bufale proposte da
NewsGuard l’intelligenza artificiale non ha esitato a produrre i testi richiesti.
Sempre secondo il suo stile, cioè con un tono molto obiettivo in cui presenta
al lettore le opinioni diverse su un tema, non esprime giudizi netti e si
schiera il meno possibile. Il bot sviluppato da OpenAI impara dai suoi errori e
può migliorare anche ad alzare le barriere contro la disinformazione. Le
aspettative sono alte anche per l’integrazione di queste tecnologie nel motore
di ricerca di Microsoft, Bing, o di Google, con Bard. Ma non è difficile
immaginare che presto arriveranno sul mercato sistemi alternativi di
intelligenza artificiale per la generazione di testi, magari più rudimentali ma
con meno scrupoli sulla veridicità dei fatti da riportare. Il business della
propaganda politica e del marketing malevolo è grande e disposto a pagare bene
chi può dare una mano. L’ondata della disinformazione alimentata dalla
tecnologia dei social network non era stata prevista. Il cavallone che sta
montando, quello carico di intelligenza artificiale, è ben visibile e appare
comunque molto più minaccioso.
Chatbot
malevoli possono produrre fake news, mentre quelli ben intenzionati per loro
natura ostacolano la ricerca della verità.
Tra
le peculiarità dei sistemi come ChatGPT c’è anche quella di non comunicare le
fonti delle informazioni che forniscono. Gli utenti che si abitueranno a
utilizzare le chatbots al posto dei motori di ricerca per trovare informazioni
online saranno sempre più allontanati dall'origine delle nozioni che ricevono.
Attraverso una ricerca tradizionale su Google è facile verificare su quale sito
è pubblicata l’informazione presentata come risposta alle proprie domande.
Conoscere la fonte di un’informazione è fondamentale per verificarne
l’attendibilità. Per i giornalisti è una banalità, uno dei fondamenti del
mestiere. Riconosce l’importanza del vedere con chiarezza la fonte anche quella
parte della popolazione che è più consapevole di come funzionano i meccanismi
dell’informazione.
Ma
stiamo parlando di una minoranza. «L’ho visto su Facebook » (oppure su Twitter,
su Instagram, TikTok o qualsiasi altro social network) per molti è la nuova
versione di «l’ha detto la televisione» dei decenni passati. È lo stesso tipo
di errore, ma in una forma più grave: la tv (come la radio e pure i giornali)
può essere bugiarda e poco credibile, ma ha tradizionalmente dei filtri
rappresentati dalle cosiddette “barriere all’ingresso”. Fare informazione sui
media tradizionali costa molto, pochi possono permetterselo. Spendere denaro
per diffondere fake news è possibile ma è un business rischioso: le democrazie
sono organizzate per fermare e punire chi fa attività di questo tipo, c’è il
rischio di bruciare investimenti significativi. Invece online i budget sono
minimi: attraverso i social si può fare disinformazione con grande efficacia,
senza il rischio di finire in bancarotta. Il pubblico che non ha percepito
questa differenza non comprende che chiunque può camuffare qualsiasi bugia per
una “notizia”: finché la presenza su uno schermo sembra sufficiente a dare a
ogni testo o filmato una certa dose di autorevolezza e credibilità agli occhi
di una quota significativa della popolazione, la disinformazione gioca sempre
in casa. «L’ho letto su ChatGPT» rischia di diventare un modo di dire
terribilmente frequente, una spaventosa giustificazione a credenze bugiarde e
infondate. L e autorità promettono che sapranno difenderci. «Come dimostrato da
ChatGPT, le soluzioni di intelligenza artificiale possono offrire grandi
opportunità per le aziende e i cittadini, ma pongono anche dei rischi – ha
scritto Thierry Breton, commissario europeo al Mercato interno, in un commento
inviato alla Reuters. Per questo abbiamo bisogno di un robusto quadro di regole
per assicurare un’intelligenza artificiale affidabile basata su dati di alta
qualità». Vedremo, fin qui le norme hanno fatto poco per fermare le campagne di
disinformazione: il grosso del lavoro è stato affidato alle aziende che
controllano i social, il cui reale interesse nel fermare chi diffonde
informazioni false è limitato, perché in fondo apprezzano tutto ciò che, compatibilmente
con la legge, aiuta a generare traffico, e quindi pubblicità e fatturato. La
risposta più efficace resta quella educativa, come gli studiosi si ostinano a
ripetere: occorre sviluppare il senso critico dei cittadini fin dall’infanzia,
servono lezioni di alfabetizzazione mediatica per insegnare i meccanismi
dell’informazione nelle scuole ai bambini e ai ragazzi, c’è bisogno di proposte
formative che alzino il livello di consapevolezza anche degli adulti e degli
anziani per smascherare chi vuole ingannarli tramite quegli smartphone che
assorbono la loro attenzione anche per diverse ore al giorno. Reduci da un
Sanremo che ha colpito molti osservatori per la sua ingenua e malcelata
promozione di Instagram è difficile essere ottimisti su questo fronte.
L’ambiente digitale è diventato così onnipresente e invadente in ogni attimo
della vita quotidiana che è sempre più difficile ricevere gli stimoli per
alzare la testa e cercare di capire come funziona questo mondo di bit in cui
siamo immersi. Siamo spacciati se aspettiamo che sia ChatGPT o qualche suo
simile a suggerirci i rimedi ai problemi che lui stesso ci potrà creare.
Per scongiurare il pericolo occorre sviluppare il senso critico dei cittadini, fin dall'infanzia. Perciò, nelle scuole servono lezioni di alfabetizzazione mediatica per insegnare, ai bambini e ai ragazzi, i meccanismi dell'informazione.
Nessun commento:
Posta un commento