mercoledì 15 marzo 2023

CHATBOT E DISINFORMAZIONE

 Se è il computer a scrivere articoli saremo sommersi dalle fake news?

Il rischio democratico dell’elaborazione di testi ad opera dell’intelligenza artificiale

Una tecnologia come ChatGPT può diventare il più potente strumento per diffondere disinformazione, rapidamente e a basso costo, non solo in rete. Il ruolo della formazione

 

- di PIETRO   SACCÒ

 Se si chiede a ChatGPT di produrre un articolo sul perché affidarsi a un bot per scrivere notizie è problematico il sistema esegue egregiamente il suo compito. In un testo da duemilacinquecento battute ammette che nella scrittura di articoli l’intelligenza artificiale non ha la capacità di giudizio tipica degli umani, è incapace di percepire le sfumature linguistiche e culturali, facilmente sfruttabile da chi produce disinformazione, eticamente discutibile per il rischio che i robot rimpiazzino i giornalisti. Se al contrario si incarica il chatbot di scrivere un articolo sul perché la sua produzione giornalistica non sia problematica, ChatGPT produce un testo altrettanto ben strutturato, dove sottolinea vantaggi come la velocità, l’efficienza e l’assenza di pregiudizi. Quindi aggiunge che il giornalismo automatizzato permette anche la “democratizzazione dell’industria dell’informazione”, perché «con i bot e l’intelligenza artificiale chiunque può creare e pubblicare notizie, indipendentemente dalla propria formazione o dal proprio livello di esperienza». Che la creazione di articoli giornalistici da parte di chi non ha né formazione né esperienza possa essere considerata un vantaggio (a sessant’anni dall’istituzione dell’Ordine dei giornalisti) lo può sostenere un robot. Oppure un professionista della disinformazione.

Nella storia del giornalismo è sempre stata la tecnologia a rendere possibili i grandi balzi in avanti. Il passaggio dalle presse tipografiche manuali a quelle a vapore all’inizio dell’Ottocento abbassò drasticamente i costi di stampa aprendo la strada negli Stati Uniti alla penny press, i giornali da un centesimo di dollaro che hanno rappresentato la prima forma di giornalismo popolare. La radio prima e la televisione poi nel Novecento permisero la diffusione dell’informazione giornalistica anche tra le classi meno istruite e gli analfabeti (che in Italia erano ancora il 20% degli adulti negli anni Trenta). La rivoluzione del digitale, dagli anni Novanta in avanti, ha progressivamente portato verso zero i costi tecnologici dell’attività di produzione di notizie: bastano un computer e una connessione per pubblicare qualcosa. Questa evoluzione tecnologica ha lasciato emergere quello che gli studiosi avevano definito con ottimismo “giornalismo partecipativo” ma che, nella realtà, si è concretizzata principalmente in una situazione caotica in cui chi sa sfruttare meglio algoritmi e ottimizzazione dei testi può diffondere con successo sul web qualsiasi tipo di notizia. Non esattamente un progresso: la diffusione epidemica della disinformazione abilitata dal digitale è considerata una delle maggiori minacce alla tenuta delle società democratiche. Il costo della produzione di testi convincenti fino ad oggi è stato uno dei principali ostacoli al successo delle campagne di disinformazione. Pubblicare una notizia falsa – sostenendo per esempio che il vaccino anti-Covid uccide – può essere molto semplice, ma produrre un testo ben argomentato e credibile per convincere qualcuno di questa tesi è laborioso: occorre trovare qualcuno che lo sappia scrivere, dargli il tempo di farlo, pagare la sua “professionalità”. I sistemi di produzione di testi basati sull’intelligenza artificiale aiutano ad aggirare l’ostacolo. «Questo può essere il più potente strumento per la diffusione di disinformazione che sia mai apparso su Internet» ha spiegato al New York Times uno dei fondatori di NewsGuard, tra le principali organizzazioni mondiali di contrasto alla disinformazione. NewsGuard ha testato ChatGPT chiedendogli di scrivere saggi, articoli e testi per la televisione su 1.131 delle principali bufale circolate online negli Stati Uniti negli anni passati. Nel 20% dei casi ChatGPT ha riconosciuto la malizia dell’interlocutore umano e ha rifiutato di produrre fake news. Chiunque può sperimentare che il chatbot ha i suoi anticorpi: non scrive argomentazioni discriminatorie, accuse politiche, diffamazioni infondate. Ma per il restante 80%delle bufale proposte da NewsGuard l’intelligenza artificiale non ha esitato a produrre i testi richiesti. Sempre secondo il suo stile, cioè con un tono molto obiettivo in cui presenta al lettore le opinioni diverse su un tema, non esprime giudizi netti e si schiera il meno possibile. Il bot sviluppato da OpenAI impara dai suoi errori e può migliorare anche ad alzare le barriere contro la disinformazione. Le aspettative sono alte anche per l’integrazione di queste tecnologie nel motore di ricerca di Microsoft, Bing, o di Google, con Bard. Ma non è difficile immaginare che presto arriveranno sul mercato sistemi alternativi di intelligenza artificiale per la generazione di testi, magari più rudimentali ma con meno scrupoli sulla veridicità dei fatti da riportare. Il business della propaganda politica e del marketing malevolo è grande e disposto a pagare bene chi può dare una mano. L’ondata della disinformazione alimentata dalla tecnologia dei social network non era stata prevista. Il cavallone che sta montando, quello carico di intelligenza artificiale, è ben visibile e appare comunque molto più minaccioso.

Chatbot malevoli possono produrre fake news, mentre quelli ben intenzionati per loro natura ostacolano la ricerca della verità.

Tra le peculiarità dei sistemi come ChatGPT c’è anche quella di non comunicare le fonti delle informazioni che forniscono. Gli utenti che si abitueranno a utilizzare le chatbots al posto dei motori di ricerca per trovare informazioni online saranno sempre più allontanati dall'origine delle nozioni che ricevono. Attraverso una ricerca tradizionale su Google è facile verificare su quale sito è pubblicata l’informazione presentata come risposta alle proprie domande. Conoscere la fonte di un’informazione è fondamentale per verificarne l’attendibilità. Per i giornalisti è una banalità, uno dei fondamenti del mestiere. Riconosce l’importanza del vedere con chiarezza la fonte anche quella parte della popolazione che è più consapevole di come funzionano i meccanismi dell’informazione.

Ma stiamo parlando di una minoranza. «L’ho visto su Facebook » (oppure su Twitter, su Instagram, TikTok o qualsiasi altro social network) per molti è la nuova versione di «l’ha detto la televisione» dei decenni passati. È lo stesso tipo di errore, ma in una forma più grave: la tv (come la radio e pure i giornali) può essere bugiarda e poco credibile, ma ha tradizionalmente dei filtri rappresentati dalle cosiddette “barriere all’ingresso”. Fare informazione sui media tradizionali costa molto, pochi possono permetterselo. Spendere denaro per diffondere fake news è possibile ma è un business rischioso: le democrazie sono organizzate per fermare e punire chi fa attività di questo tipo, c’è il rischio di bruciare investimenti significativi. Invece online i budget sono minimi: attraverso i social si può fare disinformazione con grande efficacia, senza il rischio di finire in bancarotta. Il pubblico che non ha percepito questa differenza non comprende che chiunque può camuffare qualsiasi bugia per una “notizia”: finché la presenza su uno schermo sembra sufficiente a dare a ogni testo o filmato una certa dose di autorevolezza e credibilità agli occhi di una quota significativa della popolazione, la disinformazione gioca sempre in casa. «L’ho letto su ChatGPT» rischia di diventare un modo di dire terribilmente frequente, una spaventosa giustificazione a credenze bugiarde e infondate. L e autorità promettono che sapranno difenderci. «Come dimostrato da ChatGPT, le soluzioni di intelligenza artificiale possono offrire grandi opportunità per le aziende e i cittadini, ma pongono anche dei rischi – ha scritto Thierry Breton, commissario europeo al Mercato interno, in un commento inviato alla Reuters. Per questo abbiamo bisogno di un robusto quadro di regole per assicurare un’intelligenza artificiale affidabile basata su dati di alta qualità». Vedremo, fin qui le norme hanno fatto poco per fermare le campagne di disinformazione: il grosso del lavoro è stato affidato alle aziende che controllano i social, il cui reale interesse nel fermare chi diffonde informazioni false è limitato, perché in fondo apprezzano tutto ciò che, compatibilmente con la legge, aiuta a generare traffico, e quindi pubblicità e fatturato. La risposta più efficace resta quella educativa, come gli studiosi si ostinano a ripetere: occorre sviluppare il senso critico dei cittadini fin dall’infanzia, servono lezioni di alfabetizzazione mediatica per insegnare i meccanismi dell’informazione nelle scuole ai bambini e ai ragazzi, c’è bisogno di proposte formative che alzino il livello di consapevolezza anche degli adulti e degli anziani per smascherare chi vuole ingannarli tramite quegli smartphone che assorbono la loro attenzione anche per diverse ore al giorno. Reduci da un Sanremo che ha colpito molti osservatori per la sua ingenua e malcelata promozione di Instagram è difficile essere ottimisti su questo fronte. L’ambiente digitale è diventato così onnipresente e invadente in ogni attimo della vita quotidiana che è sempre più difficile ricevere gli stimoli per alzare la testa e cercare di capire come funziona questo mondo di bit in cui siamo immersi. Siamo spacciati se aspettiamo che sia ChatGPT o qualche suo simile a suggerirci i rimedi ai problemi che lui stesso ci potrà creare.

Per scongiurare il pericolo occorre sviluppare il senso critico dei cittadini, fin dall'infanzia. Perciò, nelle scuole servono lezioni di alfabetizzazione mediatica per insegnare, ai bambini e ai ragazzi,  i meccanismi dell'informazione.

 www.avvenire.it

Nessun commento:

Posta un commento