domenica 28 dicembre 2025

QUALE REALTA' ?

 

 


L'erosione della realtà: la crisi dell'autenticità visiva causata dall'AI



-     Marco Giacalone

-          

L'intelligenza artificiale generativa ha innescato una crisi ontologica, erodendo lo statuto di verità dell'immagine e rendendo l'occhio umano un rilevatore inaffidabile. Questo editoriale analizza il fallimento percettivo come minaccia alla coesione sociale, la strategia di certificazione del vero e le implicazioni democratiche di un mondo popolato da immagini orfane di verità.

Per secoli, l'immagine ha svolto il ruolo di testimone silenzioso della storia, l'ancora di prova fattuale che sosteneva la cronaca e il dibattito pubblico. Quel ruolo è finito. La democratizzazione degli strumenti di intelligenza artificiale generativa, i modelli di diffusione, le reti GAN, non ha solo migliorato la grafica digitale; ha inferto un colpo mortale allo statuto di verità dell'immagine stessa. Il mondo sta assistendo al crollo del suo rivelatore più fidato: l'occhio umano.

Questo non è un problema tecnico, ma una crisi ontologica. L'autenticità visiva, un tempo garantita dalla percezione, è stata delegata all'algoritmo. Le creazioni sintetiche hanno raggiunto una risoluzione e un realismo tali che l'uomo non è più in grado di distinguere il genuino dal fabbricato. Quando la differenza tra verità e menzogna richiede una verifica computazionale, si è già perso qualcosa di fondamentale nel rapporto con la realtà. Si è verificato un vero e proprio fallimento percettivo su scala globale.

Le implicazioni di questo fallimento sono devastanti per la sfera pubblica. La proliferazione di contenuti visivi manipolati non è casuale; è una collateralità politica studiata. Immagini generate per diffamare, destabilizzare o ingannare possono influenzare elezioni, alterare mercati finanziari e corrodere il consenso in tempo reale. L'incapacità di un cittadino di fidarsi di ciò che vede si traduce inevitabilmente in un contagio di cinismo radicale. La sfiducia non colpisce solo il singolo medium, ma si estende alle istituzioni mediatiche e, per estensione, a quelle governative. L'AI ha armato l'arte dell'inganno.

È una beffa che i sistemi di rilevamento AI (i detector) nati per contrastare i deepfake siano per loro stessa natura destinati a fallire. I modelli generativi evolvono in modo esponenziale, rendendo obsoleto qualsiasi strumento di difesa non appena viene rilasciato. L'industria ne è consapevole e sta, giustamente, invertendo la rotta: si sta abbandonando l'utopia della detection per concentrarsi sulla provenienza digitale (provenance).

L'obiettivo non è più identificare il falso, ma certificare il vero. Standard di autenticità come C2PA rappresentano un tentativo cruciale di costruire una catena di fiducia crittografica per il contenuto digitale, dotando ogni file di un certificato di nascita che ne traccia l'origine e la storia delle manipolazioni. Ma la loro efficacia è subordinata all'adozione universale da parte di tutti i produttori di hardware e software, una missione titanica che è in ritardo rispetto all'inondazione di immagini generate e non etichettate. Finché questo non accadrà, il mondo sarà popolato da immagini orfane di verità.

L'aspetto più inquietante risiede, in ultima analisi, non nel danno arrecato alle macchine fotografiche, ma in quello inflitto alla cognizione umana. La costante esposizione alla menzogna visiva di massa non rende gli individui più scettici in senso critico, ma semplicemente più propensi a rifiutare ogni fatto scomodo. Questa dinamica distrugge la base di realtà condivisa necessaria per il dibattito pubblico e la coesione sociale.

Se l'intelligenza artificiale ha irrevocabilmente distrutto l'affidabilità di ciò che vediamo, la domanda che resta appesa è la più urgente ed è su quali basi fattuali si potrà ancora costruire la politica, la storia e la democrazia stessa.

L'epoca della verità garantita è finita.

 

Terza Notizia

 

Nessun commento:

Posta un commento