(MANTENERE TERRESTRE IL DIGITALE)
La realtà non è eliminabile, ma si
pensi alla carne dell’umanità
Il subbuglio nel mondo delle
intelligenze artificiali (AI), da Paolo Benanti efficacemente riportato su
“Avvenire” del 30 marzo scorso, merita di essere ripreso, per l’inedita
richiesta di un pit stop nella corsa all’IA che è venuto da un
nutrito gruppo tra i maggiori attori del settore, a cominciare da Elon Musk,
preoccupati dell’immaturità tecnologica dei sistemi di controlli sugli effetti
sociali di queste tecnologie. Richiesta che se non è una furbata di chi sta
indietro nello sviluppo della IA rispetto ad altri (non tutti, infatti, vi
hanno aderito) testimonia un minimo di prudenza tra i suoi grandi protagonisti
nonostante gli enormi interessi economici e commerciali in gioco (e politici e
militari); tali da far stimare gli investimenti in campo paragonabili solo a
quelli per il progetto Apollo per la “conquista” della Luna.
Ora la domanda è: a quale allunaggio,
su quale società, ci preparano oggi le tecnologie dell’intelligenza
artificiale? Che pare abbiano capacità “agentive”, cioè di azioni di calcolo in
proprio non previste dai loro programmatori e addestratori, come si legge nel
documento di rilascio di quella più avanzata, la Gpt-4: « Nei modelli più
potenti emergono spesso nuove capacità. Alcune di esse sono particolarmente
interessanti: la capacità di creare e agire su piani a lungo termine, di accumulare
potere e risorse (“ricerca di potere”) e di mostrare un comportamento
sempre più “agentivo”. In questo contesto, per “agentivo” non si intende
l’umanizzazione dei modelli linguistici o il riferimento alla senzienza, ma
piuttosto sistemi caratterizzati dalla capacità di raggiungere obiettivi che
potrebbero non essere stati specificati concretamente e che non sono apparsi
nell’addestramento, di concentrarsi sul raggiungimento di obiettivi specifici e
quantificabili e di fare piani a lungo termine». Più che alludere a impossibili
capacità di intenzionalità senziente e discernente, proprie dell’agentività
umana, si sottolinea in sostanza «il fatto sempre più evidente che i sistemi di
ML [ machine learning] non sono completamente sotto il
controllo umano».
Detto alla buona, tradurrei così: con
queste macchine rischiamo di selezionare dei pit bull del calcolo che possono
sfuggirci mano e rivolgersi contro di noi proprio come capita con pit bull e
dobermann, il cui cervello troppo compresso, nei processi di selezione della
razza, entra in conflitto con la scatola cranica e manda l’animale fuori
controllo nell’esecuzione dei compiti per cui è addestrato.
E tuttavia questo rischio di calcoli sbagliati, cioè fuori controllo dei sistemi “aperti” (produttivi cioè di effetti non linearmente programmati) dell’IA, non mi sembra il pericolo maggiore dei Gpt-4 e simili. E neanche il loro precoce uso truffaldino. Possiamo benissimo immaginare un Gpt-4 Senior che faccia l’esame di analisi matematica e un Gpt-4 Junior che lo passi brillantemente, o che rischiamo di dare una cattedra ai lavori scientifici dell’IA più che del candidato. È già per altro capitato che un’università canadese facesse tenere corsi online da un prestigioso docente defunto da due anni, incorrendo nella denuncia di uno studente che aveva pagato rette salate per seguirne le lezioni da vivo. Ciò che qui è più significativo è che il generalizzarsi del ricorso all’IA nel lavoro di massa rischia di disabilitare capacità cognitive socialmente diffuse non più esercitate. E già qui siamo sul terreno non degli effetti imprevisti dell’IA, ma proprio di quelli per cui viene portato avanti il suo sviluppo, cioè la performatività economica sempre più spinta del ciclo produttivo. Che magari ci libererà dal lavoro usurante, anche se non si capisce bene quanto lavoro resterà a disposizione di chi voglia lavorare anche solo per non restare sul divano con un congruo reddito di cittadinanza se mai glielo si potrà riconoscere. Concessa la battuta, il punto vero se il nuovo lavoro promesso dalla rivoluzione digitale sarà per la gran massa dei lavoratori più povero o più ricco cognitivamente e remunerativamente. A giudicare dalla concentrazione sociale della ricchezza, favorita dall’economia finanziarizzata e da start up, che in pochi raggiungono con capitalizzazioni impensabili in passato, oggi non sembra così. E sarebbe sensato almeno ricordarci che non sarà nessun “nuovo” lavoro a salvare da povertà e diseguaglianza l’umanità, ma semmai una nuova ridistribuzione della ricchezza, cioè l’attenzione politica e sociale al “pasto comune” del gruppo primitivo studiato dagli antropologi come connettivo sociale fondante (e che tale è rimasto come bisogno nei secoli, da ultimo aggiornatosi a welfare, il nostro Stato sociale).
Al di là del lungo elenco dei
benefici che ci potranno venire se l’IA saremo capaci di tenerla sotto
controllo, il vero pericolo è che la sua implementazione sociale rischia di
essere portata avanti in accordo – senza sorveglianza né sociale né
intellettuale – tra economia e politica. Un accordo un po’ brutalmente di
questo tenore: «Voi li spennate, noi li controlliamo, mentre fingiamo di
tenergli compagnia con la pet terapy e la ludopatia digitale
sarà». Perché questo è il punto, che mi faceva notare un amico, la suasività di
Gpct-4 come surrogato dialogico cui si rivolgerà la solitudine sociale, alla
ricerca di “relazioni” da vivere nella perdita sempre più diffusa di quelle
sociali di presenza. Profilazione generale come consumatori,
controllo politico capillare, e dipendenza digitale di massa minacciano di
essere il “triangolo delle Bermude” in cui potrà inabissarsi la nostra società,
la socialità di presenza di cui si sostanziano i vissuti di comunità, per altro
sempre più scemanti, mentre sempre più acuto se ne fa il bisogno
nell’alienazione, nell’anomia sociale in cui siamo immersi. La sfida vera è
mantenere il digitale “terrestre”. Ricorrere certo a esso, ma senza togliere la
“carne” (e insieme l’anima) dell’uomo dai piedi per terra, dai piedi nella realtà
esistenziale di presenza, biopsichica, che è sempre stata. Forse è giunto il
momento di pensare a Trattati di non proliferazione digitale in ambiti della
vita custodi della nostra capacità di distinguere il reale del virtuale,
capacità che sarà sempre più a rischio con i nativi digitali. Salvare la
presenza degli uni agli altri pure in un mondo di bit e schermi.
Nessun commento:
Posta un commento