Visualizzazione post con etichetta ROBOT. Mostra tutti i post
Visualizzazione post con etichetta ROBOT. Mostra tutti i post

venerdì 9 agosto 2024

I.A. COME CHIAMARLA ?

Intelligenza artificiale, e se le cambiassimo nome? 

Una proposta al Congresso di Roma, nel quale si è discusso delle applicazioni nella sanità, nel diritto e anche nella religione E un progetto italiano mette al centro i valori umani di empatia, autonomia e vulnerabilità

 

-         di GIANNI SANTAMARIA

 

Il visitatore indossa un casco stereottico, si avvicina allo schermo, unisce indice e pollice e questo gesto innesca un puntatore. Clicca su un disco rosso e dopo un breve countdown può fare una domanda nientedimeno che a Platone o - all’altro lato della sala allestita nel rettorato dell’Università “La Sapienza” - a Confucio. La domanda viene inviata a un motore di IA, che eventualmente corregge imperfezioni logico-semantiche (un visitatore ha chiesto a Platone di parlare di “virtues”, virtù, ma la macchina aveva capito “vectors”, vettori). I due avatar in 3D - perché di questo di tratta si muovono, gesticolano e con la loro voce sintetica (sincronizzata dalla macchina con il movimento delle labbra) rispondono, facendo una sintesi mirata, che attinge al patrimonio delle teorie dei due personaggi storici. Diversamente da ChatGpt, alla quale ci si può rivolgere su tutto, qui è stato infatti isolato un sottosistema inerente alla filosofia dei due autori, che ad esso - grazie a espedienti linguistici - riconducono anche le domande più generiche. Al filosofo greco ci si può rivolgere in italiano e in inglese (la parte contenutistica è stata realizzata in collaborazione con l’Università di Atene), al saggio cinese solo in italiano. L’esempio di realtà virtuale immersiva, che i partecipanti al XXV Congresso mondiale di filosofia di Roma stanno apprezzando, è stato realizzato dall’azienda Engineering per dimostrare la potenzialità di tali tecnologie. Ma non si è trattato solo di “toccare con mano” lo sviluppo delle tecnologie basate sull’IA. La riflessione sul digitale e i suoi rapporti con l’umano ha innervato il Congresso.

A un apologo su Confucio si è rifatto anche Pablo López López, docente di filosofia a Valladoilid (Spagna) nella Tavola rotonda “Intelligenza artificiale o artificio intelligente? Un approccio critico al concetto di IA”. Di fronte a una situazione di crisi in Cina, gli fu chiesto quali sarebbero state le migliori leggi e le migliori decisioni politiche o economiche da intraprendere. Egli rispose: “La cosa più importante è chiamare le cose con il loro nome”. «Se non comprendiamo i vocaboli essenziali, siamo intellettualmente morti o quasi. Non importa quali idee intelligenti possiamo avere», ha ricordato lo studioso, proponendo dei termini alternativi quali “intelligenza virtuale”, “intelligenza simulata” o “simulatore di intelligenza”, o “artefatto intelligente”. Nel vivace dibattito che ha caratterizzato la mattinata è stato proposto anche “surrogato di intelligenza”.

Names matter, i nomi sono importanti, «i nomi le etichette, le espressioni sono essenziali e non sono neutrali – ha insistito il filosofo iberico –. Non possiamo essere schiavi di mode, del commercio o del modo in cui i social media nominano la realtà. In questo caso non avemmo una nostra visione delle cose. Noi filosofi abbiamo il compiti di non dare nulla per scontato e di essere critici». Non si tratta di un approccio negativo verso la tecnologia che è una realtà importante e utile. Piuttosto, nell’intenzione del relatore, si tratta di svelare le trappole che stanno dietro al concetto di “intelligenza artificiale”. Questo per López López è «confusionario, perché confonde causa ed effetto; acritico e arbitrario, perché ritiene fondato antropomorficamente che la macchina sia un agente autonomo, ma questo è un pio desiderio; non dimostrabile, perché ciò spetterebbe a coloro che lo affermano e, infine, motivato ideologicamente ». Da parte di una cultura materialista. Per questo cadrebbe in contraddizione chi non essendo materialista lo usa. Inoltre avrebbe un che di prometeico, trasformando gli ingegneri in «dèi artificiali».

Per fondare la sua critica López López ha brevemente definito “intelligenza” e “artificialità”. La prima come «capacità di comprendere la realtà in modo universale e allo stesso tempo socraticamente se stessi in modo introspettivo». Inoltre l’intelligenza presuppone la libertà della mente: «Le macchina non possono essere intelligenti, perché schiave degli ingegneri o delle élite politiche che li controllano». L’artificialità, invece, è semplicemente «una disciplina pratica, sviluppata culturalmente ». Dunque un’intelligenza è per forza di cose artificiale, pur avendo una base naturale, ma questo poiché è essenzialmente umana. Ogni intelligenza è fatta di arte, di artificio culturale. «L’umanizzazione delle macchine implica la robotizzazione degli esseri umani. Se capiamo questo ci dobbiamo impegnare nel nominare in modo realistico di ogni nuova tecnologia che può essere usata dal potere per spingere i propri interessi e la propria ideologia», la provocazione lanciata dallo studioso spagnolo., Che, prima di concludere con un frase in latino il suo intervento, ha mostrato come anche una piattaforma di IA condivida la sua opinione sulla migliore appropriatezza dell’espressione “artefatto intelligente”, sebbene «IA sia corrente ormai da decenni ». E sia ormai pervasivo in tanti aspetti della vita, tutti trattati in svariati panel, tavole rotonde e plenarie. Dalla giurisprudenza alla medicina, dalla politica, al cambiamento climatico, dal gender gap ai diritti umani. Fino alla religione. Alcune iniziative hanno puntato sui valori umani nella transizione digitale. Come il progetto di ricerca “DigitHuman”, presentato nei giorni scorsi, che mira a valutare l’impatto sociale del digitale. Mettendo al centro tre dimensioni, indagate dalla prospettiva degli umani e delle macchine: empatia, autonomia (si pensi ai veicoli autonomi) e vulnerabilità. «Diventeremo invincibili o si creeranno nuove vulnerabilità, come ad esempio essere uccisi a distanza se ha un dispositivo collegato accessibile a internet? », spiega Fiorella Battaglia del Dipartimento di Studi umanistici dell’Università del Salento, a Lecce, coordinatrice del progetto che coinvolge docenti della Federico II di Napoli, dell’Università di Chieti-Pescara e di quella della Basilicata. Alla fine, nello spirito di una ricerca filosofica non fine a se stesa ma che si fa impegno civico, saranno redatte delle linee guida per la transizione digitale, a disposizione della P.A. L’empatia è un concetto che è ambivalente quando si applica al rapprto uomo macchina. Si pensi alle lacrime di un militare di fronte alla perdita di una zampa di un “insetto” sminatore. Militare che poco dopo potrebbe ben aver ordinato un bombardamento di umani senza battere ciglio.

Di empatia ha parlato la filosofa morale della Federico II di Napoli, Anna Donise. «È un concetto che può aiutare a comprendere meglio le caratteristiche dell’Ia che possono e devono essere implementate in maniera utile e anche a comprendere meglio come funzioniamo noi. Quando vediamo un robot che ci dicono essere empatico, ma di fatto si limita a cogliere l’interazione di un altro robot, siamo di fronte a qualcosa di diverso dalla nostra capacità empatica». Guardare bene noi stessi ci fa capire che «possiamo anche essere sadici, non necessariamente etici, capaci di simulare, e allo stesso tempo di grandi gesti di altruismo, di grande interesse all’altro e di grande capacitò narrativa ». L’empatia ci aiuta, dunque, a comprendere anche i rapporti uomo-macchina. «Il fatto che noi abbiamo empatia per i robot è un dato oggettivo., Si pensi ai cuccioli-robot da curare, ai companion dogs per i malati di demenza. La questione è, dunque, che «si riconoscano ai robot delle capacità, ad esempio nella cura, ma non si tratta di empatia, perché questa non può prescindere dalla dimensione corporea che, almeno allo stato, nell’IA non c’è».

Di empatia e di rapporto uomo-macchina-Dio si è parlato nel panel “Robot umanoidi come partner del dialogo interreligioso”. Nella sua comunicazione la studiosa olandese Anna Puzio ha illustrato ciò che fanno alcuni dei 20 “robot religiosi” esistenti. Il tedesco Bless U2 impartisce benedizioni in varie lingue, Celeste, a forma di angelo, guida alla preghiera e stampa versetti biblici personalizzati. SanTO invece - sviluppato dall’italiano Gabriele Trovato - prende la forma di un santo, aiuta i fedeli a pregare e li accompagna dal punto di vista psicologico. Trovato ha sviluppato il suo robot in Giappone. In oriente, infatti, questi oggetti sono relativamente diffusi. Mindar, sacerdote-robot buddista, conduce della cerimonie nel tempio zen. Mentre il monaco Xi’aner accompagna i visitatori nel tempio, risponde a domande sul buddismo e suona musica buddista. Il suo scopo è promuovere il buddismo in Cina. Infine, in Giappone l’umanoide Pepper è usato nei funerali per motivi economici (costa meno di un sacerdote e diffonde anche la cerimonia funebre su internet a beneficio di chi non ha potuto partecipare). Questi robot religiosi, precisa Puzio, «sono ancora ai primi passi del loro sviluppo e contrariamente ad altri robot, inclusi vari social robots ». Più in generale gli oratori hanno discusso di religione e digitale, e di come - ad esempio - la dimensione virtuale si scontri con concetti come presenza eucaristica e comunità, per non parlare della dimensione del mistero. Nel dibattito sono sorti anche scenari futuristici, come la sostituzione del prete con un robot o la domanda sulla possibilità che il robot possa davvero pregare. Ipotesi che molti dei presenti hanno escluso.

www.avvenire.it

 

venerdì 19 maggio 2023

LA SFIDA DELL'INTELLIGENZA ARTIFICIALE


- di Giuseppe Savagnone*


Un grido d’allarme

 Ha suscitato grande impressione – ma anche vivaci polemiche – la lettera aperta, firmata da oltre mille personalità del mondo della cultura, della scienza e dell’economia, in cui si denunciavano i rischi dell’attuale sviluppo incontrollato dell’Intelligenza Artificiale (IA). «Negli ultimi mesi», si diceva nella lettera, «i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile».

 Il problema posto dai firmatari è semplice: posto che «i sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani (…), dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?». Da qui la richiesta: «Pertanto chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile (…). I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate», volti a «garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio».

 L’appello, firmato tra l’altro da personalità discusse come Musk, è stato oggetto di due ordini di critiche. Uno riguardante la sua praticabilità. È stato osservato da più parti che non è realistica l’idea di coinvolgere tutti i paesi del pianeta – dagli Stati Uniti, alla Russia, alla Cina – in uno stop di 6 mesi.  Ma anche se ci si riuscisse – e questo è il secondo ordine di obiezioni – , non basterebbero certo 6 mesi a creare un sistema di controlli che rendano «sicuri al di là di ogni ragionevole dubbio» i prodotti della ricerca sulle IA.

Nessuno, però, ha contestato la serietà del problema che il documento solleva. Anzi alcuni che non l’hanno firmato – come Eliezer Yudkowsky, uno dei maggiori esperti nel campo della sicurezza dei sistemi di intelligenza artificiale – , hanno precisato di non averlo fatto perché troppo blando: «Mi sono astenuto dal firmare», ha scritto Yudkowsky, perché penso che la lettera stia sottovalutando la gravità della situazione».

E poco dopo, ai primi di maggio, è arrivata la notizia che Geoffrey Hinton, definito «il padrino dell’intelligenza artificiale» ha lasciato Google, con cui aveva collaborato per anni, dichiarando che lo faceva per poter parlare liberamente dei rischi dell’IA.

 Dal futuro al presente

Per capire il contesto in cui si collocano questi gridi di allarme, basta leggere l’apertura di un articolo del «Sole 24ore» del 15 gennaio 2023, in cui si intervista Brad Smith, il presidente della «OpenAI», la società di Microsoft che ha creato ChatGPT , il più potente sistema di intelligenza artificiale mai prodotto finora e di cui è stata da poco annunciata una versione ancora più potente (menzionata nella lettera citata all’inizio), GPT-4 .

Scrive la giornalista dell’autorevole quotidiano, Barbara Carfagna: «Il 2023 è l’anno in cui l’Intelligenza Artificiale entrerà in una nuova Era, sarà alla portata di tutti e trasformerà l’economia, la sicurezza, il lavoro, le aziende e la vita stessa dei singoli uomini. A deciderlo sono state le Big Tech che hanno in mano i sistemi più avanzati e l’accesso ad una enorme mole di Dati».

Quel che è certo è che siamo davanti a una svolta epocale, immensamente più rilevante di tante altre questioni su cui le pagine e i giornali e i notiziari televisivi polarizzano la loro attenzione e quella dell’opinione pubblica. Forse la cosa più allarmante è proprio questa scarsa attenzione ai problemi che una simile svolta comporta e il conseguente pericolo che essa venga gestita, senza alcun adeguato controllo, da una élite economica la cui logica è, fisiologicamente, quella imprenditoriale.

 Dei pericoli legati allo sviluppo dell’Intelligenza Artificiale si è sempre parlato nei romanzi e nei film di fantascienza. Come nel famoso libro di Isaac Asimov «Io robot», del 1950, dove già lucidamente si metteva in luce la necessità che  questi prodotti della tecnica fossero soggetti a precise regole morali, inscritti nella loro stessa struttura. 

Erano le «tre leggi della robotica»:

 «Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.

Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge».

In realtà, tutta la produzione letteraria e filmica di questi ultimi settant’anni si è incaricata di evidenziare la precarietà di questi sforzi dell’essere umano di tenere sotto controllo le sue creature. Film famosi come «Blade runner» (1982), di Ridley Scott, e «Matrix» (1999), dei fratelli Wachowsky, ci hanno abituato alla prospettiva di un ammutinamento delle intelligenze artificiali, dipingendo scenari in cui, da strumenti al servizio degli esseri umani, esse entrano in competizione con loro, fino al punto di renderlo loro schiavi.

Ma tutto questo rimaneva sempre nei limiti rassicuranti di una proiezione nel futuro. Ora ci si dice che questo futuro è arrivato. E che i pericoli ipotizzati sono incombenti nel presente.

I pericoli

L’elenco è lungo. Si comincia dalla più banale conseguenza di tute le rivoluzioni tecnologiche, la minore necessità dell’intervento umano e la inevitabile perdita di posti di lavoro. Anche se, come per il passato, potrebbero crearsene altri proprio in funzione delle nuove tecniche.

 Del tutto nuovo è invece il pericolo che deriva dalla capacità dell’IA di registrare e accumulare i dati personali, trasformandosi così in un “occhio divino” che travolge tutte le regole della privacy ed è in grado di prevedere, e in qualche modo di determinare, i nostri comportamenti. Già adesso tutti constatiamo come i nostri gusti personali, espressi in acquisti fatti su Internet, vengano archiviati e utilizzati per proporci, in base ad essi, altri prodotti da comprare.

 Traportato nell’ambito della ricerca intellettuale, ciò espone al rischio che la rete ci faccia trovare, su un argomento, proprio quelle fonti di informazione e quelle risposte che corrispondono al nostro profilo intellettuale, delineato in base alle nostre scelte precedenti, assecondando le nostre preferenze ma al tempo stesso rendendoci prigionieri di esse.

 Queste forme di controllo possono diventare ulteriormente pericolose se i criteri in base a cui vengono esercitate riflettono idee le idee di cloro che hanno creato l’algoritmo in base a cui l’IA opera. Un’intelligenza artificiale che seleziona il personale potrebbe allora fare le sue scelte in modo apparentemente asettico, ma in realtà ispirato a logiche discriminanti in base al genere, all’etnia, alle condizioni sociali ed economiche.

 Per non parlare della manipolazione che l’IA è in grado di operare sui dati, fornendo rappresentazioni del tutto distorte della realtà e aprendo scenari di realtà virtuale finora immaginati solo in film di fantascienza come «Matrix». Nell’intervista al «Times» in cui ha spiegato le ragioni della sua decisione di asciare Google, Hinton ha detto tra l’altro che con l’intelligenza artificiale potremmo arrivare a vivere in un mondo in cui le persone «non saranno più in grado di sapere cosa è vero».

L’intelligenza artificiale può essere usata anche per l’automazione della guerra. Fino a che punto può spingersi questo automatismo, scavalcando il controllo umano? Cosa può accadere lasciando all’IA la decisione sul tipo di risposta da dare a un’azione militare del nemico?

 Ad impressionare forse più di tutto è lo spettacolo, alla portata di tutti, di ciò che è in grado di fare ChatGPT (di cui, come si è detto, è già pronta una versione ancora più potente), nel rispondere ad ogni nostra richiesta con una velocità sconosciuta alla mente umana e attingendo a un deposito di dati che supera senza paragoni ogni nostra capacità di documentazione. Una “super-intelligenza”, che però è sganciata dal nostro contesto valoriale e opera solo come uno strumento senza essere in grado di valutare i fini.

 Fino ad ora ci si consolava sottolineando che in ogni caso l’IA non può far nulla che non le sia insegnato e comandato da chi l’ha programmata. Le nuove generazioni di intelligenza artificiale, però, cominciano ad essere capaci di imparare e di evolversi autonomamente, rispetto al programma originario. Dove può arrivare questa autonomia?

 Una sfida etica, ma innanzi tutto antropologica

Certo, la più immediata esigenza è quella di mettersi d’accordo sui criteri di fondo a cui la produzione in questo settore deve obbedire. Anche il presidente di «OpenAI» è convinto che un compito fondamentale dell’umanità, in questo momento, «è stabilire principi etici critici che sono importanti per tutte le società del mondo (…) La prima sfida è creare dei principi etici e implementarli così da poter essere fiduciosi che l’AI lavorerà per servire i valori umani».

 In questa prospettiva Brad Smith in Vaticano ha firmato una “Rome Call for AI Ethics”, documento sottoscritto dalle tre religioni abramitiche promosso dalla Pontificia Accademia per la Vita. Al di là delle differenze di cultura e di religione, egli osserva, «c’è un consenso emergente sui principi che devono guidare l’IA: evitare i pregiudizi, essere inclusiva, proteggere la privacy e la sicurezza, essere trasparente così che la gente capisca cosa l’IA stia facendo e resti rispettosa delle decisioni prese dagli esseri umani».

 Ma la sfida è più radicale: si tratta di capire che cosa ci caratterizza davvero come persone umane e ci distingue dai nostri prodotti. In un momento storico in cui la cultura dominante dell’Occidente rifiuta sdegnosamente, come un relitto del passato, il concetto di “natura umana”, dobbiamo chiederci se ci sia un confine – quale che sia il nome che gli diamo – tra umano e non-umano. I princìpi etici dipendono da questo.

 Non a caso anch’essi oggi sono oggetto di una totale relativizzazione, che ne nega l’universalità. Se non c’è più l’uomo (nel senso del termine greco “anthropos”, che include il maschile e il femminile) come distinguere il bene il male che lo riguardano? Ma a questo punto non ci sarà da stupirsi se le intelligenze che noi stessi abbiamo inventato e costruito ci sostituiranno.

 * Pastorale della Cultura Diocesi Palermo

www.tuttavia.eu

 

lunedì 14 febbraio 2022

PSICOLOGIA E ROBOTICA SOCIALE


 La Human-Robot Interaction


-         Antonella Marchetti*

 e Davide Massaro**

La crescente presenza di robot sociali, spesso antropomorfi, nella vita quotidiana in contesti educativi, produttivi, clinici e assistenziali solleva diverse nuove questioni: filosofiche, etiche, politiche, economiche, giuridiche e assicurative. La Human-Robot Interaction (HRI) pertiene alla loro progettazione. L’interazione/integrazione tra le caratteristiche umane – per loro stessa natura imperfette - e la funzionalità logica e razionale che contraddistingue la rappresentazione sociale dei robot costituisce una sfida importante.

La psicologia, che studia la mente umana e ne esplora le interconnessioni con il comportamento, assume un ruolo cruciale nel processo di individuazione e di supporto alla ingegnerizzazione delle caratteristiche più pertinenti, da un punto di vista relazionale, che dovrebbero caratterizzare un robot sociale. Ciò che a nostro parere caratterizza positivamente l’interesse attuale di questi temi è il loro inquadramento all’interno della Human-Centered Artifical Intelligence/Robotics (Riedl, 2019). La Pontificia Accademia per la Vita, in occasione della Rome Call for AI Ethics, ha sottolineato l’importanza di tale approccio, auspicando l’adozione di una prospettiva etica orientata allo sviluppo di una intelligenza artificiale al servizio della persona.

La Commissione Episcopale Europea (COMECE), nel documento intitolato “Robotisation of Life. Ethics in view of new challenges” (2019), articola la suddetta posizione: da una parte vengono riconosciuti gli indubitabili benefici derivanti dalla robotizzazione; dall’altra si ribadisce la crucialità di uno sguardo etico fondato sul primato dell’uomo, attraverso il pieno riconoscimento della dignità umana. Auspichiamo che, nel medio e lungo termine, gli studi su psicologia e robotica sociale si collochino nella promettente direzione di questo nuovo umanesimo che, come Papa Francesco ha sottolineato – in occasione del “World Economic Forum 2020” – dovrà interrogare i saperi “per una visione più integrale e integrante”.

 

* Docente di Psicologia dello sviluppo

** Docente di Psicologia generale e dello sviluppo

Vatican News