L’Ia tra bias, dipendenza e responsabilità etiche 

Quando una intelligenza artificiale sbaglia, di chi è la colpa? 

Alla luce del sempre maggiore uso di questa nuova tecnologia nel vivere quotidiano è più che mai necessario trovare una risposta alla domanda. Certo, si potrebbe obiettare: le macchine non pensano — non ancora almeno — eseguono solo un ordine in base a un determinato database da cui prendere le informazioni; anzi, proprio il fatto che non sembra ci sia malizia alcuna dietro le risposte dell’Ia potrebbe renderla un giudice ideale per risolvere controversie e diatribe. Cosa succede, però, se la fonte da cui si attingono i dati è compromessa da pregiudizi? Non c’è bisogno di immaginarlo: l’Università di Washington ha dimostrato in uno studio come Large language model anche molto avanzati, utilizzati per l’analisi dei curricula, abbiano una netta preferenza per i nomi associabili a uomini bianchi, con evidenti discriminazioni nei confronti dei nomi femminili (favoriti solo nell’11% dei casi) e di quelli non bianchi. L’Università di Chicago ha rivelato come a chi parla l’African American English (Aae) i Llm attribuiscano caratteristiche negative, associno lavori di minore prestigio e giudizi molto più severi rispetto a chi parla la lingua inglese standard. Il Guardian ha mostrato come gli algoritmi di riconoscimento visivo tendano a etichettare fotografie di donne in abiti e pose “normali” come sessualmente suggestive più di frequente rispetto alle immagini di uomini, portando a una censura delle prime, anche nel caso esse siano immagini mediche o legate alla gravidanza. E rimanendo nell’ambito sanitario, nonostante gli indubbi benefici che sta portando al campo, l’Ia rischia di perpetuare e amplificare discriminazioni contro gruppi di persone non adeguatamente rappresentati, peggiorando per essi l’accesso alle cure. 

A questo punto sorge spontanea una domanda: perché l’Ia, che dovrebbe essere uno strumento neutro, ha questi pregiudizi, specie nei confronti di chi è già socialmente discriminato come le donne e le minoranze etniche? Un articolo dell’Università Capitol techonology nota come i dati da cui i Lmm attingono per imparare siano spesso “contaminati” da dei bias: «AI systems are trained on massive amounts of data, and embedded in that data are societal biases. Consequently, these biases can become ingrained in AI algorithms, perpetuating and amplifying unfair or discriminatory outcomes in crucial areas such as hiring, lending, criminal justice, and resource allocation». È importante notare che questo bias può emergere sia perché i dati, anche se l’algoritmo non è volutamente progettato per discriminare, sono pregni di pregiudizio o perché chi li ha selezionati lo ha fatto senza porsi il problema dei propri preconcetti — per non parlare poi di come i team di data analysts siano spesso poco diversificati. 

Alla luce di ciò, il fenomeno dell’Ia utilizzato come psicologo “improvvisato” diventa ancora più allarmante: sono sempre più diffuse applicazioni e chatbot che promettono supporto emotivo, consigli psicologici e vero e proprio coaching di vita, il tutto condito spesso con un linguaggio empatico e la vaga promessa che gli assistenti digitali possano aiutarci anche nei momenti più bui della nostra vita. Inutile dire che tutto questo non ha il benché minimo criterio clinico: i Llm non sono in grado di provare empatia o di valutare un contesto complesso come può essere quello di una persona alla ricerca di un sostegno, essi possono solo simulare rapporti come l’amicizia. Il mondo medico e chi programma i Lmm hanno già lanciato l’allarme sulla dipendenza emotiva da ChatGpt e servizi simili, la punta di un iceberg fatto di auto-diagnosi per lo più sbagliate, rinforzo di convinzioni errate e peggioramento di stati ansiosi e/o depressivi. Sempre il Guardian avverte su come l’uso di bot “empatici” possa indebolire i confini tra gli stati emotivi e ostacolare la ricerca di un aiuto umano qualificato. Il rischio è che la conversazione con una macchina diventi il sostituto di relazioni umane vere, specialmente per chi è più vulnerabile. Vederne l’appeal non è difficile: la “compagna virtuale” non fatica, non giudica, è sempre presente e positiva, può essere percepita come più “sicura” da approcciare rispetto a un essere umano, almeno superficialmente. Isolamento sociale, mancanza di confronti autentici e dipendenza crescente non sono rischi ipotetici, ma già una realtà. Realtà i cui confini diventano sempre più labili come dimostra la diffusione massiccia di video, fotografie e altri materiali visivi generati con l’Ia i quali, grazie al fatto che sono sempre più verosimili, fanno perdere al pubblico la fiducia nei media e nelle fonti. Psychology Today segnala che l’esposizione ripetuta a questi “cloni digitali” sta generando ansia, paranoia e la sensazione che nulla possa più essere considerato attendibile, anche quando proveniente da fonti conclamate. 

Screenshot preso dal video di conigli che saltano su un trampolino andato virale qualche tempo fa che si è poi rivelato essere generato da Ia. Fonte: WWLTV 

Il tema dei deepfake è quanto mai attuale: giocare a mettere il proprio volto e quello dei propri cari in scenari inesistenti ha non solo contribuito ad allenare le Ia con un metodo al limite del legale — molte persone, non leggendo i termini e le condizioni prima dell’uso di un’applicazione, non sapevano che le proprie foto e video sarebbero state usate in tal senso — ma le ha anche “stoccate” in database utilizzabili da chiunque voglia allenare i propri Llm, a prescindere dalla nobiltà delle motivazioni. Ecco allora che bullismo e revenge porn assumono nuove pericolose forme, come mostra il triste caso di Mia Jenin, morta suicida a 14 anni dopo che i suoi compagni di classe avevano diffuso deepfake pedopornografici col suo volto. Studi recenti mostrano come l’Ia possa generare affermazioni false ma presentarle in modo convincente, al punto che chi legge vede la propria capacità di distinguere la verità dalla menzogna diminuita. È facile prevedere, quindi, come questo genere di strumenti possa essere usato durante periodi delicati fra cui le campagne elettorali o a seguito di notizie particolarmente scottanti: manipolare l’opinione pubblica alimentando sentimenti negativi come rabbia e indignazione non è mai stato così semplice, specie ora che le persone sono abituate ad algoritmi che propinano loro solo notizie che confermano le proprie opinioni nel tentativo di farle rimanere sul loro sito il più a lungo possibile e mostrare così più pubblicità. 
A livello normativo si vedono le prime iniziative: lo Stato di New York, negli Usa, ha approvato una legge che vieta deepfake di minorenni e obbliga i chatbot a ricordare periodicamente all’utente che sono software e non esseri umani; l’Unione europea ha incluso i deepfake come rischio nell’Ai Act, imponendo obblighi per sistemi che generano contenuti falsi di dichiararsi come tali. 

La domanda iniziale torna quindi preponderante: quando l’Ia sbaglia, di chi è la colpa? Chi è responsabile quando l’algoritmo rifiuta un candidato per motivi discriminatori, oppure peggiora lo stato mentale dell’utente? Secondo modelli emergenti quando questo accade bisogna rivolgere l’attenzione a chi ha partecipato alla progettazione dell’algoritmo, a chi ha fornito i modelli e i dati da analizzare, all’ente utilizzatore e in generale istituire sistemi misti di responsabilità condivisa. Centrale è il principio di trasparenza, che in tal caso si traduce nel diritto dell’utenza a sapere che un sistema che prende decisioni è gestito da un’Ia e non da una persona in carne e ossa. Già nel 2018 la dichiarazione di Toronto chiedeva a gran voce che i governi del mondo si impegnassero a usare l’Ia nel rispetto dei diritti umani, prevedendo rimedi in caso di danni causati da un uso improprio di essa. 
A chi sostiene che l’Ia è in sé uno strumento neutro è importante far notare che la sua applicazione non lo è affatto: algoritmi di sistemi di sorveglianza predittiva o profilazione criminale che si basano su dati che tendono a rappresentare determinate etnie come più violente rispetto ad altre non saranno mai imparziali e non lo saranno perché sono gli esseri umani a non esserlo. La domanda allora diventa un’altra: nel prendere una decisione quand’è che questa può essere presa da una macchina e quando da una persona? Uno studio dell’Università di Cornell sottolinea l’importanza di definire standard di controllo umano, ossia che ogni sistema dovrebbe includere delle soglie di intervento manuale. 

Concludendo, l’intelligenza artificiale non è una potenza neutra: riflette valori, priorità e limiti dei dati con cui è costruita. I bias algoritmici riproducono discriminazioni, i chatbot affettivi possono alimentare dipendenze, i deepfake danneggiano reputazioni e fiducia. Tenendo conto che ormai non si può più tornare indietro e che l’Ia è qui per rimanere, sono quanto mai necessarie un’etica condivisa, regolamentazioni solide e soprattutto una consapevolezza collettiva su quali sono le responsabilità umane nell’uso delle nuove tecnologie. 

***

Articolo di Maria Chiara Pulcini

Ha vissuto la maggior parte dei suoi primi anni fuori dall’Italia, entrando in contatto con culture diverse. Consegue la laurea triennale in Scienze storiche del territorio e della cooperazione internazionale e la laurea magistrale in Storia e società, presso l’Università degli Studi Roma Tre. Si è specializzata in Relazioni internazionali e studi di genere. Attualmente frequenta il Master in Comunicazione storica.

Lascia un commento