Il veloce avanzare dell’intelligenza artificiale ha reso la presenza di queste nuove tecnologie parte della quotidianità di moltissime persone. Dal celebre Chat Gpt ai meno famosi Claude Ai e Gemini — l’Ia di Google — passando per la moltitudine di Llm di cui ormai ogni servizio sembra voglia dotarsi, è palese che l’Ia non sarà un fenomeno passeggero, con buona pace di coloro che con argomenti più o meno validi ne hanno sottolineato le criticità che, come vedremo, poche non sono.
Dal lancio di Chat Gpt nel novembre 2022 a oggi si sono moltiplicate, e continuano a farlo, ricerche e articoli sull’argomento, spesso con posizioni polarizzanti: da un lato chi vede nell’Ia una rivoluzione pari alla scoperta del fuoco, che renderà la vita dell’umanità più semplice ed efficiente; dall’altro chi vede le contraddizioni di una tecnologia finita nelle mani del pubblico generalista troppo presto, ben prima che le sue reali implicazioni potessero essere comprese anche da esperti ed esperte. Lo scarso numero di posizioni più moderate tra questi due estremi rende complesso e difficile un dibattito che, oggi più che mai, ha bisogno di essere portato avanti, specie di fronte a un utilizzo sempre più improprio: basti guardare al fenomeno dei chatbot usati come “psicoterapeuti/e” e alle non raramente tragiche conseguenze che porta l’affidare i propri pensieri ed emozioni a un Large language model come se fosse un individuo esperto.
Cercare di formare una seria opinione sul tema non è facile. È utile, quindi, partire dalle basi e da lì analizzare le diverse ramificazioni che l’Ia ha creato, sta creando e creerà in vari campi del sapere.
Si parta allora da una semplice quanto non banale domanda: cos’è una intelligenza artificiale? Se si va sulla pagina dedicata su Wikipedia in lingua italiana si possono evidenziare varie note che mettono in guardia chi legge sulla possibile non neutralità dell’articolo in alcune sezioni, segno della vivacità del dibattito in corso, come si può notare anche dalla lunghezza della relativa discussione. In ogni caso, si può dare per buona la definizione della più grande enciclopedia online al mondo: «L’intelligenza artificiale (in sigla italiana IA o inglese AI) è la capacità o il tentativo di un sistema artificiale (tipicamente un sistema informatico o di un sistema di automazione) di simulare una generica forma di intelligenza artificiale». Lo standard Iso/Iec 42001:2023 Information technology – Artificial intelligence Management System (Aims) ha definito l’intelligenza artificiale come «la capacità di un sistema di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività». In altre parole, l’Ia è il tentativo di riprodurre artificialmente l’intelligenza umana, ossia la nostra capacità di riconoscere schemi, apprendere dall’esperienza e di prendere decisioni in completa autonomia, nella speranza che possa andare oltre i limiti del nostro cervello. L’Ia può essere suddivisa in due grandi categorie: quella debole (narrow AI) che svolge dei compiti ben specifici; e quella forte (general AI) che, almeno in teoria, dovrebbe avere una capacità cognitiva simile a quella umana.
Essa apprende attraverso algoritmi, che vengono addestrati in tre modi: su un set di dati opportunatamente etichettati, attraverso la creazione di modelli a partire da un set di dati non etichettati, e infine prove ed errori che vengono corretti. La forza dell’Ia sta nella sua capacità di poter analizzare in poco tempo un’enorme quantità di dati da cui poi estrae le informazioni che rielabora (deep learning), cosa che il cervello umano non è in grado di fare per limiti biologici. Questo ha portato all’uso dell’Ia in moltissimi campi, dalla diagnosi medica (come la capacità di prevedere le probabilità di sviluppo del tumore al seno) alla guida automatica (ancora in fase sperimentale con risultati altalenanti), passando per servizi al consumatore (assistenti virtuali come Siri e Alexa, oppure gli algoritmi che decidono quali contenuti mettere sui feed dei nostri social in base al nostro comportamento online) e miglioramento della produttività.
Quella che comunemente viene chiamata Ia è in realtà solo un tipo: la generativa, che si occupa di creare testi, immagini, suoni e video a partire da una banca dati e da un prompt scritto dall’utente. E se all’inizio queste creazioni artificiali rasentavano il ridicolo e l’assurdo, non ci è voluto molto tempo perché esse diventassero sempre più verosimili, al punto da risultare quasi indistinguibili da creazioni umane.
Il report sull’Ia del 2024 della Standford University è illuminante per comprendere i risvolti economici di questa nuova tecnologia: non solo ha rivelato la velocità straordinaria con cui l’Ia sta evolvendo e come essa stia entrando sempre di più nella nostra quotidianità a livello globale, ma anche che solo negli Stati Uniti ben 109.1 miliardi di dollari sono stati investiti privatamente in essa, 12 volte della Cina (9.3 miliardi, e che comunque ha tutte le intenzioni di recuperare questo gap importante e di diventare il Paese leader mondiale nella creazione di nuove Ia); l’Ia generativa nello specifico ha attratto 33.9 miliardi di dollari di investimenti privati, 18.7% in più del 2023. L’Unione europea è sensibilmente indietro in questo campo: l’Italia, nello specifico, ha un mercato ancora agli albori ma che sembra molto promettente: nel 2024 esso ha raggiunto valore quota 1,2 miliardi di euro, 58% in più del 2023, trainato dall’Ia generativa che copre il 43% del suddetto valore.
Insomma, l’Ia è ormai qui, e non andrà da nessuna parte, questo nonostante le non poche controversie: la forte impronta sull’ambiente; il cosiddetto “pregiudizio algoritmico”, il fatto che i dati che l’Ia utilizza hanno dei bias che essa può assorbire e rigurgitare; la mancanza di trasparenza delle aziende, dovuta all’assenza di una appropriata legislazione che fatica a prendere atto del cambiamento ormai avvenuto; l’impatto sul mondo del lavoro e la questione etica di come comportarsi con le persone disoccupate di lavori che diventeranno obsoleti; la questione della responsabilità giuridica di una macchina qualora prenda delle decisioni che possono mettere in pericolo un essere umano; il tema dell’infrangimento del copyright dei contenuti utilizzati per allenare questi algoritmi; deepfake e creazione di contenuti pornografici non consensuali di cui le vittime sono soprattutto le donne; fake news e disinformazione frutto dell’Ia generativa; l’impatto psicologico sui soggetti più sensibili, specie negli anni che seguono la pandemia che ha causato un trauma con cui rifiutiamo di fare i conti; infine, e non per importanza, lo scenario più estremo: cosa fare qualora l’Ia diventasse cosciente di sé?
Problematiche la cui risoluzione è fondamentale per riuscire a gestire adeguatamente le Ia e l’industria che si è formata attorno a esse, per cui tuttavia si sta impiegando troppo tempo per trovare delle risposte. Tempo che, forse, non abbiamo a disposizione, specie da quando la persona normale ha avuto accesso a questo nuovo “giocattolo” e sta attivamente contribuendo ad allenare gli algoritmi che permettono all’Ia di imparare.
La politica vede i benefici dell’investimento, ma fatica a trovare un terreno comune su delle potenziali regolamentazioni. La prima legge che tenta di farlo è l’Artificial Intelligence Act approvato il 21 maggio 2024 dal Consiglio dell’Unione europea, il quale si pone l’obiettivo di classificare e regolamentare l’applicazione dell’Ia in base al rischio per la cittadinanza. Sia la Cina che gli Stati Uniti si sono attivati per creare delle linee guida riguardanti i requisiti di sicurezza per le aziende che si occupano di Ia, specie di quella generativa. Troppo poco per uno strumento che è ormai parte integrante delle nostre vite, entrato senza che sapessimo davvero a che cosa potenzialmente stessimo andando incontro.
***
Articolo di Maria Chiara Pulcini

Ha vissuto la maggior parte dei suoi primi anni fuori dall’Italia, entrando in contatto con culture diverse. Consegue la laurea triennale in Scienze storiche del territorio e della cooperazione internazionale e la laurea magistrale in Storia e società, presso l’Università degli Studi Roma Tre. Si è specializzata in Relazioni internazionali e studi di genere. Attualmente frequenta il Master in Comunicazione storica.
