laR+ Pensiero

IA e democrazia, tra pregiudizi e dialogo

L’intelligenza artificiale non è oggettiva. Ma può aiutare a mediare tra posizioni contrastanti, spiega Matteo Galletti, ospite di Orizzonti filosofici

6 maggio 2025
|

Ogni tecnologia, modificando il nostro modo di vivere, porta con sé delle sfide etiche; per le intelligenze artificiali la sfida è ancora più complessa, visto che parliamo di macchine che prendono decisioni ed elaborano informazioni in una maniera apparentemente oggettiva. Con ripercussioni anche sulla nostra vita democratica, come spiegherà oggi alle 20 nella sede di Orizzonti filosofici a Riazzino Matteo Galletti, professore di Filosofia morale e Bioetica all’Università di Firenze. Info: www.orfil.ch.

Professor Galletti, vedo che lei si è occupato soprattutto di bioetica. Come mai questo interesse per un settore apparentemente lontano come l’intelligenza artificiale?

Il passaggio ha due ordini di motivazioni. La bioetica è una forma di etica applicata e quindi attira la mia curiosità tutto ciò che ha a che fare con questioni etiche che nascono da nuove tendenze tecnologiche, da trasformazioni nei costumi, nelle modalità di interagire con il mondo. L’interesse per i casi concreti, per le trasformazioni del modo in cui gestiamo le nostre relazioni e quindi anche il nostro corpo mi ha portato dalla bioetica all’intelligenza artificiale. Inoltre, e arrivo al secondo ordine di motivazioni, in realtà molti usi dell’intelligenza artificiale si intersecano con le biotecnologie.

Proprio sabato prossimo sarò a Modena a parlare a un convegno in cui vengono illustrati alla cittadinanza i risultati di un progetto di ricerca in cui la diagnostica di precisione viene perfezionata tramite l’intelligenza artificiale. Ci sono talmente tante applicazioni mediche dell’intelligenza artificiale, con implicazioni sul modo in cui si pensa la relazione tra medico e paziente, che per chi fa bioetica è difficile non prestarvi attenzione.

Quando è iniziato questo passaggio verso l’etica dell’IA?

Il primo argomento che ha sollecitato la mia curiosità sono state le discussioni sulle implicazioni etiche dei veicoli a guida autonoma, perché lì abbiamo visto rinascere quelli che noi filosofi chiamiamo i “dilemmi del carrello”. Che cosa devo fare se un treno impazzito minaccia di travolgere cinque persone su una rotaia e ho la possibilità di deviarlo su una rotaia parallela dove c’è una sola persona?

Questi dilemmi hanno tutta una loro storia nell’ambito della riflessione filosofica e improvvisamente sono diventati tema di discussione per capire quale programma morale inserire nei veicoli a guida autonoma. Quindi questo ponte mi ha aiutato molto a transitare dalle questioni più tradizionali a quelle che riguardavano invece la tecnologia basata sull’intelligenza artificiale.

La novità dell’IA è presentarci oggetti che sono anche agenti morali e prendono decisioni in qualche maniera autonoma?

Sono agenti morali fino a un certo punto, nel senso che idealmente il programma che porta a queste scelte è sempre preimpostato da chi costruisce l’artefatto. Solitamente ci si interroga su come programmare i veicoli a guida autonoma, per capire qual è l’azione che dovrebbero privilegiare, se ad esempio salvare la vita di chi si trova all’interno del veicolo rispetto alla vita di un passante, oppure se salvare la vita di qualcuno che sta attraversando le strisce, deviando l’auto verso un percorso diverso e mettendo a rischio chi si trova all’interno del veicolo. Si possono prevedere anche delle discriminazioni più raffinate, ad esempio prendendo in considerazione l’identità del passante: cambia qualcosa se rischiamo di investire una mamma che spinge un passeggino oppure una persona anziana?

La macchina, opportunamente addestrata, deve riconoscere i vari scenari ma la scelta rimane sempre in capo a chi programma il veicolo o in base allo schema che qualcuno ha immaginato. Un domani potrebbe esserci la possibilità che sia il proprietario stesso a decidere quale programma etico inserire nell’auto, se ad esempio uno più utilitarista, che massimizza il numero di vite salvate, oppure uno più kantiano che invece si basa sul dovere di proteggere chi è a bordo del veicolo. Il programma morale è deciso da chi costruisce l’auto o da chi la utilizza, ed è poi l’auto che adatta questo programma morale alle singole situazioni in base a quella che potremmo chiamare una decisione contestuale.

Ma è possibile codificare l’etica in algoritmi, considerando che spesso prendiamo decisioni morali in maniera intuitiva e solo dopo cerchiamo, o costruiamo, una teoria che le giustifichi?

Quello che lei solleva è un problema classico della filosofia morale, un problema che esiste da ben prima che inventassimo delle macchine intelligenti. L’etica può essere effettivamente codificata in una serie di principi oggettivi che tutti dovremmo essere portati a riconoscere, oppure è in qualche modo non codificabile perché la scelta morale è sempre qualcosa che dipende fortemente dal contesto. Ma anche se scegliamo la prima via, quella di ritenere l’etica comunque qualcosa di codificabile, rimane sempre il fatto che empiricamente ci muoviamo in un mondo contraddistinto da disaccordi. Si è visto benissimo come i criteri che vengono utilizzati all’interno di una certa cultura per stabilire qual è la condotta giusta non sono gli stessi utilizzati da altre culture, anche quando si parla di programma morale per le macchine a guida autonoma.

Il problema filosofico principale che sta alla base di questi tentativi di costruire un algoritmo morale è proprio quello di comprendere come in realtà siamo ben lungi dal ritenere che per tutte le decisioni esistano delle soluzioni preconfezionate, molto spesso le confezioniamo sul momento. Possiamo tutt’al più trovare una convergenza su alcuni principi più generali, però anche questa convergenza non è mai data e garantita, è qualcosa che può costantemente cambiare nel tempo. In realtà chi sostiene che è possibile programmare moralmente le macchine dà per scontato che effettivamente esista un codice morale univoco e che quindi possa superare qualsiasi forma di disaccordo morale tra gli individui o le culture.

I modelli linguistici di grandi dimensioni come ChatGPT, che non vengono programmati con regole ma addestrati con grandi quantità di testi, pongono problemi etici diversi?

Senz’altro. Prima di tutto dobbiamo ricordarci che non sono strumenti neutrali. Non voglio sostenere che esistano tecnologie intrinsecamente buone o cattive, però esistono tecnologie che sono progettate e costruite in certi modi per rispondere a certi interessi etico-politici. Un esempio abbastanza banale: se si prova a chiedere informazioni su Piazza Tiananmen a DeepSeek, l’analogo cinese di ChatGPT, ci confrontiamo con una sorta di blocco. Si tratta, e non solo per DeepSeek e la Cina, di tecnologie che sono programmate per funzionare in un certo modo, non sono mai del tutto neutrali rispetto al mondo dei valori, anche se molto spesso abbiamo questa idea di utilizzare tecnologie legate unicamente al mondo dei fatti, tecnologie che si muoverebbero in uno spazio sterilizzato rispetto ai valori.

Questo discorso non riguarda solo quei valori che vengono immessi intenzionalmente all’interno della progettazione di una tecnologia, perché ci sono anche dei valori che la tecnologia si porta dietro in maniera non intenzionale. Addestrare una macchina su casi morali passati significa innanzitutto dare per scontato che a quei casi morali sia già stata data una risposta definitiva, e questo non è vero perché molti dei dilemmi sono insanabili e probabilmente non abbiamo una risposta definitiva. E le risposte empiricamente disponibili – quello che in situazioni simili è stato effettivamente fatto – si trascinano dietro pregiudizi, stereotipi e anche caratteristiche che noi considereremmo del tutto estranee all’etica. Se l’idea è quella di partire da dei dataset che sono così “sporchi”, poi ragionevolmente ci dovremmo attendere degli output ugualmente sporchi, caratterizzati da pregiudizi e stereotipi.

Insomma, il problema è che crediamo oggettivi e obiettivi dei sistemi che in realtà, per come sono addestrati, incorporano tutti i pregiudizi presenti nella società?

I dati con cui vengono addestrati gli algoritmi vengono chiamati, in inglese, “raw data”. In italiano parliamo di “dati grezzi”, ma in inglese “raw” significa anche “crudo” e c’è chi fa notare, con un gioco di parole, che in realtà quei dati non sono crudi, ma precotti e cucinati con tutti i valori, e i pregiudizi, di chi quei dati li ha prodotti e raccolti. E questo è particolarmente delicato quando quei sistemi sono usati per valutare chi assumere o a chi concedere un prestito bancario. Algoritmi del genere sono anche usati nel sistema giudiziario, ad esempio per stabilire se concedere la libertà su cauzione e c’è anche chi ha proposto che a stabilire la pena dovrebbe essere una intelligenza artificiale.

Per arrivare al tema dell’incontro, il problema per la democrazia è questo, affidarci a sistemi solo apparentemente oggettivi?

Questo è un problema. Un altro è la trasparenza: una volta che abbiamo addestrato una intelligenza artificiale partendo da un insieme di casi particolari, non sappiamo in base a quali criteri e parametri prenderà le sue decisioni. Ci indicherà chi assumere, ma senza dirci perché quel curriculum è risultato migliore di altri, stabilirà se concedere o rifiutare un prestito senza spiegazioni sui motivi. Questa opacità del sistema è un problema non solo perché nasconde i pregiudizi eventualmente presenti nei dati di partenza, ma soprattutto perché viola la cosiddetta “accountability”, il diritto a sapere perché è stata presa una determinata decisione nei nostri confronti.

Durante l’incontro tuttavia vorrei parlare non solo di problemi, ma anche di aspetti positivi, di come l’intelligenza artificiale possa aiutare i processi democratici.

Vale a dire? Che cosa può fare l’intelligenza artificiale per la democrazia?

Recentemente è stato messo a punto un sistema di intelligenza artificiale, basato su un modello linguistico di grandi dimensioni, chiamato Habermas Machine in onore del filosofo Jürgen Habermas e della sua idea di situazione discorsiva ideale. Cosa fa la Habermas Machine? Aiuta le persone a trovare un terreno comune di discussione: partendo da due posizioni diverse, identifica i punti sui quali tutti possono dirsi d’accordo e su cui impostare un discorso condiviso.

Dalle prime ricerche fatte, risulta che la Habermas Machine sia più brava degli esseri umani a trovare una posizione nella quale tutti possano riconoscersi. Non sappiamo quanto questo sistema sia effettivamente in grado di fornire una base per una discussione aperta e produttiva, ma certamente è un caso in cui una intelligenza artificiale può aiutare i processi democratici in una società che al suo interno è sempre più diversa.