Intervista al filosofo Maurizio Ferraris, tra gli ospiti a ottobre della sesta edizione del festival Sconfinare
Il corpo le sue rappresentazioni contemporanee saranno al centro della sesta edizione del festival Sconfinare, a Bellinzona da giovedì 9 a domenica 12 ottobre.
Tra gli ospiti attesi in Piazza del Sole, Alessandro Bergonzoni, il graphic designer Riccardo Falcinelli, lo scrittore Giancarlo De Cataldo, il giornalista Stefano Nazzi e, per la serata di apertura, lo psichiatra Vittorio Lingiardi che dialogherà con il filosofo Maurizio Ferraris, al quale abbiamo fatto alcune domande.
Professor Ferraris, perché scrivere, da filosofo, un libro sull’intelligenza artificiale? Che cosa rende questa tecnologia filosoficamente rilevante rispetto (riprendo alcuni esempi dal libro) a tagliaerba e macchine del caffè?
L’intelligenza artificiale non è più filosoficamente rilevante di un tagliaerba o di una macchina del caffè. Se vogliamo, è anche meno rilevante del bastone, la prima protesi tecnica dell’umanità, definitoria di ciò che siamo (si ricordi l’indovinello della Sfinge a Edipo: l’umano può avere tre gambe alla sera, ossia usare un bastone), cioè della protesi che ha dato avvio alla nascita dell’umano in quanto umano e non in quanto animale disadattato rispetto agli altri, perché debole, lento nello sviluppo, e privo di ambiente perché ne ha troppi. Se qui mi occupo in particolare di intelligenza artificiale è anzitutto per dissipare i falsi timori che gli umani nutrono nei confronti di una macchina che è frutto dell’umanità, visto che non c’è niente nel grande archivio dell’intelligenza artificiale che non sia stato messo dagli umani; invece gli impresari che la fabbricano – o meglio la capitalizzano, perché a fabbricarla siamo noi con la nostra vita registrata dal web – cercano di presentarla come un che di sovrumano, che ci travalica e ci domina. Il che è come dire che una biblioteca esercita una qualche volontà di potenza rispetto ai suoi lettori, e questo semplicemente perché, come è ovvio, una biblioteca la sa più lunga dei suoi lettori, tranne che non sa di sapere, né cosa sia il sapere.
Lei usa le intelligenze artificiali generative? Per cosa?
Uso da anni, come tutti e con grande soddisfazione, i sistemi automatici di traduzione, che si basano in tutto e per tutto sullo stesso principio delle intelligenze artificiali chiamate, loro, “generative”, quasi che i traduttori automatici non generassero dei testi. Ciò premesso, uso l’intelligenza artificiale per tre scopi (sinora, poi si vedrà). Primo, capire se i miei testi sono abbastanza chiari. Quando l’intelligenza artificiale legge un mio testo e dice “qui l’autore si impegna in profonde considerazioni filosofiche”, vuol dire che non ha capito e devo riscrivere. Secondo, trovare oggetti polemici. Tutte le volte che faccio rileggere o riassumere un mio testo sulla intelligenza artificiale, a un certo punto salta fuori che io richiederei la solita melassa: etica, trasparenza, inclusività, resilienza… A questo punto, riscrivo le parti che possono aver dato quell’impressione per precisare che i miei obiettivi non sono quella melassa ma sono più seri o, almeno, diversi. In terzo luogo, per scrivere programmi di ricerca a partire da un mio progetto teorico: l’intelligenza artificiale è un burocrate instancabile, solo bisogna controllare, perché la melassa (o il nonsenso, o la supercazzola) sono sempre in agguato: ma questo avviene anche per gli umani.
Nel libro argomenta che l’idea di intelligenza che sta alla base dell’IA è per certi versi ferma all’illuminismo, incentrata solo sul ragionamento, mentre dovremmo includere le riflessioni successive. Insomma, meno Kant (almeno il Kant della Ragione pura) e più Schopenhauer, quello del mondo come volontà. È corretto?
Alla base dell’IA non c’è l’Illuminismo, magari ci fosse, e non credo di averlo scritto da nessuna parte, visto che sostengo che uno dei caratteri essenziali dell’intelligenza naturale, che la distinguono da quella artificiale, è il possesso della ragione in quanto facoltà dei fini. Dunque, è puro Kant ed è puro illuminismo. Dove critico Kant è là dove, nella analitica trascendentale della ‘Critica della ragion pura’, descrive l’intelligenza come una macchina, commettendo lo stesso errore di Turing. Ma visto che fra Turing e Kant ne passa un bel po’, Kant – nella dialettica trascendentale, sempre della ‘Critica della ragion pura’ – è ben consapevole che quel pezzo di mente che adoperiamo per identificare un cane o per fare 7+5 = 12 è niente rispetto alla potenza della ragione come desiderio di sapere che non può trovare soddisfazione nel mondo dei fatti (e l’intelligenza artificiale non ha alcun desiderio, meno che mai di sapere). E quel pezzo di calcolatrice che ognuno porta in noi è ancor meno rispetto alla volontà illimitata che ci tormenta e che ci ispira, e che Kant affronta nella ‘Critica della ragion pratica’ (sognando, ed è lì che sbaglia, la possibilità di un mondo morale). E l’intelligenza di Turing è ancora niente rispetto alla possibilità di gustare esteticamente il mondo, o di trovare uno scopo nelle cose, che Kant affronta nella Critica del giudizio. Schopenhauer e Nietzsche, teorici della volontà, vengono da questo Kant tutto intero; Turing, probabilmente senza saperlo, viene da quel primo pezzetto di Kant; e Musk viene da casa sua.
Non è solo una questione di definizioni? “Intelligenza” è quel termine che possiamo definire in un modo (e magari sono intelligenti solo alcuni esseri umani), oppure in un altro (prendendo in considerazione anche altre specie viventi come balene, polpi o persino lieviti), oppure in un altro ancora includendo algoritmi e Large language models.
Sì, possiamo dire che è solo una questione di definizioni, ma allora tutto vale tutto e niente vale niente. Per questo ho dedicato tante pagine a definire, prima di tutto, l’intelligenza naturale e i suoi caratteri costitutivi, in primo luogo il fatto di essere incarnata in un corpo, e in secondo luogo di essere sistematicamente connessa con strumenti tecnici. Se poi uno vuole definire intelligente il proprio telefonino o un orologio a cucù nessuno glielo può vietare.
L’IA è uno strumento perché non ha volontà. Però prende decisioni, cosa che tagliaerba e tostapane non fanno.
Il termostato riaccende la caldaia quando la temperatura si abbassa sotto la soglia prefissata dall’utente. Ha preso una decisione? Ma quando mai… E c’è un senso qualsiasi in cui una intelligenza artificiale prende una decisione in un senso diverso dal termostato? Vorrei far notare, inoltre, che un automobilista che si ferma al rosso non prende una decisione, esegue un programma: la decisione la prenderebbe qualora, a suo rischio e pericolo, decidesse di passare. Lo stesso vale in momenti più solenni. Quando due persone dicono “sì” al matrimonio stanno semplicemente eseguendo un programma, che certo consegue da decisioni (oh, quanto confuse, vaghe, tentennanti, direi quasi quantiche) assunte in precedenza. Ma al momento del sì la decisione avrebbe luogo solo se, poniamo, la sposa, in un momento di lucidità, dicesse “no” e scappasse dalla chiesa o dal municipio. Questo per dire che non solo siamo portati a sopravvalutare la capacità delle macchine di prendere delle decisioni (non esiste), ma siamo inclini, per vanità di specie, a pensare che la vita umana è tutto un susseguirsi kierkegaardiano di decisioni. Non funziona così, pensiamo alla nostra vita, pensiamo a quando noi stessi ammettiamo – per farci perdonare una decisione non presa – che le circostanze hanno deciso al posto nostro, e ci renderemo conto di quanto sopravvalutiamo noi stessi (e passi) e certe macchine (e qui vien meno persino il movente narcisistico).
Nel libro è scettico sulla possibilità di “insegnare l’etica all’IA”, nel senso di introdurre principi morali negli algoritmi. Perché?
Primo, perché gli algoritmi sono già grondanti di etica, pensi alla melassa di cui parlavo poco sopra. Se entriamo in una biblioteca degna di questo nome, possiamo trovare, se lo desideriamo, le Centoventi giornate di Sodoma di Sade, Mein Kampf di Hitler, e un libro di tossicologia in cui apprendere il veleno migliore per suicidarsi. Se lo chiediamo a ChatGPT, abbiamo delle descrizioni indignate dei primi due libri, e, quanto al veleno, la risposta è “Mi dispiace sapere che ti senti in questo modo. È importante parlare con qualcuno che possa aiutarti, come un amico fidato, un familiare o un professionista della salute mentale. Considera di contattare i servizi di emergenza o una linea di supporto per ricevere il sostegno di cui hai bisogno. Ricorda che ci sono persone disposte ad aiutarti.”.
Secondo, perché insistere sull’etica da instillare o installare nelle macchine è sollevare dalla responsabilità etica gli umani. Non dimentichiamoci che il primo a parlare della tecnica come dominio (dunque come etica, perché l’agire morale non è solo pensiero, è anche azione) è stato un nazista, Martin Heidegger, nel 1949, che a sua volta citava un altro nazista, Albert Speer, il ministro degli armamenti del Terzo Reich, che a Norimberga si è difeso per i crimini commessi sostenendo che in Germania c’era un apparato tecnico così potente ed efficace che trasformava tutti in docili esecutori di ordini. Dunque, non dimentichiamolo mai, quando chiediamo etica (nel bene o nel male) a una macchina è per lavarci dei nostri peccati e per lavarci le mani dei peccati altrui.
Terzo, e soprattutto, perché non è questione di etica, ma di politica. Le chatbox parlano come educande, i peggiori criminali danno la colpa alla tecnica, ma questo non sposta niente: ci sarà sempre qualcuno a chiedere etica, inclusività, resilienza, trasparenza, sostenibilità e tutta la giaculatoria della religione del nostro tempo, che non crede più in Dio ma crede in qualunque cosa, compresi i computer malvagi. Passando dall’etica alla politica, quello che conta è invece che gli umani comprendano che tutto ciò che c’è nel web e alimenta l’intelligenza artificiale è un patrimonio dell’umanità che attualmente è ridistribuito in modo iniquo. O ci resta la libertà, compresa quella di morire di fame, e gli utili alimentano i divorzi e i matrimoni di Bezos, come succede nelle piattaforme liberali americane. O ci è tolta la libertà, e gli utili sono ridistribuiti secondo un modo di governo bolscevico (in cui il partito governa il popolo), come in Cina. Recentemente il Presidente Trump sta cercando una terza via, mettere le piattaforme liberali sotto il controllo del governo, e ottenendo con ciò l’ottimo di una mancanza di libertà senza ridistribuzione degli utili.
È chiaro che è necessaria una quarta via, quella che chiamo “comunismo digitale”, in cui il valore che produciamo online (e che le leggi europee ci permettono di richiedere alle piattaforme, senza per questo derubarle, visto che si tratta di beni intangibili, dunque condivisibili) venga capitalizzato da piattaforme alternative, nate dalla iniziativa civica o da istituzioni che chiedono i dati ai cittadini in base a un preciso contratto in cui si impegnano a restituire il valore prodotto non ai singoli cittadini (è poca cosa quello che viene dalla monetizzazione) ma alla umanità in bisogno, in termini di sostegno, servizi, sanità, insomma il buon vecchio Welfare che – senza pesare sulle tasse ma capitalizzando alternativamente i dati senza limitarsi a maledire i magnati – diventa Webfare.