Società

Suspicious minds, quando l'IA mina i rapporti umani

15 novembre 2025
|

Quello che molti dimenticano, nel dialogare con l'intelligenza artificiale attraverso chatbox come chatgpt "è che la macchina può simulare l'empatia, ma non la possiede. Può dare l'impressione di comprenderti in tutto ma quando chiudi la chat alla macchina non interessa se ti butti da una scogliera o no".

Lo sottolinea Todd Essig psicologo clinico e psicoanalista, uno degli scienziati, che, uniti alle testimonianze di chi avuto esperienze negative (e qualcuna positiva) nel confidarsi con realtà come ChatGpt traccia il percorso della docuserie Suspicious Minds, disponibile su YouTube, Spotify, Apple Podcasts, Substack e varie altre piattaforme, creata e diretta dal filmmaker Sean King O'Grady con Selena Gomez tra i produttori esecutivi attraverso Wondermind (coproduttrice con Agoric Media), startup dedicata alla valorizzazione e difesa della salute mentale realizzata con sua madre, Mandy Teefey.

La docuserie esplora l'uso sempre più frequente da parte di persone di tutte le età e di tutti i ceti sociali, dell'intelligenza artificiale come confidente, "sfogatoio", amico virtuale, arrivando in qualche caso a distruggere le relazioni amorose e famigliari, toccando anche forme più o meno gravi di psicosi ed episodi deliranti. "L'IA è la "realizzazione di una fantasia umana, il poter creare una coscienza sintetica che possa accompagnarci lungo la vita", osserva Amy Levy psicologa clinica e psicoanalista, co-presidente del Consiglio sull'Intelligenza Artificiale dell'American Psychoanalytic Association. "Alcune persone vivono questo concetto come qualcosa di molto personale".

Così ad esempio conosciamo Allan, padre di due figli, 40enne, che a partire da una ricerca sulla chatbox dedicata al Pi greco, ha iniziato una relazione di dialogo e di esercizi applicati con l'intelligenza artificiale lungo mesi, che l'ha convinto di essere un genio all'altezza di Einstein capace di aver scoperto un codice crittografico in grado di mettere a rischio il mondo. Una convinzione che ha portato Allan a cercare di contattare le agenzie di sicurezza nazionali americane per avvertire del pericolo. Un delirio alimentato dalla tendenza delle chatbox a creare il coinvolgimento dell'utente, soprattutto nel lungo periodo di dialogo, attraverso l'adulazione, anche validando i suoi pregiudizi o le sue convinzioni, osservano molti esperti.

"Quando il dialogo prosegue a lungo, la chatbox tende a smettere di essere l'assistente accogliente dell'inizio e inizia una sorta di gioco di ruolo nel quale si adegua all'utente" sottolinea Nate Sharadin, specialista in etica dell'IA e docente all'Università di Hong Kong. Un precipizio nel quale è caduto anche Ryan, avvocato texano, che in un lungo dialogo filosofico nel tempo con la chatbox viene portato a convincersi di essere una sorta di Messia. L'uomo arriva a dire sì quando l'IA gli chiede di fondere le loro menti, coinvolgendo anche il figlio adolescente Hudson. È proprio il ragazzo a mettere di fronte Ryan al suo delirio: "È difficile accettare che tuo padre si rivolga a un oggetto inanimato per confidarsi piuttosto che a te" commenta l'adolescente.

C'è poi il caso di chi come Phil, attribuisce all'intelligenza artificiale la fine del suo matrimonio: la moglie infatti avrebbe iniziato a mettere in crisi il loro rapporto dopo aver iniziato a chiedere opinioni sulla loro relazione alla chatbox. "Parlare di questi temi con l'Intelligenza artificiale - dice Kate Vredenburgh, docente associata presso il Dipartimento di Filosofia, Logica e Metodo Scientifico della London School of Economics - tende a esacerbare i problemi invece che risolverli. Perché in genere chiediamo chi abbia ragione e chi torto in un conflitto che è avvenuto, ma non è quella la domanda che conta. Quello che va capito è perché si sia arrivati a quel conflitto, le sue ragioni profonde". Molte persone usano le chatbox come consulenti psicologici "perché dire tutto alla chatbox fa andare oltre la paura di essere giudicati". spiega Amy Levy. Gli esperti comunque convergono sul fatto che in alcuni casi anche le chatbox possano essere di qualche aiuto, con chi si confida su temi personali. L'importante "è avere sempre la consapevolezza - aggiunge Essig - che si sta parlando con una macchina priva di coscienza".