Una docu-serie, in formato video e podcast, nata con un obiettivo preciso: Suspicious Minds vuole fare luce sul ruolo che l’intelligenza artificiale sta assumendo nelle nostre vite. Il progetto è creato e diretto dal regista e produttore cinematografico Sean King O’Grady, e con l’attrice, cantante e imprenditrice statunitense Selena Gomez tra i produttori esecutivi attraverso Wondermind, una startup che si occupa della salute mentale, coproduttrice con Agoric Media.
Disponibile su Youtube, Spotify Apple Podcasts, Substack ed altre piattaforme di streaming dal 17 ottobre, la docu-serie è di cruciale importanza per tutti noi, perchè ogni giorno i video e la tecnologia minano la nostra connessione con la realtà e, in alcuni casi, ci portano a un pensiero pericoloso e delirante.
Attraverso potenti resoconti di prima mano e interviste approfondite con i principali esperti di psichiatria, neuroscienze ed etica dell’intelligenza artificiale, la serie svela un fenomeno psicologico in crescita, cioè quello di individui che sviluppano deliri complessi, spesso in grado di alterare la vita, radicati nelle tecnologie di intelligenza artificiale.
Dai chatbot fino ad arrivare ai timori della sorveglianza, vengono esaminati i modi in cui le tecnologie emergenti stanno rimodellando il panorama della paranoia, e come queste illusioni moderne riecheggiano, amplificano e sfidano la nostra comprensione storica della mente umana.
In seguito al rilascio di Suspicious Minds, sono stati molti gli esperti che hanno voluto esprimere la loro opinione sulle scottanti e complesse tematiche trattate nella serie. Ad esempio, Todd Essig, psicologo clinico e psicoanalista, uno degli scienziati che ha indagato sui problemi mentali legati all’uso di dell’IA, si è così espresso: “Quello che molti dimenticano, nel dialogare con l’intelligenza artificiale attraverso chatbot come ChatGPT è che la macchina può simulare l’empatia, ma non la possiede”.
E ha concluso Essig: “Può dare l’impressione di comprenderti in tutto ma quando chiudi la chat alla macchina non interessa se ti butti da una scogliera o no”.
Invece, Amy Levy, psicologa clinica e psicoanalista statunitense, co-presidente del Consiglio sull’Intelligenza Artificiale dell’American Psychoanalytic Association, ha tuonato: “L’IA è la realizzazione di una fantasia umana, il poter creare una coscienza sintetica che possa accompagnarci lungo la vita. Alcune persone vivono questo concetto come qualcosa di molto personale. Dire tutto al chatbot fa andare oltre la paura di essere giudicati”.
Per fare un esempio, nella serie sono protagoniste persone come il quarantenne Allan, padre di 2 figli, che a partire da una ricerca dedicata alla costante matematica “Pi greco”, ha iniziato una relazione di dialogo e di esercizi applicati con l’intelligenza artificiale durata mesi, che l’ha convinto di essere un genio all’altezza di Einstein capace di aver scoperto un codice crittografico in grado di mettere a rischio il mondo.
A causa della sua convinzione, Allan ha cercato di contattare le agenzie di sicurezza nazionali americane per avvertirle del pericolo per il suo Paese. Tuttavia, il suo è un delirio alimentato dalla tendenza dei chatbot a creare il coinvolgimento dell’utente, soprattutto nel lungo periodo di dialogo, attraverso l’esaltazione, anche validando i suoi pregiudizi o le sue convinzioni, come osservato molti esperti.
Nate Sharadin, specialista in etica dell’IA e docente all’Università di Hong Kong, ha invece sottolineato: “Quando il dialogo prosegue a lungo, il chatbot tende a smettere di essere l’assistente accogliente dell’inizio e inizia una sorta di gioco di ruolo nel quale si adegua all’utente”.
Questo è un abisso nel quale, come viene mostrato nella serie, è caduto anche Ryan, un avvocato texano che in un lungo dialogo filosofico nel tempo con il chatbot viene portato a convincersi di essere una sorta di Messia.
L’uomo, infatti, arriva a dare il suo assenso alla richiesta da parte dell’IA di fondere insieme le loro menti, coinvolgendo anche il figlio adolescente Hudson. E’ curioso che sia proprio il ragazzo a mettere di fronte Ryan al suo delirio, con l’adolescente che ha commentato: “E’ difficile accettare che tuo padre si rivolga a un oggetto inanimato per confidarsi piuttosto che a te”.
A margine di questo ultimo intricato ed enigmatico caso, Kate Vredenburgh, docente associata presso il Dipartimento di Filosofia, Logica e Metodo Scientifico della London School of Economics, si è così espressa: “Parlare di questi temi con l’Intelligenza artificiale tende a esacerbare i problemi invece che risolverli. Perché in genere chiediamo chi abbia ragione e chi torto in un conflitto che è avvenuto, ma non è quella la domanda che conta. Quello che va capito è perché si sia arrivati a quel conflitto, le sue ragioni profonde”.
Insomma, il confine tra benessere e malattie mentali è incredibilmente sottile, e questa serie ha tutte le carte in regola per creare consapevolezza su questi nuovi e onnipresenti trigger digitali e metterci in guardia circa i pericoli dell’IA, che è sì uno strumento utile in molti casi, ma anche altamente dannoso per la vita degli esseri umani se usato in maniera sbagliata.