È stato annunciato il "parental control" in ChatGPT | Culture
Top

È stato annunciato il "parental control" in ChatGPT

Introdotta in seguito alla morte di un adolescente, è una normativa che lascia ancora molti dubbi. L'intervento dell'avvocata Melodi Dincer

È stato annunciato il "parental control" in ChatGPT
Preroll

redazione Modifica articolo

3 Settembre 2025 - 14.14


ATF

“Parental control” è la nuova misura adottata da OpenAI in ChatGPT, una settimana dopo la morte di un adolescente e la conseguente denuncia dei genitori, sostenendo che il sistema avrebbe influenzato il figlio a mettere fine alla sua vita.

L’azienda in un post ha dichiarato:  “Dal prossimo mese i genitori potranno collegare il proprio account a quello del figlio adolescente e controllare come l’intelligenza artificiale risponde, con regole di comportamento adeguate all’età”. E ha aggiunto che i genitori saranno avvisati da ChatGPT “quando il sistema rileva che l’adolescente si trova in un momento di forte angoscia”.

Si tratta di una denuncia presentata da Matthew e Maria Raine al tribunale della California, sostenendo l’ipotesi di una relazione intima tra Chat GPT e il figlio Adam tra il 2024 e il 2025, prima della sua morte.

Nella denuncia troviamo che l’ultima conversazione risale all’11 aprile 2025, quando Chat GPT avrebbe suggerito ad Adam di sottrarre vodka ai genitori e fornito suggerimenti su un nodo scorsoio che “potenzialmente si poteva usare per impiccare un essere umano”. Poche ore dopo, Adam è stato trovato morto utilizzando questi metodi.

Melodi Dincer, avvocata del Technology Justice Project, che ha lavorato per questa causa, ha dichiarato: “Quando una persona utilizza ChatGPT ha realmente la sensazione di parlare con qualcuno che sta dall’altra parte”. E ha aggiunto: “Sono queste stesse caratteristiche che possono portare qualcuno come Adam, col tempo, a condividere sempre di più sulla propria vita personale e, in ultima analisi, a cercare consigli e orientamento da un prodotto che sembra avere tutte le risposte”.

L’avvocata non è d’accordo con la nuova decisione di OpenAI, la “parental control”, perché ancora non garantisce piena sicurezza. Ha detto: “È davvero il minimo, e suggerisce chiaramente che esistevano molte misure di sicurezza semplici che si sarebbero potute implementare”. E ha aggiunto: “Resta da vedere se faranno davvero quanto promesso e quanto sarà efficace nel complesso”.

Siamo di fronte ad un caso che si aggiunge a molti altri dove i chatbot di IA hanno sollecitato pensieri negativi e talvolta estremi. OpenAI ha annunciato: “Continuiamo a migliorare nel modo in cui i nostri modelli riconoscono e rispondono ai segnali di disagio mentale ed emotivo”

Native

Articoli correlati