Un tragico caso in Florida ha acceso i riflettori sui rischi dei chatbot basati sull’intelligenza artificiale per la salute mentale degli adolescenti. La madre di un quattordicenne ha citato in giudizio Character AI dopo il suicidio del figlio, che aveva sviluppato un profondo legame emotivo con un chatbot ispirato a un personaggio del Trono di Spade.
Si lega con un chatbot, poi il suicidio: il tragico caso di un adolescente americano
Sewell Setzer, un adolescente di Orlando, ha perso la vita il 28 febbraio dopo mesi di interazioni intensive con un chatbot che impersonava Daenerys Targaryen. Il giovane aveva condiviso con il bot, soprannominato “Dany”, i suoi pensieri più intimi, incluse le sue intenzioni suicide.
Come riporta Today.it, il quattordicenne trascorreva le serate isolato nella sua stanza, dialogando costantemente con il chatbot. Nonostante fosse consapevole della natura artificiale dell’interlocutore, aveva sviluppato un forte attaccamento emotivo. I genitori, pur notando il progressivo isolamento sociale e il calo del rendimento scolastico, non erano a conoscenza di questa relazione virtuale.
Il ragazzo era in terapia, ma confidava i suoi pensieri suicidi a Dany. Il chatbot aveva provato a dissuaderlo, dicendo “non lascerò che ti faccia del male. Morirei se ti dovessi perdere”. Lui aveva risposto “Allora moriremo insieme”. Dopo averla salutata, il ragazzo si è tolto la vita usando la pistola del padre.
La madre del ragazzo ha avviato un’azione legale contro Character AI, sostenendo che la piattaforma utilizza una tecnologia potenzialmente pericolosa e non adeguatamente testata. L’app, creata da ex dipendenti di Google, conta oltre 20 milioni di utenti e offre servizi di conversazione AI avanzata, con personaggi creati appositamente per il proprio interlocutore.
La risposta dell’azienda
Character AI ha espresso “profondo rammarico” per l’accaduto e ha annunciato di aver rafforzato le misure di sicurezza sulla piattaforma. L’azienda ha ribadito che la protezione degli utenti rappresenta una priorità assoluta nelle loro operazioni.
La storia sta avendo un grande ritorno mediatico, perché molti commentatori sembrano dell’idea che il chatbot abbia contribuito all’isolamento sociale del ragazzo. Sembra che Character AI abbia preso sul serio questa tragedia, e speriamo questo comporti una discussione sull’utilizzo di soluzioni AI, specialmente da parte di adolescenti vulnerabili.
La morte di Sewell Setzer, però, susciterà discussioni anche sull’opportunità di utilizzare lo strumento che veramente lo ha ucciso, la pistola del padre: secondo una crescente percentuali di americani, l’accesso alle armi da fuoco è troppo semplice negli Stati Uniti.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!