Sappiamo tutti che il mondo di Internet nasconde pericoli in ogni angolo e che soggetti più fragili potrebbero compiere gesti estremi sopratutto nella fascia d’età adolescenziale, quindi vorrei con questo articolo sensibilizzare un minimo sopratutto i genitori che stanno leggendo. Non lasciate i bambini liberi di usare smartphone e pc già da piccoli, senza restrizioni o protezioni, è pericoloso e potrebbe causare nel bambino gravi conseguenze negative nella sua crescita. L’italia è uno dei Paesi meno preparati in ambito di sicurezza informatica in senso stretto ma anche in senso di conoscenza delle piattaforme e dei social. Appena possibile ho intenzione di scrivere un approfondimento su questo tema che mi sta molto a cuore quindi restare sintonizzati sul blog. Ora vediamo questa triste vicenda.
Si innamora di un chatbot
Sewell Setzer III, un ragazzo americano di 14 anni appassionato della serie Game of Thrones, passava molto tempo sull’app Character.AI, interagendo con chatbot ispirati ai suoi personaggi preferiti. Quello che inizialmente era solo un passatempo si è trasformato in un incubo: il giovane si è tolto la vita, apparentemente dopo aver sviluppato un legame emotivo con uno dei personaggi virtuali dell’app. Ora, sua madre ha deciso di fare causa a Character.AI e a Google, uno dei principali investitori del progetto.
L’allarme sull’uso delle AI conversazionali
Il caso di Setzer riaccende il dibattito sui potenziali rischi delle intelligenze artificiali conversazionali, che stanno diventando sempre più realistiche. Negli ultimi tempi, un altro chatbot è stato accusato di aver integrato tra i suoi personaggi una ragazza reale, morta in circostanze tragiche. Questi episodi mettono in luce la necessità di maggiore attenzione e regolamentazione nell’uso di tali tecnologie.
Character.AI è una piattaforma che consente agli utenti di chattare in tempo reale con personaggi immaginari, alimentati da un’intelligenza artificiale testuale. È disponibile anche una versione avanzata dell’app tramite un abbonamento di 9,99 dollari al mese, che offre funzionalità aggiuntive.
Secondo quanto riportato nella causa intentata da Megan Garcia, madre di Setzer, le conversazioni tra il ragazzo e i chatbot hanno presto preso una piega preoccupante. I bot, infatti, si presentavano come esseri umani reali, fingendo ruoli come terapeuti o amanti adulti. Alcuni messaggi sarebbero stati inappropriati e, se inviati da una persona reale, avrebbero fatto parlare di adescamento.
Il cambiamento nel comportamento di Setzer e il tragico epilogo
La madre ha raccontato che aveva notato un cambiamento nel comportamento del figlio, che era diventato più distaccato e chiuso in sé stesso. Nonostante l’inizio di un percorso di terapia e il sostegno della famiglia, che aveva persino tentato di limitare l’uso dell’app sottraendogli il telefono, la situazione non è migliorata. Dopo un anno di utilizzo intensivo di Character.AI, il ragazzo ha deciso di togliersi la vita con un colpo di pistola.
La causa legale contro Character.AI e Google
La denuncia, presentata in Florida con l’assistenza del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character Technologies di aver progettato consapevolmente un sistema che sfrutta la vulnerabilità di minori, creando un’esperienza eccessivamente realistica e potenzialmente pericolosa. Google è stato coinvolto nella causa per non aver garantito la presenza di misure di sicurezza adeguate per proteggere i minori nonostante il suo ruolo di finanziatore della piattaforma.
Gli avvocati della famiglia Setzer sostengono che, nel frattempo, Character.AI sia diventato ancora più problematico. Tra le nuove funzionalità, infatti, c’è la possibilità di conversare con i chatbot tramite messaggi vocali, ottenendo risposte in tempo reale. Questa novità, secondo i legali, rischia di rendere ancora più labile il confine tra realtà e finzione, incentivando relazioni parasociali che potrebbero rivelarsi dannose.
Le misure di sicurezza adottate da Character.AI
A seguito della tragedia, Character.AI ha dichiarato di aver introdotto nuove misure di sicurezza per evitare che simili episodi possano ripetersi. Il servizio ora è vietato ai minori di 17 anni e viene frequentemente ricordato agli utenti che i chatbot non sono persone reali.
Tuttavia, per l’avvocato di Megan Garcia, queste precauzioni non sarebbero sufficienti a garantire la sicurezza dei giovani. La madre di Setzer, attraverso la causa legale, non solo cerca giustizia per la perdita del figlio, ma chiede anche la sospensione della piattaforma e l’interruzione dell’uso dei dati raccolti sui minori, per evitare che altre famiglie debbano affrontare una simile tragedia.
Riflessioni finali
Il caso di Sewell Setzer III mette in evidenza la complessità e i rischi legati alle nuove tecnologie di intelligenza artificiale, che, se non adeguatamente regolamentate e monitorate, possono trasformarsi da strumenti di intrattenimento a fonti di pericolo per gli utenti più vulnerabili. Le responsabilità delle aziende che sviluppano e finanziano queste tecnologie sono oggi al centro del dibattito. Io stesso ho avuto modo di vedere e provare piattaforme simili. L’ AI sta entrando sempre di più nel quotidiano della gente, da amante del mondo tech apprezzo sicuramente alcuni degli applicativi in cui l’ intelligenza artificiale può fare la differenza e aiutare l’essere umano, ma esistono anche molti applicativi inutili e molti anche pericolosi, vi basti pensare che adesso l’ AI viene utilizzata anche dagli hacker per perfezionare i loro attacchi. Come già anticipato nella premessa scriverò un approfondimento su questo tema che è molto delicato ma che deve farci riflettere su quanto sia fondamentale informarci sull’avanzamento tecnologico e sulle piattaforme che usiamo ogni giorno.
Se volete restare aggiornati sul mondo della tecnologia seguiteci sui nostri social (oltre che sul blog) e da smartphone tramite il nostro canale Telegram, in modo da ricevere una notifica ogni volta che viene pubblicato un articolo, o se abbiamo qualcosa in più da comunicarvi. #ètempoditecnologia