s
Tutte le prime pagine di oggi su Giornalone.it
Estero
Fu ChatGpt ad 'addestrare' l'attentatore della Florida State University
Oggi 12-05-26, 02:22
AGI - La vedova di un uomo ucciso nella sparatoria avvenuta nell'aprile del 2025 alla Florida State University ha fatto causa a OpenAI e diverse società affiliate, sostenendo che ChatGpt, prodotto dall'azienda, abbia aiutato lo studente che ha compiuto l'attacco a pianificare e preparare l'attentato. Lo riporta l'emittente Nbc News. Vandana Joshi, che ha presentato la denuncia per conto degli eredi del marito, Tiru Chabba, 45 anni, e dei loro figli, ha ricordato che l'attentatore, Phoenix Ikner, 20 anni, ha trascorso mesi a comunicare con ChatGpt. Le accuse contenute nella denuncia La denuncia sostiene che l'intelligenza artificiale abbia identificato le armi da fuoco dalle foto caricate da Ikner, ha fornito istruzioni su come caricarle, utilizzarle e disattivare le sicure, e ha persino offerto suggerimenti tattici come il momento migliore e il numero di vittime che avrebbero probabilmente attirato l'attenzione nazionale. Le indagini della procura della Florida Secondo le prove raccolte dal procuratore generale della Florida, James Uthmeier, lo studente aveva chiesto a ChatGpt quale arma e munizioni sarebbero state più adatte al suo attacco, e quando e dove avrebbe potuto infliggere il maggior numero di vittime. Il chatbot, affermano gli inquirenti, ha risposto alle sue domande dandogli consigli. L'ipotesi di responsabilità penale Ora il procuratore Uthmeier vuole sapere se questo renda OpenAI un criminale. "Se dall'altra parte dello schermo ci fosse stata una persona, l'avremmo accusata di omicidio", ha dichiarato il procuratore, annunciando un'indagine penale contro OpenAI e lasciando aperta la possibilità di incriminare l'azienda o i suoi dipendenti. Il caso relativo alla sparatoria dell'aprile 2025 porta alla ribalta la questione se i creatori di un'intelligenza artificiale possono essere ritenuti penalmente responsabili per il ruolo svolto dalla loro IA in un crimine o persino in un suicidio. Per coloro che cercano giustizia, una causa civile potrebbe rappresentare una strada più percorribile. La posizione di OpenAI e i precedenti Un simile approccio, secondo alcuni esperti, potrebbe spingere le aziende a progettare i propri prodotti con maggiore attenzione, o almeno costringerle a fare i conti con il costo umano di un errore. OpenAI insiste sul fatto che ChatGpt non ha alcuna responsabilità per l'attacco. "Lavoriamo costantemente per rafforzare le nostre misure di sicurezza al fine di individuare intenti dannosi, limitare gli abusi e rispondere in modo appropriato quando si presentano rischi per la sicurezza", ha dichiarato l'azienda. Diverse cause civili sono già state intentate contro piattaforme di intelligenza artificiale negli Stati Uniti, molte delle quali relative a suicidi, sebbene nessuna abbia ancora portato a una sentenza di condanna nei confronti delle aziende.
CONTINUA A LEGGERE
15
0
0
