s
Tutte le prime pagine di oggi su Giornalone.it
Estero
ChatGPT 'sapeva' della strage in Canada, ma OpenAI non avvertì la polizia
Oggi 22-02-26, 05:29
AGI - Mesi prima del massacro in una scuola che ha causato otto morti e 25 feriti e sconvolto la cittadina rurale di Tumbler Ridge, in Canada, OpenAI aveva preso in considerazione l'ipotesi di avvisare le autorità sulle interazioni con ChatGPT della persona poi identificata come sospetta dell'attacco, Jesse Van Rootselaar. Lo riporta il Wall Street Journal. Secondo fonti a conoscenza della vicenda, durante l'utilizzo del chatbot nel giugno scorso Van Rootselaar aveva descritto per diversi giorni scenari di violenza armata. I contenuti, segnalati da un sistema automatico di revisione, avevano allarmato dipendenti dell'azienda e avviato un dibattito interno tra una decina di collaboratori sull'opportunità di intervenire. Alcuni dipendenti ritenevano che i messaggi potessero indicare un rischio di violenza nel mondo reale e avevano sollecitato la dirigenza a informare le autorità canadesi. I vertici della società hanno però deciso di non contattare la polizia, stabilendo che l'attività non soddisfacesse i criteri per una segnalazione, che richiedono un rischio credibile e imminente di grave danno fisico. L'account è stato comunque sospeso. Dopo la sparatoria, OpenAI ha contattato la Royal Canadian Mounted Police e sta collaborando alle indagini. L'azienda ha espresso cordoglio per le vittime della tragedia. Il profilo della sospetta e le indagini Van Rootselaar, 18 anni, è stata trovata morta il 10 febbraio all'interno della scuola teatro dell'attacco, apparentemente per una ferita autoinflitta. La sparatoria ha causato otto morti e almeno 25 feriti. La sospetta era già nota alla polizia locale, che in passato era intervenuta più volte per problemi di salute mentale e aveva temporaneamente sequestrato armi dalla sua abitazione. Gli investigatori stanno analizzando l'attività online e la traccia digitale della giovane per individuare possibili indizi sul movente. Tra i contenuti emersi figura un videogioco creato sulla piattaforma Roblox che simulava una sparatoria in un centro commerciale, mai distribuito al pubblico. Post sui social mostrano inoltre immagini al poligono di tiro e discussioni online su armi e munizioni, compresa la presunta realizzazione di un bossolo con una stampante 3D. Il dibattito sulla responsabilità delle piattaforme Il caso riaccende il dibattito sulla responsabilità delle piattaforme digitali e delle aziende di intelligenza artificiale nel bilanciare la tutela della privacy degli utenti con la sicurezza pubblica, soprattutto quando gli utenti condividono contenuti sensibili o segnali di potenziale violenza. OpenAI ha sottolineato che i suoi modelli sono progettati per scoraggiare comportamenti dannosi e che le conversazioni che indicano intenti violenti vengono sottoposte a revisione umana, con eventuale segnalazione alle autorità solo in presenza di un rischio imminente.
CONTINUA A LEGGERE
5
0
0
Guarda anche
Agi
04:36
