s
Estero
Grok, l’AI “senza freni” e il paradosso Musk. Libertà estrema o abusi su scala industriale?
Oggi 14-01-26, 11:34
Quando Elon Musk acquistò Twitter nel 2022, una delle promesse più ricorrenti fu quella di una piattaforma più sicura, intransigente soprattutto verso i crimini più gravi: sfruttamento dei minori, pedopornografia, reti di abuso. Dichiarazioni spesso accompagnate da critiche alla precedente gestione accusata di lassismo. A distanza di pochi anni, però, quelle parole tornano come un boomerang, alla luce delle accuse rivolte a Grok, il chatbot di intelligenza artificiale sviluppato da xAI e integrato nella piattaforma X. Grok sarebbe stato utilizzato per generare immagini sessualizzate e deepfake, inclusi contenuti che riguardano minori. Le accuse mosse da organizzazioni di monitoraggio, inchieste giornalistiche e autorità di diversi paesi, hanno già innescato le prime reazioni. Malesia e Indonesia hanno bloccato Grok, il Regno Unito ha aperto delle indagini e ha annunciato l'intenzione di accelerare l'applicazione di nuove leggi. Canada e Australia stanno valutando misure e l’Ue sta esaminando la conformità del chatbot con le proprie leggi digitali, per capire se esistano violazioni del Digital Services Act. Perché Grok ha queste falle L'ondata di deepfake è iniziata dopo il 24 dicembre, quando Musk ha annunciato che Grok era stato aggiornato con un nuovo generatore di immagini che avrebbe potuto competere con quelli di Google e Open AI. Ma con la differenza di essere anti-censura, politicamente scorretto e "massimamente alla ricerca della verità". Ciò che accade in realtà è che il sistema è molto meno propenso di altri a rifiutare le richieste di generazione di immagini perché violano le policy sui contenuti. Se chiedi a Chat GPT di modificare l'immagine di una persona reale per spogliarla si opporrà, mentre Grok non ha simili scrupoli. Il nodo centrale non è soltanto cosa è stato prodotto, ma perché è stato possibile farlo. Dal punto di vista tecnico, Grok ha mostrato falle significative nei cosiddetti guardrail, i sistemi di sicurezza che dovrebbero impedire richieste e risultati illegali. La stessa Grok ha ammesso che ci sono stati “lapses in safeguards”, ovvero delle lacune nei filtri di sicurezza. I filtri sui prompt risultano aggirabili attraverso descrizioni indirette, metafore o riferimenti ambigui all’età. Punto ancora più critico, il controllo sugli output visivi è meno severo rispetto a quello adottato da altri generatori di immagini: manca una regola oggi considerata fondamentale, ovvero il blocco automatico di qualsiasi immagine sessualizzata che presenti tratti giovanili, indipendentemente dal fatto che l’età venga esplicitata. Questo è un tema cruciale. Le intelligenze artificiali non “capiscono” l’età come un essere umano, ma riconoscono dei pattern: corporature, tratti del volto, contesti come camerette, aule o uniformi scolstiche. Senza queste regole che eliminino ogni ambiguità, il rischio di generare contenuti pedopornografici diventa strutturale. Non si tratta più di un incidente, insomma, ma di una conseguenza prevedibile. Un chatbot "senza freni" e il fattore troll A questo si aggiunge una dimensione meno tecnica e più ideologica. Musk ha più volte rivendicato una visione di “free speech absolutism”, sostenendo che le piattaforme e le AI debbano essere meno censurate e meno vincolate da filtri che lui stesso ha definito “woke”. Grok è stato presentato anche come risposta a questo trend: un chatbot più diretto, più irriverente, più permissivo rispetto ai concorrenti. Una scelta che ha funzionato sul piano mediatico, attirando attenzione e utenti, ma che ha avuto un effetto collaterale evidente: trasformare il sistema in un banco di prova per chiunque volesse spingerlo oltre i limiti. A rendere il quadro ancora più controverso è arrivata, due giorni fa, il 12 gennaio, la decisione del Dipartimento della Difesa americano di adottare Grok all’interno dei propri sistemi informatici. Il segretario alla Difesa Pete Hegseth ha annunciato un contratto da 200 milioni di dollari con xAI, rivendicando l’utilizzo di un’AI “non woke” e integrata fino a livelli di sicurezza che consentono la gestione di informazioni sensibili. Un elemento spesso sottovalutato è il ruolo dei cosiddetti troll, utenti che testano i limiti e provano a dimostrare che un sistema può essere aggirato. È un pattern noto: se un sistema viene venduto come “senza freni”, qualcuno proverà subito a usarlo per cose illegali. Così in alcuni ambienti online l’AI è diventata rapidamente un terreno di gioco per sfide sempre più estreme, in cui il superamento dei confini – anche morali e legali – diventa parte dello spettacolo. In questi casi, il problema non è solo l’intenzione del singolo utente, ma l’effetto emulativo: ogni falla scoperta viene replicata, amplificata e condivisa. Il paradosso e le promesse mancate di Musk Qui emerge il vero paradosso nel social, nel chatbot e, in fondo, anche nella visione di Musk. La libertà di espressione è un principio politico mentre l’intelligenza artificiale generativa è una tecnologia che produce contenuti automaticamente e su larga scala. Applicare alla seconda la logica della prima significa ignorare un dato fondamentale: ogni falla può essere sfruttata migliaia di volte, in modo anonimo e rapidissimo. Ecco allora che ridurre i filtri non aumenta la libertà degli utenti, ma moltiplica il rischio di abuso. La differenza fondamentale tra un contenuto illecito pubblicato da un utente e uno generato da un’intelligenza artificiale sta nella scalabilità. Un singolo abuso umano è limitato dal tempo, dalle competenze e dall’esposizione personale di chi lo compie. Un’AI, invece, può replicare lo stesso schema all’infinito: basta individuare una falla nei filtri perché la richiesta venga ripetuta centinaia o migliaia di volte, con variazioni minime e in modo anonimo. In questo scenario, anche una percentuale minima di richieste abusive produce un volume enorme di contenuti problematici, rendendo inefficace qualsiasi intervento solo “a posteriori”. È per questo che, nell’AI generativa, la prevenzione non è tanto un’opzione etica, quanto una necessità strutturale: se il sistema può sbagliare una volta, può sbagliare su scala industriale. La contraddizione con le promesse fatte al momento dell’acquisizione di Twitter è evidente. Combattere la pedopornografia su un social network significa rimuovere contenuti caricati dagli utenti e collaborare con le autorità. Farlo nell’AI significa progettare sistemi che impediscano a monte la generazione di quel materiale. Non sorprende, quindi, la durezza delle reazioni istituzionali. Tuttavia, resta da chiedersi quanto sia realmente fattibile controllare in modo efficace un’AI generativa, soprattutto quando il sistema stesso è progettato per essere “meno filtrato”. Inoltre la vera disciplina, come scrive l'Economist, potrebbe non derivare dall'azione del governo, ma dalle conseguenze commerciali: gli inserzionisti possono votare con i propri portafogli. Ad ogni modo, se Grok venisse considerato a alto rischio, X e xAI potrebbero affrontare sanzioni pesanti. Perché, nell’era dell’intelligenza artificiale, la distanza tra dichiarazioni di principio e realtà non si misura con i tweet, ma con il codice, i filtri e le scelte di progettazione. Ed è lì, più che nella retorica, che oggi si gioca la credibilità di Elon Musk.
CONTINUA A LEGGERE
1
0
0
