s
Tecnologia
Frodi potenziate dall’IA, la nuova frontiera del rischio digitale
Ieri 07-11-25, 16:08
AGI - Nel 2024, le frodi sui mezzi di pagamento hanno raggiunto in Europa un totale di quasi 1,2 miliardi di euro, di cui 382 milioni legati a manipolazioni. Ma dietro i numeri si nasconde una trasformazione più profonda: la frode è diventata intelligente, adattiva e quasi invisibile. A dirlo è Anna Ongaro, Country Manager per l’Italia di Sis ID, che invita banche, imprese e autorità pubbliche a "unire le forze" per fronteggiare minacce sempre più sofisticate. Dal 9 ottobre 2025, l’Unione Europea ha introdotto nuove regole sui bonifici istantanei, rendendo obbligatoria la verifica del beneficiario (Verification of Payee, VoP): un controllo automatico tra nome e IBAN per ridurre il rischio di errori o frodi. Una misura che, secondo Ongaro, "segna un passo avanti importante ma non sufficiente". "Le frodi si evolvono più velocemente delle regole", spiega. "Oggi i truffatori utilizzano la stessa intelligenza artificiale che doveva proteggerci". L’IA: alleata e minaccia Se da un lato l’intelligenza artificiale è diventata un’alleata preziosa per la sicurezza - quasi nove istituti finanziari su dieci la utilizzano per individuare anomalie o comportamenti sospetti - dall’altro è anche lo strumento preferito dai criminali. Deepfake vocali, falsificazione di IBAN, phishing mirato: l’IA generativa consente di creare falsi ordini di pagamento o imitare la voce di dirigenti aziendali in modo sempre più realistico. Secondo una ricerca di Boston Consulting Group, solo una banca su quattro si sente pronta a integrare in modo sicuro i modelli generativi nei propri sistemi di protezione. "Il problema non è più adottare l’IA" osserva Ongaro "ma saperla governare, garantendo trasparenza, supervisione e controllo". Apprendimento federato: collaborare senza condividere i dati Una delle soluzioni emergenti è il federated learning, o apprendimento federato, una tecnologia che consente a banche, fintech e imprese di collaborare all’addestramento dei modelli di IA senza scambiarsi dati sensibili. Ogni attore allena il proprio modello in locale e condivide solo i parametri aggiornati. Il risultato è un modello globale, più robusto e rispettoso del GDPR, capace di individuare schemi di frode che nessun singolo operatore riuscirebbe a vedere da solo. Questo approccio aumenta la precisione del rilevamento del 20% in media e apre la strada a una cooperazione antifrode di nuova generazione. Un triangolo di fiducia Per essere efficace, la lotta alle frodi deve fondarsi su un “triangolo di fiducia”: le imprese, prime sentinelle sul campo; le banche, custodi dei flussi finanziari; le autorità pubbliche, garanti della neutralità e della trasparenza. La collaborazione, sottolinea Ongaro, deve essere sostenuta da un quadro regolatorio solido. In Europa, questo triangolo è già delineato da tre pilastri normativi: il GDPR, il regolamento DORA sulla resilienza digitale e l’AI Act, che impone un uso etico e tracciabile dell’intelligenza artificiale. In Francia, il sistema VoP - che verifica automaticamente i beneficiari dei bonifici - è un esempio concreto di questa sinergia tra innovazione e regolamentazione. L’obiettivo è arrivare a una rete europea di segnalazione automatizzata, una piattaforma condivisa sotto supervisione pubblica che connetta in tempo reale i segnali di frode rilevati nei diversi Paesi membri. Verso una difesa collettiva "Solo una risposta collettiva e intelligente potrà preservare la fiducia, la risorsa invisibile su cui si regge ogni economia", conclude Ongaro. L’intelligenza artificiale ha cambiato il volto della criminalità finanziaria: renderla un’alleata comune, anziché un’arma a doppio taglio, è la sfida che banche, imprese e istituzioni devono affrontare insieme.
CONTINUA A LEGGERE
2
0
0
Guarda anche
Il Resto del Carlino
"Intelligenza artificiale risorsa del terziario"
Il Resto del Carlino
