s

Cronaca
I giudici mettono in guardia dalle 'allucinazioni giurisprudenziali' di ChatGPT
28-03-2025, 21:27
AGI - Attenzione alle 'allucinazioni giurisprudenziali'. L'allarme lo lancia il Tribunale di Firenze - sezione specializzata imprese in una sentenza che affronta il tema dei rischi per gli operatori del diritto di essere ingannati da informazioni non vere prodotte da ChatGPT. In un caso affrontato nei giorni scorsi, ChatGPT aveva inventato numeri riferibili a presunte sentenze della Cassazione in tema di acquisto di merce contraffatta al punto che un legale aveva chiesto la condanna del collega 'rivale' nel procedimento accusandolo di "abusivo utilizzo dello strumento processuale" per avere cercato di influenzare il giudizio del Tribunale con dati fasulli, provocandogli cosi' dei danni. Il legale aveva replicato, si legge nel provvedimento visionato dall'AGI, che "i riferimenti giurisprudenziali citati nell'atto erano stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell'intelligenza artificiale ChatGPT, del cui utilizzo lui non era a conoscenza". Si parla di 'allucinazioni giurisprudenziali' quando "l'IA genera risultati errati che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri". I giudici hanno ritenuto che le loro valutazioni non siano state influenzate da queste sentenze inesistenti perché la causa si 'giocava' su altri piani ma hanno comunque censurato "il disvalore relativo all'omessa verifica dell'effettiva esistenza delle sentenze". Lo Studio Legale larussi e il suo founder, l'avvocato Daniele larussi, hanno pubblicato la sentenza su LinkedIn evidenziandone la portata perché "la pronuncia del collegio fiorentino interviene, tra le prime, su un tema di grande attualità relativo all'uso dell'intelligenza artificiale da parte degli operatori del diritto nel giudizio statuendo il disvalore della condotta dell'avvocato difensore che abbia, omettendo un controllo sull'esistenza delle sentenze reperite tramite l'IA, utilizzato improprie (perché inesistenti) 'fonti giurisprudenziali' a sostegno delle tesi difensive prospettate in causa. L'iter argomentativo della rilevante pronuncia riguarda il fenomeno delle cosiddette allucinazioni dell'intelligenza artificiale, ossia l'elaborazione di informazioni inesistenti ma presentate come veritiere. In pratica, l'IA può generare riferimenti giuridici inesistenti e persino confermarli in seguito a nuove interrogazioni -prosegue l'avvocato Iarussi - Nel caso in questione, ChatGPT avrebbe inventato numeri riferibili a presunte sentenze della Corte di Cassazione relative all'acquisto soggettivo di merce contraffatta, senza però alcun fondamento reale. Questo fenomeno può rappresentare un pericolo per l'attività forense, poiché l'avvocato che si affida esclusivamente alle ricerche condotte dall'intelligenza artificiale, senza un effettivo controllo, rischia di incorrere in gravi errori professionali. L'uso improprio di strumenti di IA nel contesto processuale, come evidenziato dal Tribunale, deve essere valutato con particolare attenzione, soprattutto in considerazione del fatto che l'attività difensiva deve sempre fondarsi su fonti affidabili e verificabili".
CONTINUA A LEGGERE
2
0
0