INTELLIGENZA ARTIFICIALE GENERATIVA E SCRITTURA FORENSE: IMPORTANTI PRECISAZIONI GIURISPRUDENZIALI
Due recenti decisioni del Tribunale di Ferrara e del Tribunale di Siracusa segnano un passaggio che merita attenzione, non soltanto per il tema, ormai inevitabile, dell’intelligenza artificiale nel processo, ma per il livello più profondo sul quale entrambe intervengono, ossia quello del metodo dell’argomentazione giuridica e del rapporto tra affidabilità della fonte e responsabilità professionale.
Il Tribunale di Ferrara, con ordinanza emessa in data 20 febbraio 2026, chiamato a pronunciarsi sull’ammissibilità di un ricorso per consulenza tecnica preventiva, finalizzato all’accertamento della responsabilità per un sinistro stradale mortale, ha stabilito che una “conversazione” con un sistema di intelligenza artificiale, nel caso di specie ChatGPT, che il ricorrente pretendeva di elevare al rango di prova documentale, deve invece considerarsi tamquam non esset, non costituendo né una prova atipica e nemmeno un elemento indiziario.
La difesa del ricorrente, infatti, nel sostenere la responsabilità dell’ente gestore autostradale per omessa segnalazione di pericoli, ha, tra gli altri, prodotto una tale conversazione, con l’intento, appunto, di suffragare la propria pretesa risarcitoria.
Il Tribunale adito, come detto, ha negato alla chat prodotta qualsivoglia valore probatorio, neppure come prova atipica o elemento indiziario, sulla base di argomentazioni che, se analizzate, nulla hanno a che fare con lo strumento dell’intelligenza artificiale in sé, bensì il suo scorretto utilizzo da parte del professionista.
Il Tribunale rileva, in primo luogo, che il documento prodotto risultava parziale e, quindi, ipoteticamente fuorviante, mancando nell’allegazione il prompt, il quesito oggetto della richiesta formulata alla chatbot: in assenza del quesito, e quindi del contesto della conversazione, non è infatti possibile comprendere la portata della risposta fornita dalla macchina, poiché, come ormai noto, un sistema di intelligenza artificiale risponde in modo radicalmente differente a seconda delle modalità con la quale viene interrogata.
In secondo luogo, osserva il Tribunale come i precedenti giurisprudenziali citati dalla chatbot risultavano del tutto inconferenti: delle due pronunce riportate, la prima veniva emessa all’esito di un procedimento di opposizione agli atti esecutivi, mentre la seconda concerneva uno scontro tra veicoli, ma con contenuto non pertinente al caso esaminato.
La chatbot ha, pertanto, costruito un’architettura difensiva che sarebbe crollata, come in effetti accaduto, al primo contatto con una qualsiasi banca dati giurisprudenziale: richiamando la ormai nota ordinanza del Tribunale di Firenze del 14 marzo 2025, il Tribunale estense ricorda l’intrinseca inaffidabilità dei riferimenti giurisprudenziali citati dai sistemi di intelligenza artificiale, i quali restano ad oggi ancora esposti al fenomeno delle c.d. “allucinazioni di intelligenza artificiale”, che si verifica allorché questa inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri.
Infine, un’ultima criticità rilevata, e forse la più stigmatizzata, consiste nel fatto che il legale della parte non avesse minimamente verificato il risultato riportatogli dalla chat: l’avvocato, ricevuta una lista di precedenti da uno strumento che notoriamente li avrebbe potuti inventare, non li ha controllati, a rischio quindi – poi verificatosi – di citare elementi di nessuna attendibilità.
Un caso analogo, se non addirittura più allarmante, si è concluso lo stesso 20 settembre presso il Tribunale di Siracusa: la vicenda trae origine da una causa risarcitoria per inadempimento contrattuale di un contratto sublocazione, nella quale la difesa di parte attrice, a sostegno delle proprie tesi, ha citato quattro sentenze di legittimità, Cass. n. 1216/2000, Cass. n. 8379/2006, Cass. n. 14795/2003 e Cass. n. 4553/2004, ciascuna corredata da un passaggio testuale virgolettato, secondo la prassi redazionale che indica una citazione letterale.
Il problema, come rilevato dalla Seconda Sezione Civile del locale Tribunale, si rinviene nel fatto che, sebbene le pronunce citate siano effettivamente esistenti, anche se talune relative a materie completamente diverse, i virgolettati, nella loro formulazione autentica, non trovano riscontro in alcuna delle citate sentenze.
Il Tribunale, escludendo tanto un malfunzionamento delle banche dati quanto un mero errore di trascrizione, e perfino l’ipotesi dell’invenzione deliberata, afferma che l’unica ipotesi residua è che il difensore si sia avvalso di uno strumento di intelligenza artificiale generativa senza sottoporre gli output ottenuti alla doverosa verifica sulle fonti primarie.
Il Tribunale ricorda, allora, che i modelli di intelligenza artificiale generativa non costituiscono banche dati giurisprudenziali da cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica: tali sistemi non “sanno” né “ricordano” alcunché, ma si limitano a produrre sequenze di testo statisticamente plausibili e, proprio per questo, sono soggetti al fenomeno, sopra citato, delle “allucinazioni di intelligenza artificiale”.
Ecco allora che il Tribunale di Ferrara e di Siracusa affermano, in sostanza, lo stesso principio, già peraltro oggetto di precetti normativi sia a livello comunitario che a livello nazionale: l’intelligenza artificiale può assistere, ma non può sostituire il controllo umano sul diritto rilevante; può accelerare la scrittura, ma non assolve dall’onere di verifica; può produrre testo, ma non per questo produce conoscenza giuridica attendibile.
In questo senso, le pronunce in commento possono essere lette come uno dei primi tentativi della giurisprudenza italiana di fissare una grammatica minima dell’uso forense dell’intelligenza artificiale generativa: non banca dati, non fonte, non autorità interpretativa, ma strumento fallibile, da sottoporre sempre alla verifica rigorosa delle fonti primarie.