REGOLAMENTAZIONE DELL’INTELLIGENZA ARTIFICIALE NELLA PROFESSIONE FORENSE: Legge 132/2025 e AI Act UE
L’uso dell’intelligenza artificiale nella pratica forense rappresenta un’opportunità innovativa per supportare i professionisti nella loro attività ma tale utilizzo necessita di avere come sfondo un quadro normativo rigoroso per garantire etica, trasparenza e soprattutto centralità e necessarietà della supervisione umana.
La legge n. 132 del 23 settembre 2025, entrata in vigore il 10 ottobre 2025, reca i principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale; promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne tutte le opportunità; garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale.
Lo sviluppo di sistemi e di modelli di intelligenza artificiale per finalità generali avviene su dati e tramite processi di cui devono essere garantite e vigilate la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati, nel pieno rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della trasparenza, della spiegabilità, assicurando sempre ed in ogni caso la sorveglianza e l’intervento umano.
L’Italia ha adottato un approccio prettamente antropocentrico dell’applicazione dell’IA, prescrivendo un costante controllo della persona fisica, promuovendo l’intelligenza artificiale a strumento di supporto volto a potenziare le abilità umane, senza però mai sostituirle, queste ultime necessarie a garantire trasparenza, equità e una verifica rigorosa per evitare rischi etici o discriminazioni di sorta, enfatizzando così la sinergia uomo-macchina nella quale la tecnologia arricchisce non prevalendo sul giudizio tecnico del professionista.
L’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica e l’esercizio delle competenze e funzioni delle istituzioni territoriali sulla base dei principi di autonomia e sussidiarietà e non deve altresì pregiudicare la libertà del dibattito democratico da interferenze illecite, da chiunque provocate, tutelando gli interessi della sovranità dello Stato nonché i diritti fondamentali di ogni cittadino riconosciuti dagli ordinamenti nazionale ed europeo.
Al fine di garantire il rispetto dei diritti e dei principi alla base della normativa deve essere assicurata, quale precondizione essenziale, la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale per finalità generali, secondo un approccio proporzionale e basato sul rischio, nonché l’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza.
Sia la legge italiana che i regolamenti europei (AI Act) classificano i sistemi giudiziari come ad alto rischio, imponendo obblighi di trasparenza in considerazione del loro potenziale impatto significativo sulla democrazia e sullo Stato di diritto.
Sin dall’adozione del Regolamento europeo sulla protezione dei dati personali (n. 679/2016, c.d. “GDPR”) il legislatore europeo pone il rischio come criterio generale di conformità, creando una struttura concettuale che diventerà poi un modello per tutte le normative successive. ll successivo Regolamento europeo 2024/1689 “Ai Act” fa proprio il medesimo approccio, stabilendo un quadro normativo armonizzato per garantire che l’IA sia affidabile e antropocentrica, salvaguardando la salute, la sicurezza e i diritti fondamentali sanciti dalla Carta. I sistemi di IA ad alto rischio sono soggetti a requisiti obbligatori rigorosi, considerata la loro capacità di comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali.
Il Consiglio Nazionale Forense ha elaborato, pertanto, nell’imminenza dell’entrata in vigore della Legge 132/2025, delle Linee Guida da prendere come punto di riferimento per l’utilizzo della AI nella professione forense, evidenziando all’interno delle stesse opportunità e rischi con l’imperativo per gli Avvocati di confrontarsi attivamente con le discipline in materia di IA.
Da una parte l’AI rappresenta uno strumento per l’analisi rapida di grandi volumi di dati giuridici e giurisprudenza; può creare e revisionare atti, contratti e pareri legali; può aiutare a prevedere l’esito dei procedimenti anche sulla base di dati storici; consente maggiore efficienza, precisione, riduzione dei costi ed un accesso più rapido alle informazioni. Dalla parte dei rischi ed in particolar modo sugli obblighi di competenza professionale e deontologici, si apre un ampio spettro di situazioni potenzialmente pericolose.
L’introduzione di dati personali o riservati dei clienti nell’interfaccia utente di uno qualsiasi dei sistemi di GenAI (tramite prompt o query) comporta il rischio concreto che tali dati vengano memorizzati, riutilizzati dal fornitore per l’addestramento del modello o condivisi con terzi. Poiché la riservatezza è uno dei principali doveri professionali degli Avvocati, questi ultimi devono astenersi dall’inserire dati riservati o personali, a meno che non esistano garanzie contrattuali adeguate o configurazioni di sistema che limitino l’uso dei dati.
Possono verificarsi le cosiddette “allucinazioni” quando i sistemi di intelligenza artificiale generativa (GenAI) o altri sistemi di IA producono risposte fattualmente inesatte o illogiche. Ciò può derivare da diversi fattori, quali limitazioni dei dati di consultazione, natura probabilistica dei modelli di IA, incomprensioni del contesto, eccessive generalizzazioni, oppure la generazione di dati sintetici. Nel contesto dei servizi legali, l’output della GenAI può dare luogo a giurisprudenza completamente fittizia, creazione di cause o decisioni giudiziarie inesistenti, attribuzione errata di citazioni a giudici o studiosi del diritto o costruzione di argomentazioni giuridiche apparentemente plausibili ma del tutto inventate. Inoltre, tali sistemi possono produrre interpretazioni normative fittizie, inventare principi giuridici, rappresentare in modo scorretto lo stato del diritto vigente in specifiche giurisdizioni, o stabilire false correlazioni tra concetti giuridici.
I processi algoritmici possono riprodurre o amplificare inconsapevolmente pregiudizi sociali esistenti dando luogo a risultati iniqui o altamente discriminanti. In particolare i modelli linguistici di grandi dimensioni (LLM), possono generare risposte che si conformano alle preferenze o ai pregiudizi percepiti dell’utente, spesso esprimendo un accordo eccessivo o fornendo feedback eccessivamente positivi: i modelli di IA vengono addestrati infatti su enormi insiemi di dati che riflettono modelli di comunicazione umana, nei quali l’accordo e il rinforzo positivo sono frequenti, dando erroneamente priorità alla generazione di risposte concilianti o gradite all’utente, piuttosto che a informazioni accurate, critiche o bilanciate, con il rischio di produrre output fuorvianti o distorti.
Allo stato attuale, quasi tutti i sistemi di intelligenza artificiale generativa presentano quello che è comunemente noto come il fenomeno della “scatola nera” (black box), in cui i processi interni di ragionamento del sistema risultano opachi e difficili da interpretare, e persino gli sviluppatori e i fornitori di tali sistemi spesso non sono in grado di spiegare pienamente come vengano prodotti gli output. Per gli Avvocati, questa circostanza comporta sfide importanti: è più difficile verificare e garantire l’accuratezza e l’affidabilità dei contenuti generati dall’IA, il che può compromettere la qualità della consulenza legale o degli atti processuali; può sollevare preoccupazioni circa la riservatezza delle informazioni del cliente fornite ai sistemi di IA, in particolare nel caso in cui tali dati vengano archiviati, riutilizzati o incorporati involontariamente nel successivo addestramento del sistema, con il rischio di violazione degli obblighi di segreto professionale.
Come per tutte le tecnologie digitali, anche l’utilizzo degli strumenti di intelligenza artificiale generativa (GenAI) può introdurre o amplificare rischi di sicurezza informatica, compresa la possibilità che attori malevoli sfruttino vulnerabilità del sistema. Tra tali rischi rientrano la maggiore frequenza e sofisticazione degli attacchi di phishing e di tipo informatico, poiché i criminali informatici possono essi stessi utilizzare strumenti di GenAI per rendere più efficienti i propri attacchi. Altri rischi per la sicurezza informatica includono la corruzione dei dati o delle fonti (nota come data poisoning), in grado di compromettere il comportamento e gli output dello strumento di GenAI.
L’Avvocato deve agire con piena trasparenza nei confronti del cliente, il quale se informato, potrebbe opporsi, porre condizioni o nutrire riserve rispetto all’uso della GenAI per uno scopo specifico.
L’obbligo di informativa posto in capo al professionista forense, in relazione all’utilizzo di strumenti di Intelligenza Artificiale (IA), è sancito dall’art. 13, comma 2, della L. 23 settembre 2025, n. 132. Tale disposizione stabilisce in modo perentorio che, al fine imprescindibile di assicurare il rapporto fiduciario con il cliente, le informazioni relative ai sistemi di IA utilizzati dal professionista debbano essere comunicate al soggetto destinatario della prestazione intellettuale, imponendo che tale comunicazione sia veicolata attraverso un linguaggio chiaro, semplice ed esaustivo. Il dovere di informativa è rafforzato dall’obbligo generale, stabilito dall’AI Act di garantire la trasparenza, soprattutto in virtù del fatto che gli Avvocati agiscono quali deployer (utilizzatori) di tali sistemi. Sul punto non va sottaciuto che l’impiego dell’IA nelle professioni intellettuali deve rimanere limitato al solo esercizio delle attività strumentali e di supporto all’attività professionale, mantenendo sempre la prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
Sebbene l’IA si confermi uno strumento estremamente utile per potenziare l’efficienza forense, il suo sviluppo normativo rimane ancora in una fase preliminare e controversa, richiedendo un costante monitoraggio per armonizzare progresso tecnologico e tutela etica.
Le principali sfide consisteranno nel garantire l’armonizzazione con il diritto UE, definire con precisione le nuove responsabilità e gli obblighi professionali, dare formazione continua ai tecnici del diritto, proteggere efficacemente i diritti di clienti e dei cittadini contro i rischi dell’automazione, e nel contempo favorire l’innovazione tecnologica per potenziare l’efficienza e l’equità della giustizia.