AI nei tribunali e studi legali: la Legge 132/2025 che cambia le regole

Ottobre 2025 segna una data spartiacque per l'intelligenza artificiale nel sistema giustizia italiano. L'8 ottobre il Consiglio Superiore della Magistratura vieta formalmente l'uso di ChatGPT per la redazione delle sentenze. Il 10 ottobre entra in vigore la Legge 132/2025, primo quadro normativo organico sull'intelligenza artificiale in Italia. Due provvedimenti a distanza di 48 ore che segnano un confine netto: l'AI è arrivata nelle aule di tribunale e negli studi legali. Ma con regole precise.

Per anni l'intelligenza artificiale nel settore legale è stata materia da convegni, sperimentazioni isolate, ipotesi futuribili. Oggi è realtà quotidiana. Avvocati che usano ChatGPT per redigere ricorsi. Magistrati che sperimentano strumenti di ricerca giurisprudenziale automatizzata. Studi legali che implementano sistemi di analisi documentale massiva. L'AI non è più una possibilità: è già qui, sta emergendo in un settore tradizionalmente conservatore, e il legislatore ha deciso che servono argini.

La Legge 132/2025: primo quadro organico italiano

La Legge 23 settembre 2025 n. 132, pubblicata in Gazzetta Ufficiale ed entrata in vigore il 10 ottobre, rappresenta il primo intervento organico italiano sulla disciplina dell'intelligenza artificiale. Non è un semplice recepimento dell'AI Act europeo (Regolamento UE 2024/1689): è una normativa nazionale che affianca e integra il quadro comunitario, definendo principi, ambiti di applicazione e responsabilità specifiche per il contesto italiano.

Il legislatore ha scelto un approccio che si potrebbe definire "antropocentrico pragmatico": riconoscere l'AI come risorsa strategica, ma con la persona umana sempre al centro. I principi guida sono chiari:

  • Centralità della persona umana: l'AI serve le persone, non le sostituisce
  • Trasparenza e spiegabilità: chi usa AI deve poter spiegare come funziona
  • Non discriminazione: gli algoritmi non possono perpetuare bias o discriminazioni
  • Protezione dati personali: GDPR by design
  • Responsabilità degli operatori: chi usa AI ne risponde

Due articoli della legge interessano direttamente il mondo legal: il 13 per gli avvocati, il 15 per i tribunali.

Avvocati e AI: supporto sì, sostituzione no

L'articolo 13 della Legge 132/2025 disciplina l'uso dell'intelligenza artificiale nelle professioni intellettuali, inclusa quella forense. Il principio è netto: l'AI può essere utilizzata solo come strumento strumentale e di supporto, con prevalenza del lavoro intellettuale umano.

Cosa significa in concreto:

  • Ricerca giurisprudenziale automatizzata: sì, purché l'avvocato verifichi e selezioni i precedenti
  • Analisi documentale massiva (e-discovery): sì, per velocizzare la revisione di migliaia di documenti
  • Bozze di atti processuali: sì, ma la redazione finale e la strategia difensiva restano umane
  • Generazione automatica di pareri legali: no, se l'AI sostituisce l'attività intellettuale del professionista

Ma c'è un secondo obbligo, forse ancora più rilevante: l'avvocato deve informare il cliente dell'uso di sistemi AI. La comunicazione deve essere "chiara, semplice ed esaustiva". Non basta una generica menzione: il cliente deve comprendere quali strumenti vengono utilizzati, per quali attività, e che comunque la responsabilità finale resta del professionista.

Gli Ordini forensi si sono attivati immediatamente. L'Ordine degli Avvocati di Firenze, ad esempio, ha predisposto moduli informativi standard che i professionisti possono utilizzare nella Procura alle liti o in documenti separati. Alcuni contengono dichiarazioni ampie ("l'avvocato potrà avvalersi di sistemi di intelligenza artificiale di qualsiasi tipologia"), altri più restrittive ("esclusivamente per specifiche attività di supporto").

La sanzione per chi non informa il cliente? La legge non la prevede esplicitamente, ma la violazione dell'obbligo informativo potrebbe configurare inadempimento contrattuale e violazione del rapporto fiduciario, con possibili conseguenze deontologiche.

Tribunali e AI: decidere resta umano

L'articolo 15 della Legge 132/2025 traccia un confine ancora più netto per l'attività giudiziaria. Il principio è inviolabile: interpretazione della legge, valutazione dei fatti e delle prove, adozione dei provvedimenti restano riservati esclusivamente al magistrato.

L'AI nei tribunali può essere utilizzata solo per:

  • Gestione amministrativa: smistamento atti, organizzazione fascicoli, calendari udienze
  • Analisi statistica: dati processuali, durata media procedimenti, carichi di lavoro
  • Ricerca giurisprudenziale: individuazione precedenti, massimazione sentenze
  • Trascrizione automatica: verbalizzazione udienze
  • Anonimizzazione: oscuramento dati sensibili nelle sentenze pubblicate

Tutto ciò che è "ausiliario e organizzativo" è ammesso. Tutto ciò che è "decisionale" è vietato. La cosiddetta "giustizia predittiva" – sistemi che analizzano migliaia di sentenze passate per prevedere l'esito di una causa – resta fuori dalle aule italiane. Un algoritmo può dire che in casi simili il 90% delle sentenze va in un certo modo, ma non può suggerire al giudice come decidere.

La delibera del CSM dell'8 ottobre 2025 ha reso esplicito ciò che la legge implicava: ChatGPT e sistemi di AI generativa sono vietati per la redazione delle sentenze. Il motivo? Una serie di episodi imbarazzanti in cui magistrati hanno citato precedenti giurisprudenziali mai esistiti, creati di sana pianta da algoritmi generativi.

La legge prevede anche formazione obbligatoria: il Ministero della Giustizia deve elaborare linee programmatiche per la formazione di magistrati e personale amministrativo sull'uso consapevole degli algoritmi.

I casi problematici: quando l'AI genera finzione

Il divieto dell'uso di AI generativa nei tribunali non è ideologico: nasce da casi concreti. In Italia e all'estero, avvocati hanno presentato ricorsi contenenti citazioni di sentenze inesistenti, generate da ChatGPT. In alcuni casi, tribunali hanno sanzionato per lite temeraria professionisti che non avevano verificato l'accuratezza dei contenuti prodotti dall'AI.

Il problema è strutturale: i modelli linguistici generativi come ChatGPT sono addestrati per produrre testo plausibile, non necessariamente accurato. Quando viene chiesto di citare precedenti giurisprudenziali, l'algoritmo può "inventare" riferimenti che suonano credibili ma che non esistono. Per un avvocato che non verifica, il rischio è presentare al giudice documentazione falsa.

La Legge 132/2025 introduce anche nuove fattispecie penali. L'art. 612-quater del codice penale punisce la diffusione di contenuti generati o manipolati con AI (deepfake) senza consenso e con danno ingiusto. C'è anche un'aggravante comune (art. 61, n. 11-decies c.p.) per chi commette reati impiegando sistemi di AI quando questi rendono l'azione più insidiosa o aggravano le conseguenze.

La competenza specializzata: tribunali per l'AI

Un aspetto innovativo della legge è l'articolo 17, che modifica il codice di procedura civile attribuendo al tribunale (escludendo il giudice di pace) la competenza esclusiva sulle cause riguardanti il funzionamento di sistemi di intelligenza artificiale.

Si prospetta la nascita di un contenzioso specializzato in materia di algoritmi, dove saranno richieste elevate competenze tecniche e giuridiche. Un terreno nuovo su cui gli avvocati potranno sviluppare aree di attività professionale specializzate: responsabilità da malfunzionamento AI, violazioni GDPR algoritmiche, discriminazioni algoritmiche, dispute su proprietà intellettuale generata da AI.

Soluzioni conformi: sistemi RAG per studi legali

Di fronte a questo quadro normativo, gli studi legali che vogliono innovare senza violare la legge devono scegliere strumenti adeguati. I sistemi di AI generativa pubblici (ChatGPT, Claude, Gemini) presentano criticità multiple:

  • Trasmissione documenti all'esterno: ogni query invia contenuti a server esterni, violando potenzialmente segreto professionale e GDPR
  • Generazione contenuti non verificabili: rischio citazioni false, informazioni inventate
  • Assenza tracciabilità: impossibile documentare l'uso conforme alla legge
  • Zero personalizzazione: non conoscono la knowledge base dello studio

Diverso è il discorso per sistemi RAG (Retrieval-Augmented Generation) dedicati, progettati specificamente per contesti legal con requisiti di compliance:

  • AI residente: opera all'interno dell'infrastruttura dello studio, documenti non escono mai dal perimetro di sicurezza
  • Knowledge base controllata: lavora esclusivamente su documentazione interna verificata (precedenti, contratti, pareri, giurisprudenza interna)
  • Citazioni verificabili: ogni risposta riporta le fonti esatte dalla knowledge base, consentendo verifica immediata
  • Tracciabilità completa: audit trail di ogni utilizzo, dimostrabile ai fini dell'informativa cliente ex art. 13
  • GDPR by design: nessun trasferimento dati verso terze parti

Un sistema RAG interno consente allo studio di:

  • Interrogare in linguaggio naturale l'intero archivio di precedenti, contratti, strategie difensive
  • Recuperare istantaneamente giurisprudenza rilevante da database proprietari
  • Analizzare migliaia di documenti in discovery mantenendo tutto in-house
  • Generare bozze di atti basate su template interni verificati
  • Rispettare l'obbligo informativo con documentazione tecnica precisa

Il vantaggio non è solo compliance: è efficienza operativa reale. Lo studio legale che ha 20 anni di precedenti, strategie, contratti, può renderli immediatamente accessibili a tutti i professionisti, senza barriere linguistiche (sistemi avanzati supportano query multilingua), senza perdita di tempo, con garanzia di accuratezza.

Equilibrio tra innovazione e garanzie

La Legge 132/2025 e la delibera CSM non sono un freno all'innovazione: sono un argine alla superficialità. L'intelligenza artificiale nel settore legale non è vietata, è regolamentata. La differenza è sostanziale.

Gli studi che investiranno in sistemi conformi – AI residente, knowledge base controllata, tracciabilità completa – avranno un vantaggio competitivo significativo. Potranno offrire efficienza operativa superiore mantenendo piena compliance. Potranno informare i clienti non con vaghe dichiarazioni ma con documentazione tecnica precisa. Potranno dimostrare che l'AI è strumento di supporto, non sostituto del lavoro intellettuale.

I tribunali, dal canto loro, potranno beneficiare di strumenti organizzativi e statistici che alleggeriscono il carico amministrativo, liberando tempo per la funzione decisionale che resta – e deve restare – umana.

L'AI sta emergendo nel settore legal. La normativa italiana ha scelto di accompagnarne l'emergenza con regole chiare. Chi saprà innovare dentro questi confini avrà costruito un vantaggio sostenibile. Chi proverà scorciatoie rischia sanzioni deontologiche, responsabilità professionali e perdita di fiducia dei clienti.

La tecnologia è uno strumento straordinario. La responsabilità di usarla bene, come ha ricordato il Ministro Nordio, resta sempre e solo umana.

Post correlati