Intelligenza Artificiale: un taglio di qualità
Non esiste indicazione senza distinzione. Lo scrisse George Spencer-Brown nel 1969, in un libro che...
Ottobre 2025 segna una data spartiacque per l'intelligenza artificiale nel sistema giustizia italiano. L'8 ottobre il Consiglio Superiore della Magistratura vieta formalmente l'uso di ChatGPT per la redazione delle sentenze. Il 10 ottobre entra in vigore la Legge 132/2025, primo quadro normativo organico sull'intelligenza artificiale in Italia. Due provvedimenti a distanza di 48 ore che segnano un confine netto: l'AI è arrivata nelle aule di tribunale e negli studi legali. Ma con regole precise.
Per anni l'intelligenza artificiale nel settore legale è stata materia da convegni, sperimentazioni isolate, ipotesi futuribili. Oggi è realtà quotidiana. Avvocati che usano ChatGPT per redigere ricorsi. Magistrati che sperimentano strumenti di ricerca giurisprudenziale automatizzata. Studi legali che implementano sistemi di analisi documentale massiva. L'AI non è più una possibilità: è già qui, sta emergendo in un settore tradizionalmente conservatore, e il legislatore ha deciso che servono argini.
La Legge 23 settembre 2025 n. 132, pubblicata in Gazzetta Ufficiale ed entrata in vigore il 10 ottobre, rappresenta il primo intervento organico italiano sulla disciplina dell'intelligenza artificiale. Non è un semplice recepimento dell'AI Act europeo (Regolamento UE 2024/1689): è una normativa nazionale che affianca e integra il quadro comunitario, definendo principi, ambiti di applicazione e responsabilità specifiche per il contesto italiano.
Il legislatore ha scelto un approccio che si potrebbe definire "antropocentrico pragmatico": riconoscere l'AI come risorsa strategica, ma con la persona umana sempre al centro. I principi guida sono chiari:
Due articoli della legge interessano direttamente il mondo legal: il 13 per gli avvocati, il 15 per i tribunali.
L'articolo 13 della Legge 132/2025 disciplina l'uso dell'intelligenza artificiale nelle professioni intellettuali, inclusa quella forense. Il principio è netto: l'AI può essere utilizzata solo come strumento strumentale e di supporto, con prevalenza del lavoro intellettuale umano.
Cosa significa in concreto:
Ma c'è un secondo obbligo, forse ancora più rilevante: l'avvocato deve informare il cliente dell'uso di sistemi AI. La comunicazione deve essere "chiara, semplice ed esaustiva". Non basta una generica menzione: il cliente deve comprendere quali strumenti vengono utilizzati, per quali attività, e che comunque la responsabilità finale resta del professionista.
Gli Ordini forensi si sono attivati immediatamente. L'Ordine degli Avvocati di Firenze, ad esempio, ha predisposto moduli informativi standard che i professionisti possono utilizzare nella Procura alle liti o in documenti separati. Alcuni contengono dichiarazioni ampie ("l'avvocato potrà avvalersi di sistemi di intelligenza artificiale di qualsiasi tipologia"), altri più restrittive ("esclusivamente per specifiche attività di supporto").
La sanzione per chi non informa il cliente? La legge non la prevede esplicitamente, ma la violazione dell'obbligo informativo potrebbe configurare inadempimento contrattuale e violazione del rapporto fiduciario, con possibili conseguenze deontologiche.
L'articolo 15 della Legge 132/2025 traccia un confine ancora più netto per l'attività giudiziaria. Il principio è inviolabile: interpretazione della legge, valutazione dei fatti e delle prove, adozione dei provvedimenti restano riservati esclusivamente al magistrato.
L'AI nei tribunali può essere utilizzata solo per:
Tutto ciò che è "ausiliario e organizzativo" è ammesso. Tutto ciò che è "decisionale" è vietato. La cosiddetta "giustizia predittiva" – sistemi che analizzano migliaia di sentenze passate per prevedere l'esito di una causa – resta fuori dalle aule italiane. Un algoritmo può dire che in casi simili il 90% delle sentenze va in un certo modo, ma non può suggerire al giudice come decidere.
La delibera del CSM dell'8 ottobre 2025 ha reso esplicito ciò che la legge implicava: ChatGPT e sistemi di AI generativa sono vietati per la redazione delle sentenze. Il motivo? Una serie di episodi imbarazzanti in cui magistrati hanno citato precedenti giurisprudenziali mai esistiti, creati di sana pianta da algoritmi generativi.
La legge prevede anche formazione obbligatoria: il Ministero della Giustizia deve elaborare linee programmatiche per la formazione di magistrati e personale amministrativo sull'uso consapevole degli algoritmi.
Il divieto dell'uso di AI generativa nei tribunali non è ideologico: nasce da casi concreti. In Italia e all'estero, avvocati hanno presentato ricorsi contenenti citazioni di sentenze inesistenti, generate da ChatGPT. In alcuni casi, tribunali hanno sanzionato per lite temeraria professionisti che non avevano verificato l'accuratezza dei contenuti prodotti dall'AI.
Il problema è strutturale: i modelli linguistici generativi come ChatGPT sono addestrati per produrre testo plausibile, non necessariamente accurato. Quando viene chiesto di citare precedenti giurisprudenziali, l'algoritmo può "inventare" riferimenti che suonano credibili ma che non esistono. Per un avvocato che non verifica, il rischio è presentare al giudice documentazione falsa.
La Legge 132/2025 introduce anche nuove fattispecie penali. L'art. 612-quater del codice penale punisce la diffusione di contenuti generati o manipolati con AI (deepfake) senza consenso e con danno ingiusto. C'è anche un'aggravante comune (art. 61, n. 11-decies c.p.) per chi commette reati impiegando sistemi di AI quando questi rendono l'azione più insidiosa o aggravano le conseguenze.
Un aspetto innovativo della legge è l'articolo 17, che modifica il codice di procedura civile attribuendo al tribunale (escludendo il giudice di pace) la competenza esclusiva sulle cause riguardanti il funzionamento di sistemi di intelligenza artificiale.
Si prospetta la nascita di un contenzioso specializzato in materia di algoritmi, dove saranno richieste elevate competenze tecniche e giuridiche. Un terreno nuovo su cui gli avvocati potranno sviluppare aree di attività professionale specializzate: responsabilità da malfunzionamento AI, violazioni GDPR algoritmiche, discriminazioni algoritmiche, dispute su proprietà intellettuale generata da AI.
Di fronte a questo quadro normativo, gli studi legali che vogliono innovare senza violare la legge devono scegliere strumenti adeguati. I sistemi di AI generativa pubblici (ChatGPT, Claude, Gemini) presentano criticità multiple:
Diverso è il discorso per sistemi RAG (Retrieval-Augmented Generation) dedicati, progettati specificamente per contesti legal con requisiti di compliance:
Un sistema RAG interno consente allo studio di:
Il vantaggio non è solo compliance: è efficienza operativa reale. Lo studio legale che ha 20 anni di precedenti, strategie, contratti, può renderli immediatamente accessibili a tutti i professionisti, senza barriere linguistiche (sistemi avanzati supportano query multilingua), senza perdita di tempo, con garanzia di accuratezza.
La Legge 132/2025 e la delibera CSM non sono un freno all'innovazione: sono un argine alla superficialità. L'intelligenza artificiale nel settore legale non è vietata, è regolamentata. La differenza è sostanziale.
Gli studi che investiranno in sistemi conformi – AI residente, knowledge base controllata, tracciabilità completa – avranno un vantaggio competitivo significativo. Potranno offrire efficienza operativa superiore mantenendo piena compliance. Potranno informare i clienti non con vaghe dichiarazioni ma con documentazione tecnica precisa. Potranno dimostrare che l'AI è strumento di supporto, non sostituto del lavoro intellettuale.
I tribunali, dal canto loro, potranno beneficiare di strumenti organizzativi e statistici che alleggeriscono il carico amministrativo, liberando tempo per la funzione decisionale che resta – e deve restare – umana.
L'AI sta emergendo nel settore legal. La normativa italiana ha scelto di accompagnarne l'emergenza con regole chiare. Chi saprà innovare dentro questi confini avrà costruito un vantaggio sostenibile. Chi proverà scorciatoie rischia sanzioni deontologiche, responsabilità professionali e perdita di fiducia dei clienti.
La tecnologia è uno strumento straordinario. La responsabilità di usarla bene, come ha ricordato il Ministro Nordio, resta sempre e solo umana.
Non esiste indicazione senza distinzione. Lo scrisse George Spencer-Brown nel 1969, in un libro che...
Senza leggi di posizione e appartenenza, una stella è solo polvere che non sa bruciare. La...
Nel 2025, quasi il 90% delle aziende ha sperimentato l'intelligenza artificiale. Ma il 66% si...
L'intelligenza artificiale generativa ha risolto un problema contestualmente producendo un paradosso. Ha risolto l'accesso alla conoscenza:...
Dal 2024, la direttiva europea CSRD ha imposto obblighi di rendicontazione sulla sostenibilità a circa...
Un esercizio. Si apra Google e si chieda qualcosa a Gemini — non alla barra...
Hai mai chiesto a un assistente AI una citazione bibliografica e ricevuto un riferimento perfettamente...
Zillow, Realtor.com, Homes.com: i grandi portali immobiliari americani hanno abbracciato la ricerca in linguaggio naturale. "Casa...
Nel 2025, quasi il 90% delle aziende ha sperimentato l'intelligenza artificiale. Ma solo il 15%...
Nel panorama digitale contemporaneo, le organizzazioni si trovano di fronte a un paradosso: possiedono quantità...