Magistrati e uso dell’AI: ecco le raccomandazioni del CSM

Con la delibera plenaria dell’8 ottobre 2025 (clicca qui per scaricare il PDF integrale), il Consiglio Superiore della Magistratura (CSM) ha approvato un articolato documento di raccomandazioni sull’uso dell’AI nell’amministrazione della giustizia, volto a offrire una cornice di orientamento chiara per magistrati e uffici giudiziari in vista dell’attuazione dell’AI Act europeo (Reg. UE 2024/1689) e della Legge Italiana sull’Intelligenza Artificiale n. 132/2025. Leggi anche gli approfondimenti dedicati alla “Legge AI in vigore dal 10 ottobre: novità e guida per avvocati e giuristi” e al contributo del CNF sul modello di informativa per l’uso dell’AI da parte degli avvocati

Consiglio: per approfondimenti, segnaliamo il volume “La legge Italiana sull’Intelligenza Artificiale”, a cura di Andrea Sirotti Gaudenzi e Vincenzo Franceschelli, acquistabile cliccando su Shop Maggioli o su Amazon.

La legge Italiana sull'Intelligenza Artificiale

La legge Italiana sull'Intelligenza Artificiale

Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.
Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.
Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico.

Vincenzo Franceschelli
Come professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU - Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.
Andrea Sirotti Gaudenzi
Avvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.

Leggi descrizione
Vincenzo Franceschelli, Andrea Sirotti Gaudenzi, 2025, Maggioli Editore
25.00 € 23.75 €

Il contesto normativo e gli obiettivi del CSM

Il CSM muove da una constatazione: l’uso di sistemi di intelligenza artificiale – specie generativi e predittivi – può offrire un supporto efficace all’attività giudiziaria, ma introduce anche rischi significativi in termini di protezione dei dati personali, trasparenza algoritmica e responsabilità decisionale.
La delibera richiama la Carta etica europea sull’uso dell’AI nei sistemi giudiziari (CEPEJ, 2018) e il quadro regolatorio europeo, evidenziando che l’IA può considerarsi compatibile con la funzione giurisdizionale solo se:

  • resta subordinata all’autonomia valutativa del giudice;

  • garantisce trasparenza e verificabilità degli algoritmi;

  • assicura la parità informativa tra le parti;

  • rispetta i principi di legalità e giusto processo.

Il documento invita a un uso consapevole e proporzionato degli strumenti di AI, ribadendo che il giudice rimane il solo titolare della decisione e della responsabilità che ne deriva.

I rischi e le cautele operative

Il CSM individua i principali rischi connessi all’uso dell’IA generativa:

  • rischi di sicurezza e riservatezza, per il possibile trasferimento di dati sensibili a server di terze parti, anche extra-UE;

  • bias algoritmici e distorsioni, dovuti alla natura statistica dei modelli e alla qualità dei dati di addestramento;

  • variabilità e imprevedibilità degli output, che impongono una costante verifica umana.

Ne consegue che ogni utilizzo di sistemi di AI deve avvenire in un ambiente protetto e tracciato, evitando l’immissione di atti processuali o dati sensibili. Il magistrato è tenuto a garantire la sovranità dei dati, la supervisione costante dell’output e la responsabilità personale delle scelte compiute con l’ausilio dell’AI.

Consiglio: il corso Maggioli “Legal Prompting – Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale”  offre strumenti concreti per usare in modo consapevole e sicuro strumenti di AI generativa nella vita professionale di tutti i giorni (iscriviti qui).

Le attività consentite nella fase transitoria

Fino all’entrata in vigore del regime europeo (agosto 2026), il CSM distingue chiaramente le attività per le quali l’uso dell’AI è ammissibile, purché tramite strumenti forniti o autorizzati dal Ministero della Giustizia.
Tra queste rientrano:

  • la ricerca dottrinale e giurisprudenziale, limitata alla costruzione di stringhe di ricerca e classificazione tematica;

  • la sintesi di provvedimenti ostensibili e la predisposizione di abstract per archivi interni;

  • il supporto organizzativo e amministrativo (report, tabelle, comparazioni di documenti, calendari d’udienza, traduzioni assistite);

  • la revisione linguistica e stilistica di testi.

Sono invece esclusi tutti gli impieghi che incidono direttamente sull’attività valutativa del giudice o sull’elaborazione della motivazione, in quanto estranei alle funzioni meramente strumentali o procedurali.

Potrebbero interessarti anche:

Verso un sistema interno di AI per la giustizia

Il CSM invita il Ministero a progettare un sistema di AI interno al “dominio giustizia”, basato su infrastrutture pubbliche e controllate, da rendere operativo entro il 2026.
Un simile modello – locale, sicuro e certificato – consentirebbe di garantire autonomia tecnologica, protezione dei dati giudiziari e trasparenza algoritmica.
Parallelamente, il CSM raccomanda di utilizzare la fase transitoria per avviare una sperimentazione controllata nei tribunali, evitando che un divieto assoluto determini un ritardo culturale e operativo.

Formazione e ruolo del giudice

La delibera pone infine l’accento sulla formazione dei magistrati: la conoscenza del funzionamento dei modelli, dei concetti di bias, errore e probabilità statistica, è condizione essenziale per un uso consapevole dell’AI.
Il giudice deve saper interpretare criticamente l’output, verificandone la coerenza giuridica, la replicabilità e l’affidabilità delle fonti, senza cedere all’“automation bias”, ossia alla tendenza ad accettare acriticamente i risultati della macchina.

L’obiettivo è preservare il “tempo della decisione” e la centralità dell’esperienza processuale umana, riaffermando che il giudizio resta un atto insostituibilmente personale e relazionale.

Conclusioni

Le raccomandazioni del CSM rappresentano il primo quadro di riferimento organico sull’uso dell’intelligenza artificiale nella giustizia italiana.
Pur escludendo, per ora, ogni automatizzazione della decisione giudiziaria, esse delineano una strategia di integrazione graduale, fondata su sicurezza, trasparenza e autonomia.
Un approccio prudente ma non rinunciatario, che mira a preparare la magistratura all’impatto inevitabile dell’AI, preservando al contempo la dignità, la libertà e la responsabilità del giudicare.

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

20 − undici =

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.