Atti difensivi e AI: giurisprudenza utile e indicazioni operative

L’intelligenza artificiale è, senza dubbio, il tema giuridico (e non solo) dell’anno: nel 2025 il dibattito sull’AI ha smesso di essere astratto ed è entrato nella pratica quotidiana delle professioni legali. Formazione, deontologia, responsabilità e nuovi obblighi normativi a livello nazionale, si sono intrecciati con le prime risposte della giurisprudenza. I Tribunali, infatti, hanno iniziato a misurarsi, in concreto, con gli effetti dell’uso (e dell’abuso) di strumenti come ChatGPT negli atti difensivi. In questo contesto, e in vista del nuovo anno, è utile fare il punto sugli orientamenti emersi, chiarendo cosa di può fare, cosa non si deve fare e, soprattutto, come utilizzare correttamente l’intelligenza artificiale senza esporsi al rischio di condanna per responsabilità aggravata. 

Consiglio: per approfondimenti in materia, segnaliamo il volume “La legge Italiana sull’Intelligenza Artificiale”, a cura di Andrea Sirotti Gaudenzi e Vincenzo Franceschelli, acquistabile cliccando su Shop Maggioli o su Amazon.

La legge Italiana sull'Intelligenza Artificiale

La legge Italiana sull'Intelligenza Artificiale

Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.
Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.
Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico.

Vincenzo Franceschelli
Come professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU - Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.
Andrea Sirotti Gaudenzi
Avvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.

Leggi descrizione
Vincenzo Franceschelli, Andrea Sirotti Gaudenzi, 2025, Maggioli Editore
25.00 € 23.75 €

Il primo confronto della giurisprudenza: il Tribunale di Firenze e il tema delle “allucinazioni”

La prima pronuncia italiana che ha affrontato in modo esplicito il tema dell’uso improprio di ChatGPT negli atti difensivi è stata l’ordinanza della Sezione Imprese del Tribunale di Firenze (clicca qui per approfondire). Il caso è ormai noto: in una controversia in materia di marchi e diritto d’autore, il difensore di una società aveva inserito nelle memorie difensive riferimenti giurisprudenziali errati, frutto di una ricerca effettuata tramite intelligenza artificiale da una collaboratrice di studio.

Il Tribunale ha qualificato tali risultati come riconducibili al fenomeno delle allucinazioni di intelligenza artificiale che si verifica qualora l’AI inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. Nel caso esaminato, l’intelligenza artificiale aveva inventato dei numeri riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non aveva nulla a che vedere con tale argomento.

Sul piano giuridico, tuttavia, la decisione è stata prudente: pur stigmatizzando l’omessa verifica delle fonti, il Collegio ha escluso la responsabilità aggravata ex art. 96 c.p.c. per due ragioni decisive. Da un lato, l’assenza di mala fede o di finalità dilatorie; dall’altro, la mancata prova di un danno concreto subito dalla controparte.

L’uso scorretto dell’AI, quindi, è sicuramente un disvalore processuale, ma non ogni errore imputabile a strumenti di intelligenza artificiale conduce automaticamente alla condanna per lite temeraria.

Consiglio: il corso Maggioli “AI Strategica per Studi Legali: Architettura, Compliance e Automazione End-to-End” guida professionisti e studi legali nell’uso pratico dell’intelligenza artificiale, dalla scelta dei modelli alla costruzione di workflow e agenti, fino alla gestione della compliance <<<clicca qui per iscriverti>>>.

La sentenza del Tribunale di Torino e la prima condanna per uso improprio dell’AI

Il Tribunale di Torino, invece, con la sentenza n. 2120 del 16 settembre 2025 (ne abbiamo parlato approfonditamente qui), ha condannato effettivamente per responsabilità aggravata: il ricorso, redatto “col supporto dell’intelligenza artificiale”, è stato definito come un insieme disordinato di citazioni normative e giurisprudenziali astratte, inconferenti e prive di collegamento con il caso concreto.

La giudice ha ravvisato una condotta connotata quantomeno da colpa grave, valorizzando due profili: la proposizione di un’opposizione manifestamente infondata e tardiva, e l’utilizzo di un atto standardizzato, chiaramente non calibrato sulla vicenda oggetto di giudizio. In questo caso, l’AI non è solo lo strumento, ma diventa l’indice sintomatico di una difesa non responsabilmente esercitata.

La pronuncia del Tribunale di Torino si colloca in continuità ideale con Firenze, giungendo, però, a un esito differente: quando l’uso dell’AI si traduce in una difesa meramente apparente, sganciata dal thema decidendum, allora potrebbero sussistere i presupposti per una condanna per responsabilità aggravata.

La conferma del Tribunale di Latina e l’uso “seriale” dell’AI

Il Tribunale di Latina ha poi rafforzato l’orientamento inaugurato dal Tribunale di Torino con una sentenza del 23 settembre 2025 (clicca qui per approfondire) nella si descrive un quadro ancora più problematico: ricorsi “a stampone”, gestione processuale anomala, mancata comparizione del difensore e atto composti da un coacervo di citazioni inconferenti.

Qui l’uso dell’intelligenza artificiale non è solo dedotto, ma ritenuto “evidente” dalla qualità degli scritti difensivi. La condanna ex art. 96, comma 3, c.p.c. viene giustificata come risposta a una prassi sistematica di delega alla macchina, che svuota di contenuto il ruolo difensivo dell’avvocato.

L’AI, così, non diventa rilevante solo per ciò che produce, ma anche per il modo in cui viene utilizzata in serie, come surrogato del lavoro professionale. In questi casi, la responsabilità aggravata assume una funzione anche dissuasiva.

Un ulteriore chiarimento dal TAR Lombardia

A chiarificare il quadro è intervenuta una recente sentenza del TAR Lombardia (n.3348/2025) che, seppur in un diverso contesto, ha affrontato il tema dal punto di vista dei doveri deontologici del difensore. Il Collego, in particolare, ha qualificato l’inserimento di riferimenti giurisprudenziali non pertinenti come violazione del dovere di lealtà e probità processuale.

Per il TAR Lombardia, l’uso di strumenti di intelligenza artificiale non ha alcuna valenza esimente: la sottoscrizione dell’atto attribuisce comunque al difensore la piena responsabilità del contenuto. Richiamando il principio della “centralità della decisione umana”, il giudice amministrativo ha affermato così un vero e proprio obbligo di verifica e controllo delle ricerche effettuate tramite AI, proprio in ragione del rischio di risultati errati o “allucinati”.

Leggi anche:

Il quadro normativo: la Legge n. 132/2025 e i doveri dell’avvocato

Le pronunce del 2025 analizzate non possono essere lette isolatamente dal contesto normativo. La Legge italiana sull’intelligenza artificiale, n. 132/2025, in vigore dal 10 ottobre (clicca qui per approfondire), ha fissato principi destinati a incidere direttamente sull’attività forense. L’AI è ammessa solo come strumento di supporto; la valutazione giuridica, l’argomentazione e la strategia restano prerogative umane.

Particolarmente rilevante è l’obbligo di trasparenza: l’avvocato deve informare il cliente dell’uso di sistemi di AI. Su questo punto, il Consiglio Nazionale Forense ha predisposto un modello di informativa obbligatoria. La sottoscrizione dell’informativa non è un adempimento meramente formale, ma uno strumento di tutela reciproca, che rafforza il rapporto fiduciario e delimita correttamente le responsabilità.

Indicazioni operative: cosa fare e cosa evitare

Dall’analisi complessiva delle decisioni e della normativa emergono alcune indicazioni operative che rispondono a un principio generale: l’uso dell’intelligenza artificiale non è vietato, ma deve essere consapevole, dichiarato e sempre sottoposto a controllo umano. È lecito utilizzare l’AI per ricerche preliminari, bozze, schemi o analisi; è invece inaccettabile depositare atti non verificati, standardizzati o contenenti citazioni inconferenti.

In particolare, l’avvocato deve: verificare sempre l’esistenza e la pertinenza delle fonti; evitare l’uso seriale e meccanico di testi generati dall’AI; formare collaboratori e personale di studio; documentare l’uso degli strumenti e informare il cliente.

Conclusioni: il 2025 come spartiacque

L’uso improprio dell’intelligenza artificiale può avere conseguenze processuali serie penalizzando il cliente, vittima di una difesa di “scarsa qualità”. Questo, appunto, non significa che se ne dovrebbe fare a meno a prescindere, anche perché l’AI può offrire un contributo in termini di velocità e maggiore efficienza, ma è fondamentale formarsi e capire come utilizzarla a proprio vantaggio, evitando “figuracce”.

Il 2026 porterà sicuramente nuovi sviluppi in materia, per questo è bene arrivare “preparati” con la consapevolezza che l’AI sta diventando l’architrave di un nuovo sistema. Un cambiamento che coinvolge tutti, nessuno escluso, e che si può governare solo preservando il “pensiero umano”.

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

5 + venti =

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.