Ricorso redatto col supporto dell’IA contenente citazioni inconferenti: è responsabilità aggravata

Il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120 del 16 settembre 2025, ha ritenuto manifestamente infondato un ricorso redatto col supporto dell’intelligenza artificiale. La decisione, intervenuta quasi in concomitanza con l’approvazione in Senato della prima legge italiana sull’intelligenza artificiale, si colloca nel più ampio dibattito sull’ammissibilità dell’uso dell’IA nelle professioni legali.

Consiglio: il “Formulario commentato del nuovo processo civile”, di Lucilla Nigro, acquistabile cliccando su Shop Maggioli o su Amazon, offre un supporto utile per gestire ogni fase del contenzioso civile.

Formulario commentato del nuovo processo civile

Formulario commentato del nuovo processo civile

Il volume, aggiornato alla giurisprudenza più recente e agli ultimi interventi normativi, il cd. correttivo Cartabia e il correttivo mediazione, raccoglie oltre 200 formule, ciascuna corredata da norma di legge, commento, indicazione dei termini di legge o scadenze, delle preclusioni e delle massime giurisprudenziali. Il formulario si configura come uno strumento completo e operativo di grande utilità per il professionista che deve impostare un’efficace strategia difensiva nell’ambito del processo civile.
L’opera fornisce per ogni argomento procedurale lo schema della formula, disponibile anche online in formato editabile e stampabile.

Lucilla Nigro
Autrice di formulari giuridici, unitamente al padre avv. Benito Nigro, dall’anno 1990. Avvocato cassazionista, Mediatore civile e Giudice ausiliario presso la Corte di Appello di Napoli, sino al dicembre 2022.

 

Leggi descrizione
Lucilla Nigro, 2025, Maggioli Editore
94.00 € 89.30 €

Il caso: un’opposizione a decreto ingiuntivo per crediti di lavoro

Il caso affrontato dal Tribunale di Torino riguarda un’opposizione proposta nei confronti di un’ingiunzione di pagamento notificata il 20 gennaio 2025. L’oggetto della controversia concerneva diversi avvisi di addebito relativi a crediti di lavoro.

La ricorrente si era dichiarata non debitrice per diverse di ragioni, tra cui: la decadenza dal potere impositivo, l’incompetenza territoriale, l’inesistenza dei titoli per vizi della sottoscrizione, la mancata indicazione del criterio di calcolo degli interessi, l’inesistenza della notifica degli avvisi di addebito, l’intervenuto silenzio assenso ex l. 228/2012, art.1 co. 537-540, e la prescrizione dei crediti.

Le parti convenute si sono costituite contestando le eccezioni e dimostrando la regolare notifica degli atti, evidenziando inoltre come i crediti fossero già stati oggetto di precedenti comunicazioni e intimazioni di pagamento non impugnate dalla ricorrente, con conseguente consolidamento della pretesa creditoria.

Il Tribunale ha ritenuto manifestamente infondato il ricorso, principalmente per la tardività delle censure relative al merito della domanda creditoria, proposte oltre il termine decadenziale di 40 giorni dalla notifica di ciascuno degli avvisi di addebito, previsto dall’art. 24 del d.lgs. 46/1999.

La condanna per responsabilità aggravata

Particolarmente significativo è il profilo relativo alla condanna per responsabilità aggravata ex art. 96, comma 3, c.p.c., che ha portato il Tribunale di Torino a condannare la ricorrente, oltre che alle spese di lite, anche al pagamento di 500 euro in favore di ciascuna delle parti convenute.

La giudice ha ravvisato una condotta caratterizzata da malafede o, quantomeno, da colpa grave, motivando tale valutazione su due elementi principali:

  • da un lato, la proposizione di un’opposizione nei confronti di avvisi di addebito già notificati in precedenza e oggetto di plurimi atti di esecuzione regolarmente notificati;
  • dall’altro, la redazione di un ricorso “col supporto dell’intelligenza artificiale” costituito da “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio”.

Il confronto con l’ordinanza del Tribunale di Firenze

La sentenza del Tribunale di Torino si pone in continuità con l’ordinanza del Tribunale di Firenze dello scorso marzo, che per prima aveva affrontato il tema della responsabilità aggravata per uso improprio di ChatGPT negli atti difensivi. La Sezione Imprese, in quell’occasione, aveva esaminato una controversia in materia di tutela dei marchi dove il difensore di una società aveva inserito nelle memorie difensive riferimenti giurisprudenziali errati, frutto di ricerche effettuate tramite l’intelligenza artificiale che aveva generato “allucinazioni” inventando sentenze inesistenti.

Il Tribunale di Firenze, tuttavia, aveva rigettato la domanda di condanna per lite temeraria, ritenendo che l’inserimento dei riferimenti errati fungesse da mero supporto a una strategia difensiva già consolidata e non fosse finalizzato a resistere in giudizio in mala fede, e soprattutto per l’assenza di una prova specifica del danno subito dalla controparte.

Entrambe le pronunce riconoscono il disvalore dell’utilizzo improprio dell’intelligenza artificiale nella redazione di atti processuali, individuando in tale condotta un potenziale elemento sintomatico di mala fede o colpa grave. La differenza sostanziale risiede nell’esito: mentre il Tribunale di Firenze non ha applicato l’art. 96 c.p.c. per mancanza di prova del danno e assenza di finalità dilatorie, il Tribunale di Torino ha effettivamente condannato per responsabilità aggravata, rappresentando così il primo caso in Italia di condanna per lite temeraria a causa di un uso improprio dell’IA negli atti difensivi.

Indicazioni operative per avvocati

Dall’analisi comparata delle due decisioni sembrerebbero emergere le seguenti indicazioni operative per professionisti:

  • ai sensi dell’art. 96 c.p.c., se risulta che la parte soccombente ha agito o resistito in giudizio con mala fede o colpa grave, il giudice, su istanza dell’altra parte, la condanna, oltre che alle spese, al risarcimento dei danni, che liquida, anche d’ufficio, nella sentenza;
  • la responsabilità aggravata, di cui all’art. 96 c.p.c., primo comma, ha natura extracontrattuale e richiede la prova sia dell’an che del quantum del danno, qualora tali elementi non siano in concreto desumibili dagli atti di causa;
  • l’utilizzo dell’IA negli atti processuali non è di per sé vietato, ma deve essere accompagnato da un rigoroso controllo sui contenuti generati;
  • l’uso improprio dell’intelligenza artificiale nella redazione di atti processuali potrebbe essere sintomo di mala fede o colpa grave;
  • il giudice potrebbe procedere alla condanna per lite temeraria qualora l’avvocato, a seguito di un uso scorretto dell’IA, inserisca nell’atto citazioni normative e giurisprudenziali inesistenti, astratte, prive di ordine logico, inconferenti o non concretamente riferibili alla situazione oggetto del giudizio.

La legge italiana sull’intelligenza artificiale

La decisione in commento è intervenuta quasi in concomitanza con l’approvazione della prima legge italiana sull’intelligenza artificiale. Il 17 settembre 2025, infatti, il disegno di legge n. 1146 (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale”) ha ricevuto il voto definitivo del Senato, rappresentando il primo intervento normativo nazionale in materia.

Tra i principi della legge emerge quello della responsabilità degli operatori, che si affianca ai tradizionali pilastri della centralità della persona umana, della trasparenza e spiegabilità dei sistemi, della non discriminazione e della protezione dei dati personali.

Per ciò che attiene al settore giustizia, la normativa prevede che l’intelligenza artificiale possa essere utilizzata solo per funzioni di supporto, quali l’analisi giurisprudenziale o la gestione degli atti, escludendo categoricamente l’ausilio nelle decisioni fondamentali che restano di competenza esclusiva del magistrato. Di particolare importanza è l’introduzione di un regime di trasparenza rafforzata, che impone l’obbligo di segnalare nei provvedimenti ogni contributo derivante dall’intelligenza artificiale.

Potrebbero interessarti anche:

Intelligenza artificiale e professioni legali: possono dialogare?

La sentenza del Tribunale di Torino contribuisce ad alimentare il più ampio dibattito sull’ammissibilità dell’uso dell’IA in ambito legale. L’avvento dell’intelligenza artificiale ha prodotto un significativo cambiamento che coinvolge tutte le professioni.

La dinamica “domanda-risposta immediata”, da un lato, permette al professionista di velocizzare attività che prima richiedevano tempo e, dall’altro, favorisce l’accesso anche dei non esperti a una serie illimitata di informazioni, sempre più dettagliate.

La cultura del “tutto e subito” trova, così, nell’IA la sua espressione massima: ma a che prezzo? La risposta di ChatGPT può davvero sostituire il parere di un avvocato o la diagnosi di uno psicoterapeuta?

Casi come quello analizzato dal Tribunale di Torino dimostrano che l’intelligenza artificiale può sì, fungere da supporto, ma solo se non si resta fruitori passivi della conoscenza. Il dialogo con la macchina funziona quando chi fa le domande sa come formularle, sa cosa sta chiedendo e, di conseguenza, è in grado di verificare l’attendibilità delle risposte.

L’avvocato, nello studio della strategia difensiva più adatta, dovrebbe elaborare un ragionamento giuridico che non consiste nell’applicazione automatica delle norme: per sostenere una tesi serve saper argomentare e questo “compito” non può essere demandato all’IA.

 

Consiglio: il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa (clicca qui per iscriverti).

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

tre × 4 =

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.