
Il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120 del 16 settembre 2025, ha ritenuto manifestamente infondato un ricorso redatto col supporto dell’intelligenza artificiale. La decisione, intervenuta quasi in concomitanza con l’approvazione in Senato della prima legge italiana sull’intelligenza artificiale, si colloca nel più ampio dibattito sull’ammissibilità dell’uso dell’IA nelle professioni legali.
Consiglio: per approfondimenti in materia, segnaliamo il volume “La legge Italiana sull’Intelligenza Artificiale”, a cura di Andrea Sirotti Gaudenzi e Vincenzo Franceschelli, acquistabile cliccando su Shop Maggioli o su Amazon.
La legge Italiana sull'Intelligenza Artificiale
Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.
Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.
Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico.
Vincenzo Franceschelli
Come professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU - Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.
Andrea Sirotti Gaudenzi
Avvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.
Leggi descrizione
Vincenzo Franceschelli, Andrea Sirotti Gaudenzi, 2025, Maggioli Editore
25.00 €
23.75 €
La legge Italiana sull'Intelligenza Artificiale
Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.
Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.
Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico.
Vincenzo Franceschelli
Come professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU - Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.
Andrea Sirotti Gaudenzi
Avvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.
Il caso: un’opposizione a decreto ingiuntivo per crediti di lavoro
Il caso affrontato dal Tribunale di Torino riguarda un’opposizione proposta nei confronti di un’ingiunzione di pagamento notificata il 20 gennaio 2025. L’oggetto della controversia concerneva diversi avvisi di addebito relativi a crediti di lavoro.
La ricorrente si era dichiarata non debitrice per diverse di ragioni, tra cui: la decadenza dal potere impositivo, l’incompetenza territoriale, l’inesistenza dei titoli per vizi della sottoscrizione, la mancata indicazione del criterio di calcolo degli interessi, l’inesistenza della notifica degli avvisi di addebito, l’intervenuto silenzio assenso ex l. 228/2012, art.1 co. 537-540, e la prescrizione dei crediti.
Le parti convenute si sono costituite contestando le eccezioni e dimostrando la regolare notifica degli atti, evidenziando inoltre come i crediti fossero già stati oggetto di precedenti comunicazioni e intimazioni di pagamento non impugnate dalla ricorrente, con conseguente consolidamento della pretesa creditoria.
Il Tribunale ha ritenuto manifestamente infondato il ricorso, principalmente per la tardività delle censure relative al merito della domanda creditoria, proposte oltre il termine decadenziale di 40 giorni dalla notifica di ciascuno degli avvisi di addebito, previsto dall’art. 24 del d.lgs. 46/1999.
La condanna per responsabilità aggravata
Particolarmente significativo è il profilo relativo alla condanna per responsabilità aggravata ex art. 96, comma 3, c.p.c., che ha portato il Tribunale di Torino a condannare la ricorrente, oltre che alle spese di lite, anche al pagamento di 500 euro in favore di ciascuna delle parti convenute.
La giudice ha ravvisato una condotta caratterizzata da malafede o, quantomeno, da colpa grave, motivando tale valutazione su due elementi principali:
- da un lato, la proposizione di un’opposizione nei confronti di avvisi di addebito già notificati in precedenza e oggetto di plurimi atti di esecuzione regolarmente notificati;
- dall’altro, la redazione di un ricorso “col supporto dell’intelligenza artificiale” costituito da “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio”.
Confronto con l’ordinanza del Tribunale di Firenze
La sentenza del Tribunale di Torino si pone in continuità con l’ordinanza del Tribunale di Firenze dello scorso marzo, che per prima aveva affrontato il tema della responsabilità aggravata per uso improprio di ChatGPT negli atti difensivi. La Sezione Imprese, in quell’occasione, aveva esaminato una controversia in materia di tutela dei marchi dove il difensore di una società aveva inserito nelle memorie difensive riferimenti giurisprudenziali errati, frutto di ricerche effettuate tramite l’intelligenza artificiale che aveva generato “allucinazioni” inventando sentenze inesistenti.
Il Tribunale di Firenze, tuttavia, aveva rigettato la domanda di condanna per lite temeraria, ritenendo che l’inserimento dei riferimenti errati fungesse da mero supporto a una strategia difensiva già consolidata e non fosse finalizzato a resistere in giudizio in mala fede, e soprattutto per l’assenza di una prova specifica del danno subito dalla controparte.
Entrambe le pronunce riconoscono il disvalore dell’utilizzo improprio dell’intelligenza artificiale nella redazione di atti processuali, individuando in tale condotta un potenziale elemento sintomatico di mala fede o colpa grave. La differenza sostanziale risiede nell’esito: mentre il Tribunale di Firenze non ha applicato l’art. 96 c.p.c. per mancanza di prova del danno e assenza di finalità dilatorie, il Tribunale di Torino ha effettivamente condannato per responsabilità aggravata, rappresentando così il primo caso in Italia di condanna per lite temeraria a causa di un uso improprio dell’IA negli atti difensivi.
Indicazioni operative per avvocati
Dall’analisi comparata delle due decisioni sembrerebbero emergere le seguenti indicazioni operative per professionisti:
- ai sensi dell’art. 96 c.p.c., se risulta che la parte soccombente ha agito o resistito in giudizio con mala fede o colpa grave, il giudice, su istanza dell’altra parte, la condanna, oltre che alle spese, al risarcimento dei danni, che liquida, anche d’ufficio, nella sentenza;
- la responsabilità aggravata, di cui all’art. 96 c.p.c., primo comma, ha natura extracontrattuale e richiede la prova sia dell’an che del quantum del danno, qualora tali elementi non siano in concreto desumibili dagli atti di causa;
- l’utilizzo dell’IA negli atti processuali non è di per sé vietato, ma deve essere accompagnato da un rigoroso controllo sui contenuti generati;
- l’uso improprio dell’intelligenza artificiale nella redazione di atti processuali potrebbe essere sintomo di mala fede o colpa grave;
- il giudice potrebbe procedere alla condanna per lite temeraria qualora l’avvocato, a seguito di un uso scorretto dell’IA, inserisca nell’atto citazioni normative e giurisprudenziali inesistenti, astratte, prive di ordine logico, inconferenti o non concretamente riferibili alla situazione oggetto del giudizio.
La legge italiana sull’intelligenza artificiale
La decisione in commento è intervenuta quasi in concomitanza con l’approvazione della prima legge italiana sull’intelligenza artificiale. Il 17 settembre 2025, infatti, il disegno di legge n. 1146 (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale”) ha ricevuto il voto definitivo del Senato, rappresentando il primo intervento normativo nazionale in materia.
Tra i principi della legge emerge quello della responsabilità degli operatori, che si affianca ai tradizionali pilastri della centralità della persona umana, della trasparenza e spiegabilità dei sistemi, della non discriminazione e della protezione dei dati personali.
Per ciò che attiene al settore giustizia, la normativa prevede che l’intelligenza artificiale possa essere utilizzata solo per funzioni di supporto, quali l’analisi giurisprudenziale o la gestione degli atti, escludendo categoricamente l’ausilio nelle decisioni fondamentali che restano di competenza esclusiva del magistrato. Di particolare importanza è l’introduzione di un regime di trasparenza rafforzata, che impone l’obbligo di segnalare nei provvedimenti ogni contributo derivante dall’intelligenza artificiale.
Potrebbero interessarti anche:
- Ddl AI: nuovi obblighi e responsabilità per gli avvocati nell’uso dell’Intelligenza Artificiale
- AI Act: nuovi obblighi per professionisti e imprese dal 2 agosto 2025
Intelligenza artificiale e professioni legali: possono dialogare?
La sentenza del Tribunale di Torino contribuisce ad alimentare il più ampio dibattito sull’ammissibilità dell’uso dell’IA in ambito legale. L’avvento dell’intelligenza artificiale ha prodotto un significativo cambiamento che coinvolge tutte le professioni.
La dinamica “domanda-risposta immediata”, da un lato, permette al professionista di velocizzare attività che prima richiedevano tempo e, dall’altro, favorisce l’accesso anche dei non esperti a una serie illimitata di informazioni, sempre più dettagliate.
La cultura del “tutto e subito” trova, così, nell’IA la sua espressione massima: ma a che prezzo? La risposta di ChatGPT può davvero sostituire il parere di un avvocato o la diagnosi di uno psicoterapeuta?
Casi come quello analizzato dal Tribunale di Torino dimostrano che l’intelligenza artificiale può sì, fungere da supporto, ma solo se non si resta fruitori passivi della conoscenza. Il dialogo con la macchina funziona quando chi fa le domande sa come formularle, sa cosa sta chiedendo e, di conseguenza, è in grado di verificare l’attendibilità delle risposte.
L’avvocato, nello studio della strategia difensiva più adatta, dovrebbe elaborare un ragionamento giuridico che non consiste nell’applicazione automatica delle norme: per sostenere una tesi serve saper argomentare e questo “compito” non può essere demandato all’IA.
Consiglio: il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa (clicca qui per iscriverti).











