
Fino ad ora, le decisioni giurisprudenziali in materia di intelligenza artificiale e processo si sono concentrate soprattutto sull’uso improprio e acritico dell’AI nella reazione degli atti difensivi. In più occasioni, infatti, i giudici hanno censurato il ricorso indiscriminato a sistemi generativi quando questo abbia determinato l’inserimento negli atti processuali di riferimenti normativi o giurisprudenziali inesatti o inesistenti.
Il Tribunale di Ferrara, con un’ordinanza del 20 febbraio 2026 (puoi leggerla cliccando qui), affronta, tuttavia, una questione ulteriore e, per certi versi, ancora inesplorata. Per la prima volta in Italia, infatti, un giudice si pronuncia sul valore probatorio delle risposte generate da un sistema di intelligenza artificiale prodotte come documento nel processo civile. Per approfondimenti, consigliamo il volume “La prova digitale nel processo civile”, a cura di Angela Allegria e Federica Federici, acquistabile cliccando su Shop Maggioli o su Amazon.
La prova digitale nel processo civile
Nelle aule di tribunale e nei laboratori di analisi forense vengono quotidianamente raccolte, analizzate, prodotte e valutate prove generate da messaggi istantanei, screenshot di conversazioni, e-mail, file digitali, registrazioni audio e video. In questo quadro già complesso si inserisce l’intelligenza artificiale, che introduce nuovi interrogativi: come valutare l’affidabilità di analisi prodotte da sistemi di AI? Come garantire trasparenza, verificabilità e contraddittorio?
Il presente volume offre un quadro completo e aggiornato della materia, analizzando le fonti, la natura e l’efficacia probatoria della prova digitale nel processo civile, le tecniche di acquisizione, conservazione e produzione in giudizio, i limiti di ammissibilità e utilizzabilità e le procedure di contestazione e disconoscimento. Ampio spazio è dedicato ai giudizi speciali (processo di famiglia, procedimento ex art. 700 c.p.c., procedimento monitorio e dinanzi al giudice di pace), con un’attenzione particolare alla prassi dei tribunali e al ruolo del consulente tecnico.
L’opera comprende la casistica più significativa e un’ampia selezione di giurisprudenza recente, fornendo gli orientamenti applicativi e le soluzioni argomentative più utili ad avvocati, magistrati, consulenti tecnici, professionisti della digital forensics e a tutti gli operatori del diritto coinvolti.
Angela Allegria
Avvocato del Foro di Ragusa mediatore familiare, civile e commerciale. Direttore della rivista Nuove Frontiere del Diritto, è autrice di numerose pubblicazioni scientifiche.
Federica Federici
Avvocato del Foro di Roma e docente a contratto di diritto penale, delle nuove tecnologie e costituzionale. Autrice di numerose pubblicazioni, è relatrice e organizzatrice di convegni sul territorio nazionale.
Leggi descrizione
Angela Allegria, Federica Federici, 2026, Maggioli Editore
21.00 €
19.95 €
La prova digitale nel processo civile
Nelle aule di tribunale e nei laboratori di analisi forense vengono quotidianamente raccolte, analizzate, prodotte e valutate prove generate da messaggi istantanei, screenshot di conversazioni, e-mail, file digitali, registrazioni audio e video. In questo quadro già complesso si inserisce l’intelligenza artificiale, che introduce nuovi interrogativi: come valutare l’affidabilità di analisi prodotte da sistemi di AI? Come garantire trasparenza, verificabilità e contraddittorio?
Il presente volume offre un quadro completo e aggiornato della materia, analizzando le fonti, la natura e l’efficacia probatoria della prova digitale nel processo civile, le tecniche di acquisizione, conservazione e produzione in giudizio, i limiti di ammissibilità e utilizzabilità e le procedure di contestazione e disconoscimento. Ampio spazio è dedicato ai giudizi speciali (processo di famiglia, procedimento ex art. 700 c.p.c., procedimento monitorio e dinanzi al giudice di pace), con un’attenzione particolare alla prassi dei tribunali e al ruolo del consulente tecnico.
L’opera comprende la casistica più significativa e un’ampia selezione di giurisprudenza recente, fornendo gli orientamenti applicativi e le soluzioni argomentative più utili ad avvocati, magistrati, consulenti tecnici, professionisti della digital forensics e a tutti gli operatori del diritto coinvolti.
Angela Allegria
Avvocato del Foro di Ragusa mediatore familiare, civile e commerciale. Direttore della rivista Nuove Frontiere del Diritto, è autrice di numerose pubblicazioni scientifiche.
Federica Federici
Avvocato del Foro di Roma e docente a contratto di diritto penale, delle nuove tecnologie e costituzionale. Autrice di numerose pubblicazioni, è relatrice e organizzatrice di convegni sul territorio nazionale.
La vicenda processuale e la produzione della conversazione con l’AI
La questione emerge nell’ambito di un procedimento instaurato ai sensi dell’art. 696-bis c.p.c., volto ad ottenere una consulenza tecnica preventiva ai fini della composizione della lite. Il ricorrente chiedeva l’accertamento della dinamica di un sinistro stradale mortale e delle eventuali responsabilità dell’ente gestore della rete autostradale, sostenendo che l’incidente fosse stato determinato anche da carenze nella segnalazione del traffico e delle condizioni di pericolo presenti sulla carreggiata.
La parte resistente contestava integralmente tali ricostruzioni, evidenziando, tra l’altro, che sulla medesima vicenda era già intervenuta una precedente decisione del Tribunale di Ferrara che aveva escluso responsabilità dell’ente gestore e ricondotto il sinistro alla condotta di guida della vittima.
All’interno del fascicolo processuale il ricorrente aveva prodotto, tra gli altri documenti, una “conversazione con ChatGPT”, verosimilmente utilizzata per supportare alcune argomentazioni giuridiche relative alla responsabilità del gestore della strada.
La giudice sottolinea tuttavia che nel ricorso non era indicato né lo scopo della produzione né il valore probatorio che si intendeva attribuire a tale documento. Inoltre il testo risultava parziale, in quanto non era riportato il quesito formulato al sistema di intelligenza artificiale, circostanza che rendeva impossibile comprendere il contesto in cui la risposta era stata generata.
A ciò si aggiungeva un ulteriore profilo di criticità. I precedenti giurisprudenziali richiamati nella conversazione prodotta non risultavano pertinenti al caso concreto, circostanza che rafforzava i dubbi sulla affidabilità del materiale depositato.
Consiglio: il corso Maggioli “Claude per avvocati”, con Giovanna Panucci, guida professionisti e studi legali nell’uso pratico dell’intelligenza artificiale, <<<clicca qui per iscriverti>>>.
Il ragionamento del Tribunale: le risposte dell’AI come produzione “tamquam non esset”
Il passaggio più rilevante dell’ordinanza riguarda proprio la valutazione del valore probatorio di tale produzione.
Il Tribunale osserva, in primo luogo, che le risposte generate da un sistema di intelligenza artificiale non possono essere considerate documenti in senso processualcivilistico, poiché non costituiscono una rappresentazione diretta di fatti o dichiarazioni riconducibili ad un soggetto determinato.
Secondo la giudice, la conversazione con ChatGPT prodotta in giudizio deve essere considerata tamquam non esset, cioè priva di qualsiasi rilevanza probatoria. La produzione non è neppure qualificabile come prova atipica, mancando qualsiasi elemento idoneo a conferirle utilità nel processo.
Tra le ragioni evidenziate nell’ordinanza vi sono, in particolare:
-
l’assenza del quesito rivolto al chatbot, che impedisce di comprendere il contesto della risposta;
-
la mancata verifica dei riferimenti giuridici generati dal sistema;
-
la possibilità che tali strumenti producano risultati inesatti o inventati, fenomeno noto come allucinazione dell’intelligenza artificiale.
Il Tribunale richiama inoltre il quadro normativo europeo e nazionale in materia di intelligenza artificiale, sottolineando come l’AI Act e la normativa italiana di attuazione (l. n. 132/2025) pongano al centro i principi di supervisione umana e uso responsabile dei sistemi di AI.
In questo contesto, osserva la giudice, i chatbot restano strumenti al servizio dell’utilizzatore e non possono, allo stato attuale dello sviluppo tecnologico, costituire prova di un fumus di fondatezza della pretesa fatta valere in giudizio.
Potrebbero interessarti anche:
- Legge AI in vigore dal 10 ottobre: novità e guida per avvocati e giuristi
- AI negli atti difensivi: il Tribunale di Siracusa condanna per citazioni inesistenti
- Atti difensivi e AI: giurisprudenza utile e indicazioni operative
La decisione sul ricorso e le indicazioni operative per gli avvocati
Sul piano processuale la decisione si conclude con la dichiarazione di inammissibilità del ricorso ex art. 696-bis c.p.c..
Il Tribunale rileva infatti che la consulenza tecnica preventiva richiesta non era funzionale alla finalità conciliativa propria dell’istituto, poiché la controversia non verteva su un unico punto tecnico suscettibile di essere chiarito mediante CTU.
Al contrario, la vicenda richiedeva accertamenti fattuali più ampi, anche mediante altri mezzi di prova, e risultava già oggetto di approfondimenti tecnici in un precedente giudizio. Di conseguenza una nuova consulenza tecnica sarebbe stata meramente esplorativa e priva di concreta utilità processuale.
Il ricorso è stato pertanto dichiarato inammissibile e il ricorrente è stato condannato alla rifusione delle spese di lite.
Dal punto di vista pratico la pronuncia offre un’indicazione chiara: le risposte generate da sistemi di intelligenza artificiale, se prodotte come documento in giudizio, non sono idonee a costituire prova, né tipica né atipica, e devono essere considerate irrilevanti ai fini della decisione.
Intelligenza artificiale e prova nel processo: possibili scenari futuri
La decisione del Tribunale di Ferrara rappresenta probabilmente solo il primo passo di un dibattito destinato ad ampliarsi nei prossimi mesi/anni.
L’intelligenza artificiale è ormai utilizzata anche nel settore legale, sia come strumento di ricerca e analisi giuridica sia come supporto nella redazione degli atti. Allo stesso tempo il legislatore europeo, con l’AI Act, e quello nazionale, con la legge n. 132/2025, stanno progressivamente definendo un quadro regolatorio volto a garantire trasparenza, affidabilità e controllo umano sui sistemi algoritmici.
In un contesto di evoluzione tecnologica e normativa non è escluso che, in futuro, possano emergere nuove questioni probatorie connesse all’utilizzo dell’intelligenza artificiale. Si pensi, ad esempio, alla possibile rilevanza di conversazioni intercorse tra utenti e sistemi di IA in ambiti sensibili, o alla produzione in giudizio di interazioni digitali che possano rivelare circostanze utili ai fini dell’accertamento dei fatti.
Molto dipenderà dalla maturazione delle tecnologie e dall’elaborazione di standard giuridici più precisi in materia di affidabilità, tracciabilità e verificabilità delle interazioni con i sistemi di AI.












