ChatGPT in Tribunale: la prima sentenza scritta con l’aiuto dell’AI

L’integrazione dell’intelligenza artificiale nel settore legale sta rapidamente trasformando il modo in cui operano i tribunali e gli avvocati. Una delle applicazioni più discusse è l’uso di modelli di linguaggio come ChatGPT per assistere nella formulazione delle sentenze. Recentemente, il Rechtbank Gelderland nei Paesi Bassi ha utilizzato ChatGPT in una controversia giuridica tra due proprietari di casa, suscitando un acceso dibattito sulla legittimità e l’affidabilità di tali strumenti.

Consiglio: L’AI Act introduce un quadro regolamentare innovativo che influenzerà profondamente il settore dell’intelligenza artificiale. Per comprendere appieno tutte le implicazioni e garantire la conformità della tua attività, è fondamentale avere accesso alle giuste risorse. Approfondisci tutti gli aspetti normativi con il volume dedicato su Maggioli Editore.

Il caso in esame

Il caso trattato dal Rechtbank Gelderland coinvolgeva una disputa tra due vicini, uno dei quali aveva aggiunto un piano alla propria abitazione. L’altro vicino, preoccupato per la potenziale riduzione del rendimento dei suoi pannelli solari causata dalla nuova costruzione, ha intentato una causa chiedendo un risarcimento danni. Per risolvere la controversia, il tribunale ha deciso di utilizzare ChatGPT come strumento di supporto per stimare la durata media dei pannelli solari e il prezzo medio attuale per kilowattora (kWh) dell’elettricità.

Nella sentenza emessa dal Rechtbank Gelderland, si fa riferimento esplicito all’utilizzo di ChatGPT. Il tribunale ha affermato di aver stimato “anche con l’aiuto di ChatGPT” la durata media dei pannelli solari installati dal 2009, fissandola tra i 25 e i 30 anni, con una media di 27,5 anni. Inoltre, ha utilizzato lo stesso strumento per determinare il prezzo medio attuale del kWh di elettricità, stimandolo a circa 0,30 euro, con una perdita di ricavi stimata in circa 2.250 euro.

Volume consigliato

Ai Act

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.
L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.
Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.
Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.
Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.
Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.
Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.
L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.

Michele Iaselli
Avvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

Leggi descrizione
Michele Iaselli, 2024, Maggioli Editore
46.00 € 43.70 €

Possibili criticità nell’uso di ChatGPT nel sistema giudiziario

L’uso di ChatGPT in ambito giudiziario ha portato alla luce diverse preoccupazioni che meritano un’attenta riflessione. Tra le critiche principali vi è l’affidabilità delle informazioni generate dal modello. Di fatto, ChatGPT è un potente strumento linguistico, ma è stato progettato per produrre testi plausibili basati su una vasta gamma di dati, non per fornire dati verificati. Sebbene le sue risposte possano sembrare precise, non possono essere considerate un sostituto delle fonti di dati verificate, specialmente in contesti dove l’accuratezza è fondamentale.

Un altro punto critico riguarda la trasparenza dei prompt utilizzati. Non è stato reso noto quali input siano stati forniti a ChatGPT per ottenere le risposte, e questa mancanza di chiarezza rende difficile valutare la qualità delle informazioni prodotte.

Inoltre, non è stato specificato quale versione di ChatGPT sia stata utilizzata, e questo rappresenta un altro elemento di incertezza. Ogni versione del modello ha caratteristiche, capacità e limitazioni uniche, e sapere quale versione è stata impiegata è cruciale per comprendere l’affidabilità delle informazioni generate.

Infine, la sentenza non chiarisce se le informazioni generate da ChatGPT siano state verificate o integrate con altre fonti affidabili.  L’assenza di un confronto con altre fonti potrebbe significare che le decisioni siano state prese su basi non completamente solide, compromettendo la credibilità del processo.

Implicazioni etiche e giuridiche dell’uso di ChatGPT

L’uso di ChatGPT da parte del Rechtbank Gelderland solleva importanti riflessioni su come l’intelligenza artificiale possa essere integrata nei processi giudiziari. Da una parte, l’IA offre potenziali vantaggi in termini di efficienza e accesso rapido alle informazioni; dall’altra, bisogna fare attenzione a non compromettere i principi fondamentali di giustizia e trasparenza.

Un aspetto nevralgico riguarda la fiducia nelle informazioni generate da ChatGPT. Questo modello di intelligenza artificiale non è pensato per sostituire fonti di dati specifiche e verificate, ma per creare testi coerenti basati su schemi linguistici. Di conseguenza, pur essendo capace di produrre risposte che appaiono plausibili, può commettere errori o presentare dati inesatti se non viene adeguatamente supervisionato.

La trasparenza è un altro punto delicato. Se non si conoscono i prompt utilizzati o le fonti di informazione da cui ChatGPT attinge, diventa difficile tracciare il percorso logico che ha portato a una decisione giudiziaria.

C’è poi da considerare l’impatto sull’intera professione legale. L’introduzione dell’intelligenza artificiale ha il potenziale di cambiare profondamente il ruolo di avvocati e giudici. Sebbene l’IA possa costituire un valido supporto, è fondamentale che i professionisti del diritto esercitino un controllo rigoroso sulle informazioni e sulle decisioni prese che potrebbe richiedere un continuo aggiornamento e una maggiore consapevolezza delle potenzialità e dei limiti dell’intelligenza artificiale, per garantire che venga utilizzata in modo etico e responsabile.

Conclusioni

L’utilizzo di ChatGPT nel caso del Rechtbank Gelderland segna un punto di svolta nel rapporto tra giustizia e tecnologia. Pur riconoscendo i potenziali benefici dell’IA nel migliorare l’efficienza e l’accessibilità del sistema giudiziario, è essenziale che l’adozione di queste tecnologie avvenga con la massima cautela. La trasparenza, l’affidabilità delle informazioni e la responsabilità umana devono rimanere al centro di qualsiasi processo decisionale che coinvolga l’IA.

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

tre × 3 =

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.