Responsabilità civile derivante dall’utilizzo dell’AI

Nessuna norma delinea in modo puntuale la responsabilità civile dei sistemi e delle applicazioni di IA; tuttavia, un quadro normativo sull’AI i sta mettendo a punto sia a livello europeo che interno, dal quale sarà possibile trarre gli strumenti per delineare la responsabilità civile dei congegni IA.

La questione

Al momento non è in vigore disciplina alcuna sulla responsabilità civile dei sistemi di IA, pur se la tematica rappresenta un quesito da risolvere, stante la sempre più pervasiva diffusione delle relative applicazioni. Tra la normativa europea (IA Act) e quella in discussione in questi giorni al Senato (A.S. 1146) solo quando le relative disposizioni saranno a regime sarà possibile rispondere, anche con l’ausilio ermeneutico degli organi giurisdizionali, se il sistema di IA risponda dei danni cagionati e se lo stesso assurga a soggettività giuridica, come centro di imputazione, al quale potersi rivolgere per rivendicare un risarcimento per i danni da esso cagionati.

Data Act Guida alle nuove regole per l’accesso e l’uso dei dati

 

La gestione dei dati sta trasformando il panorama normativo europeo, con il Data Act al centro di questo cambiamento. Questo regolamento, progettato per migliorare la disponibilità e la condivisione dei dati, introduce nuove opportunità ma anche importanti responsabilità per aziende e professionisti. Maggioli Editore offre un corso di formazione dedicato al Data Act, progettato per fornire strumenti pratici e una guida operativa per comprendere e applicare le nuove disposizioni. Tra gli argomenti trattati:

– Come gestire i flussi di dati in conformità con il regolamento.
– Le novità sui diritti di accesso e portabilità dei dati.
– Il ruolo delle imprese nell’ecosistema digitale europeo.

Un’opportunità unica per approfondire i tuoi strumenti operativi e prepararti alle implicazioni pratiche del Data Act.

<<Iscriviti ora>>

 

La Legge sull’IA

La legge sull’IA è il primo quadro giuridico europeo che affronta i rischi dell’IA e pone l’Europa in una posizione di leadership a livello mondiale. Il regolamento (UE) 2024/1689 fornisce norme armonizzate sull’intelligenza artificiale, dettando agli sviluppatori e agli operatori di IA requisiti e obblighi per gli usi specifici dell’IA. Al contempo, il regolamento mira a ridurre gli oneri amministrativi e finanziari per le imprese. L’obiettivo del nuovo articolato è promuovere un’IA affidabile in Europa e nel resto del mondo, garantendo che i sistemi di IA rispettino i diritti fondamentali, la sicurezza e i principi etici e, al contempo, affrontando i rischi dei modelli di IA. La legge in parola garantisce che gli europei possano fidarsi di ciò che l’IA offre loro. Nonostante la maggior parte dei sistemi di IA non presenti rischi e possa contribuire a risolvere molte sfide sociali, alcuni sistemi creano rischi da affrontare per evitare risultati indesiderati. Le nuove norme, in dettaglio:

  • affrontano i rischi creati specificamente dalle applicazioni di IA;
  • vietano le pratiche di IA che comportano rischi inaccettabili;
  • individuano un elenco di applicazioni ad alto rischio;
  • stabiliscono i requisiti per le applicazioni di IA ad alto rischio;
  • definiscono obblighi specifici per gli operatori e i fornitori di applicazioni di IA ad alto rischio;
  • richiedono una valutazione di conformità prima che un determinato sistema di IA sia messo in servizio o immesso sul mercato;
  • mettono in atto l’applicazione dopo l’immissione sul mercato di un determinato sistema di IA;
  • istituiscono una struttura di governance a livello europeo e nazionale.

Poiché l’IA rappresenta una tecnologia in rapida evoluzione, il regolamento presenta un approccio adeguato alle esigenze future, che consente alle norme di adattarsi ai cambiamenti tecnologici. Le applicazioni di IA dovrebbero rimanere affidabili anche dopo essere state immesse sul mercato. Ciò richiede una gestione continua della qualità e del rischio da parte dei fornitori. L’Ufficio europeo per l’IA, istituito nel febbraio 2024 in seno alla Commissione, sovrintende all’applicazione e all’attuazione della legge sull’IA con gli Stati membri, punta a creare un ambiente in cui le tecnologie di IA rispettino la dignità umana, i diritti e la fiducia, promuove la collaborazione, l’innovazione e la ricerca in materia di IA tra i vari stakeholders, impegnandosi nel dialogo e nella cooperazione internazionale sulle relative questioni, riconoscendo la necessità di un allineamento globale sulla governance dell’IA. La legge sull’IA è entrata in vigore il 10 agosto e sarà pienamente applicabile due anni dopo, con alcune eccezioni: i divieti entreranno in vigore dopo sei mesi, le norme di governance e gli obblighi per i modelli di IA per impiego generale diventeranno applicabili dopo 12 mesi e le norme per i sistemi di IA si applicheranno dopo 36 mesi. Per agevolare la transizione verso il nuovo quadro normativo, la Commissione ha varato il patto sull’IA, iniziativa volontaria che mira a sostenere la futura attuazione e invita gli sviluppatori di IA europei, e non solo, a rispettare in anticipo gli obblighi fondamentali della legge.

La bozza di legge sull’AI in discussione in Senato

Il d.d.l. A.S. 1146 che reca “Disposizioni e delega al Governo in materia di intelligenza artificiale” il 27 novembre è stato esaminato in commissione, a seguito della seduta del 20 novembre, dove erano stati illustrati gli emendamenti relativi ai primi 18 articoli del disegno di legge, mentre in quella del 27 sono stati illustrati quelli sui restanti articoli.

Finalità e ambito di applicazione del d.d.l.

Il testo provvisorio dell’articolo 1, al netto degli emendamenti che potrebbero essere approvati e quindi inseriti nella versione definitiva, enuncia finalità ed ambito di applicazione della disciplina prevista dal disegno di legge, con sottolineatura della dimensione antropocentrica dell’utilizzo dell’intelligenza artificiale e della vigilanza sui rischi economici e sociali nonché sull’impatto in ordine ai diritti fondamentali. Il disegno di legge detta, all’esordio del proprio articolato, le disposizioni di natura finalistica che motivano l’adozione del provvedimento, muovendo dalla consapevolezza della rivoluzione informatica che, dal secondo Novecento, ha assunto una incidenza sulla vita individuale e collettiva, tale da configurare una “società digitale”, ove la diffusione del personal computer, l’avvento di internet e degli smartphone, hanno dilatato l’impiego di devices nella quotidianità. In questo contesto, l’evoluzione tecnologica fa sì che le “macchine” dispongano ormai di margini di auto-apprendimento, autoorganizzazione, auto-decisione. Consegue che si pone all’etica, al diritto, al dibattito pubblico il tema della IA e di una sua regolazione. In tale direzione muove il regolamento dell’Unione europea sull’intelligenza artificiale, approvato in via definitiva nel maggio 2024. E a livello nazionale si colloca il disegno di legge in disamina, preordinato, come specifica il relativo articolo 1, a disporre “principi” per i sistemi e modelli di intelligenza artificiale, con riguardo alla loro ricerca, sperimentazione, sviluppo, adozione e applicazione. La disciplina che si viene a profilare persegue una duplice finalità: si mira da un lato a un utilizzo “corretto, trasparente e responsabile”, in una dimensione antropocentrica, di questa strumentazione tecnologica, onde coglierne le opportunità, e si intende, dall’altro, “garantire” la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali. Le disposizioni poste si interpretano e si applicano conformemente al diritto dell’Unione europea, che ha approntato strumenti regolatori su più ambiti caratterizzati dalla digitalizzazione, quali la protezione dei dati personali, i diritti sui dati e contenuti digitali, la responsabilità dei fornitori di servizi digitali, la concorrenza dei mercati digitali, il commercio elettronico.

Le definizioni contenute nella bozza presentata al Senato

Il disegno di legge, all’articolo 2, sempre nella versione primigenia, al netto degli emendamenti presentati e che potrebbero essere inglobati nel testo definitivo, reca le definizioni dei vocaboli utilizzati all’interno del provvedimento medesimo:

  • “sistemi di intelligenza artificiale”;
  • “dato”;
  • “modelli di intelligenza artificiale”.

Le definizioni utilizzate nella bozza in disamina sono parzialemente riprese dal diritto dell’Unione europea. Ad esempio, per sistema di intelligenza artificiale si intende un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità a seguito della diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. La Relazione illustrativa evidenzia che tale definizione è identica a quella contenuta nell’art. 3, par. 1, n. 1) dell’AI Act. In merito alla definizione di dato, è considerato come ogni rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva. Detta definizione è presa dal regolamento (UE) 2022/868, cosiddetto “Data governance Act”. Per quanto afferisce alla definizione di modelli di intelligenza artificiale, si tratta di modelli che identificano strutture ricorrenti tramite l’impiego di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni. Tale definizione è dissimile da quella riportata dal citato art. 3, par. 1, al n. 63 dell’AI Act, la quale concerne un “modello di IA per finalità generali”; quest’ultimo è definito come un “modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’auto-supervisione su larga scala, che sia caratterizzato da una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA che sono utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato”.

Disposizioni in materia di professioni intellettuali

L’articolo 12 della bozza in disamina, sempre nella versione di presentazione, senza tener conto degli emendamenti che potrebbero passare nel testo definitivo, limita alle attività strumentali e di supporto l’applicabilità dei sistemi di intelligenza artificiale nelle professioni intellettuali e richiede che l’eventuale utilizzo degli stessi sistemi risulti oggetto di informativa ai clienti da parte dei professionisti medesimi. La disposizione riguarda l’utilizzo dei sistemi di intelligenza artificiale (come definiti all’articolo 2 della stessa bozza) nelle professioni intellettuali. Riguardo all’ambito e alla disciplina generale di queste ultime, la relazione illustrativa d fa riferimento agli articoli da 2229 a 2238 del codice civile che concernono il contratto di prestazione d’opera intellettuale. In tale ambito, l’articolo 2230 fa rinvio, in quanto compatibili con le suddette disposizioni e con la natura del rapporto, alle norme di cui agli articoli da 2222 a 2228 c.c., relative al contratto d’opera in generale. La disciplina dell’articolo 12 è, per l’effetto, inerente ai contratti di prestazione d’opera intellettuale e non anche a contratti di cessione o utilizzo di opere intellettuali precedentemente realizzate senza un incarico sottostante, opere che restano quindi al di fuori della disciplina limitativa in oggetto. Si prevede che i sistemi di intelligenza artificiale siano applicabili nelle professioni intellettuali esclusivamente per lo svolgimento di attività strumentali e di supporto all’attività professionale, la quale deve rimanere contraddistinta dalla prevalenza del lavoro intellettuale oggetto della prestazione d’opera. Tale relazione illustrativa osserva che il pensiero critico umano deve sempre risultare prevalente rispetto all’uso degli strumenti di intelligenza artificiale. Il requisito di prevalenza appare posto con riferimento al profilo della qualità della prestazione, e non implica una prevalenza anche di tipo quantitativo. Inoltre, si dispone che le informazioni relative ai sistemi di intelligenza artificiale impiegati dal professionista siano comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo, nel rispetto del rapporto fiduciario tra professionista e cliente.

Impiego dell’intelligenza artificiale nella pubblica amministrazione

L’articolo 13, nella versione originaria di presentazione al Senato, senza considerare eventuali emendamenti che potrebbero essere approvati, pone talune previsioni di ordine generale sull’impiego dell’intelligenza artificiale nei procedimenti della pubblica amministrazione, alla stregua di principi come la conoscibilità, tracciabilità, strumentalità rispetto alla decisione spettante, in ogni caso, alla persona responsabile dell’agire amministrativo. Il testo pone le finalità dell’utilizzo dell’intelligenza artificiale da parte delle pubbliche amministrazioni:

  • incremento della propria efficienza;
  • riduzione dei tempi di definizione dei procedimenti;
  • incremento della qualità e quantità dei servizi erogati.

Al contempo, si prescrive di assicurare agli interessati la conoscibilità del relativo funzionamento e la tracciabilità dell’utilizzo. L’impiego dell’intelligenza artificiale dovrebbe essere in funzione strumentale e di supporto all’attività provvedimentale, ed è tenuto al rispetto dell’autonomia e del potere decisionale della persona che rimane l’unica responsabile dei provvedimenti e dei procedimenti. Le pubbliche amministrazioni adottano misure tecniche, organizzative e formative, preordinate a garantire un utilizzo dell’intelligenza artificiale “responsabile” e a sviluppare le capacità trasversali degli operatori.

Novelle al codice di rito civile

L’articolo 15 affida al tribunale la competenza per i procedimenti riguardanti il funzionamento di un sistema di intelligenza artificiale, novellando l’articolo 9, secondo comma, del codice di rito civile al fine di introdurre, tra le materie di esclusiva competenza del tribunale, quelle hanno per oggetto il funzionamento di un sistema di intelligenza artificiale, escludendo per l’effetto la competenza del giudice di pace in tali materie. Il primo comma dell’art. 9 c.p.c., nella formulazione vigente, attribuisce al tribunale la competenza per tutte quelle cause che non sono di competenza di un altro giudice, mentre il secondo comma del medesimo articolo individua alcune specifiche materie per le quali il tribunale è competente in via esclusiva ovvero:

  • imposte e tasse;
  • stato e capacità delle persone e diritti onorifici;
  • querela di falso;
  • esecuzione forzata;
  • cause di valore indeterminabile.

Novelle ai reati di aggiotaggio, plagio e manipolazione del mercato

I commi da 2 a 4 dell’articolo 25, nella versione di presentazione del d.d.l. al Senato, oltre a introdurre specifiche circostanze aggravanti per i reati di aggiotaggio e di manipolazione del mercato quando i fatti sono posti in essere tramite l’impiego di sistemi di intelligenza artificiale, sanzionano pure le condotte di plagio commesse mediante sistemi di intelligenza artificiale. Si intende novellare l’articolo 2637, primo comma, del codice civile, che disciplina il reato di aggiotaggio (punito con la reclusione da uno a cinque anni) prevedendo un aggravamento di pena (la reclusione da due a sette anni) quando il fatto è posto in essere per il tramite dell’impiego di sistemi di intelligenza artificiale.

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

16 + 13 =

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.