Intelligenza artificiale e responsabilità civile

in Giuricivile, 2021, 2 (ISSN 2532-201X)

Una delle prime problematiche da affrontare in tema di Intelligenza artificiale riguarda l’individuazione di una definizione specifica di questo nuovo fenomeno.

Per porre fine al proliferare di plurime definizioni dall’incerto grado di precisione, la Commissione europea ha nominato un gruppo di cinquantadue esperti, dotati di competenze che spaziano dal settore squisitamente informatico a quello imprenditoriale fino ad arrivare all’ambito legale, con il compito di analizzare e fornire indicazioni per l’utilizzo e lo sviluppo di questa tecnologia.

Nell’aprile del 2019, l’High-Level Expert Group on Artificial Intelligence ha qualificato i sistemi di Intelligenza artificiale come

“sistemi software (ed eventualmente anche hardware) progettati dagli esseri umani che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il loro ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza, o elaborando le informazioni derivate da questi dati, e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato[1].

Tale definizione prende le mosse dalla Comunicazione della Commissione europea del 18 aprile 2018 n. 237[2], che sintetizza i propositi dell’Unione in merito all’utilizzo dei sistemi di IA: tra gli obiettivi a medio-lungo termine, spiccano in particolare l’adozione della nuova tecnologia 4.0 in tutti i settori economici e la predisposizione di mezzi idonei a fronteggiare le conseguenti modificazioni socio-economiche. A ciò si aggiunge, nell’ottica del miglior coordinamento tra Stati membri, la predisposizione di un regime etico e giuridico adeguato alla più ampia diffusione dell’Intelligenza artificiale.

In questo quadro si inserisce il c.d. Libro Bianco sull’Intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia[3], che mira a promuovere un largo impiego dei più avanzati strumenti software (es. motori di ricerca e assistenti vocali) o hardware (es. robot e droni), garantendo al contempo il massimo rispetto dei diritti di tutti i soggetti coinvolti nella loro produzione e nel loro utilizzo.

Agli interventi a livello europeo si aggiungono le iniziative promosse a livello nazionale che, interpellando diverse professionalità, sottopongono al Parlamento la necessità di adeguare anche l’ordinamento interno alle più avanzate innovazioni tecnologiche: in particolare, la Conferenza “Statuto etico e giuridico dell’Intelligenza artificiale” organizzata dalla Fondazione Leonardo presso la Camera dei Deputati nel 2019, nonché la Strategia Nazionale per l’Intelligenza Artificiale elaborata dal Ministero dello Sviluppo Economico nel settembre 2020[4].

Le problematiche sollevate dalla nuova tecnologia

Le difficoltà che accompagnano la crescente diffusione dei sistemi di Intelligenza artificiale derivano dal fatto che tale innovazione tecnologica, oltre agli evidenti vantaggi che può offrire a privati, professionisti ed imprese in termini di praticità, efficienza e competitività, pone altresì dei problemi in materia di tutela dei diritti.

Ciò deriva da alcune delle loro caratteristiche fondamentali: l’autonomia, intesa come indipendenza dall’azione umana, e la conseguente imprevedibilità. Ed infatti, la loro attività, proprio perché totalmente o largamente svincolata dal controllo dell’uomo, ben potrebbe causare la lesione dei diritti di coloro che vi entrano in contatto.

In tal senso, appaiono emblematici i profili relativi alla responsabilità per i danni causati dai sistemi di Intelligenza artificiale, la disciplina della proprietà intellettuale in materia di IA, nonché il coordinamento tra il Libro Bianco e le norme del GDPR, sui quali le Istituzioni europee hanno appunto concentrato la loro attenzione.

Intelligenza artificiale e profili di responsabilità

Come più volte sottolineato nel Libro Bianco, le tecnologie di Intelligenza artificiale possono presentare dei rischi per gli utenti che le utilizzano, derivanti da difetti di progettazione, da problemi di acquisizione e utilizzo di dati o ancora da limiti relativi all’apprendimento automatico.

Esempio emblematico è quello dell’automobile a guida autonoma, che potrebbe causare lesioni alle persone o alle cose in conseguenza di una disfunzione del sofware di riconoscimento degli elementi materiali circostanti[5].

Per questa ragione appaiono necessarie norme specifiche in materia di responsabilità civile che garantiscano al danneggiato il suo diritto al risarcimento del danno e che, al contempo, delineando precisamente la ripartizione di responsabilità tra i soggetti convolti, inducano produttori ed operatori alla corretta realizzazione e all’uso idoneo dei relativi sistemi.

Il problema della soggettività giuridica: l’ipotesi della c.d. “personalità elettronica”

Una delle prime difficoltà che si presentano nella costruzione di un sistema di responsabilità per danni causati dall’Intelligenza artificiale riguarda l’individuazione del soggetto cui imputare gli eventuali danni o lesioni.

Caratteristica fondamentale di tali sistemi è, infatti, il c.d. deep learning, cioè l’apprendimento automatico reso possibile da algoritmi che simulano la struttura e le funzionalità del cervello umano e che, potenzialmente, potrebbero condurre il sistema di IA ad operare in situazioni e con modalità non previste dall’uomo, sottraendosi a suo controllo. Tale mancanza di dominio sul sistema incide fortemente sui criteri di imputazione della responsabilità.

Questa circostanza ha indotto alcuni studiosi[6] a ritenere che fosse necessario introdurre il concetto di “personalità elettronica” al fine di individuare, oltre che i diritti dei sistemi di IA, i loro doveri ed obblighi, nonché gli strumenti attraverso i quali dotarli di un proprio patrimonio con il quale rispondere direttamente dei propri illeciti[7].

Tuttavia, la qualificazione delle tecnologie di IA in termini di soggetti di diritto desta delle perplessità, e non solo dal punto di vista etico-morale. Infatti, se è vero che i sistemi di Intelligenza artificiale sono in grado di apprendere autonomamente grazie all’interazione con l’ambiente esterno, altrettanto non può dirsi per quanto riguarda il loro potere di autoregolamentazione, dovendo in ogni caso operare sulla base di valori introdotti dall’uomo[8].

Questa circostanza non è priva di implicazioni pratiche negative per gli eventuali soggetti danneggiati dalla loro azione, poiché il riconoscimento dei sistemi di intelligenza artificiale come veri e propri soggetti di diritto condurrebbe alla necessaria limitazione della responsabilità degli sviluppatori, dei produttori e degli utilizzatori di tali tecnologie, privi di qualsiasi obbligo nei confronti dei soggetti terzi, rendendo in tal modo maggiormente difficoltosa la realizzazione dell’interesse risarcitorio del fruitore.

L’insufficienza delle disposizioni in materia di responsabilità del produttore

Oltre alle difficoltà di qualificare i sistemi di IA come nuovi soggetti cui imputare i danni causati dalle più avanzate tecnologie, appare evidente che le peculiarità di tali sistemi rendano insufficiente il sistema europeo, integrato dalle legislazioni nazionali, relativo alla responsabilità per i danni da prodotti difettosi[9].

Tra i profili problematici, vi è in primo luogo la qualificazione di un sistema di IA come “prodotto”, considerato che l’art. 2 della Direttiva 85/374/CEE definisce tale “ogni bene mobile, ad eccezione dei prodotti agricoli naturali e dei prodotti della caccia, anche se forma parte di un altro bene mobile o immobile”, ivi compresa l’elettricità.

È pur vero che il software, difficilmente inquadrabile in tale definizione, quando è parte del prodotto finale, deve essere conforme alle norme in materia di sicurezza dei prodotti, ma tale assunto tradisce una visione solo parziale del fenomeno, inadatta alla complessità del panorama tecnologico.

Altro profilo insidioso è quello relativo alla qualificazione delle carenze della cybersicurezza in termini di “difetti”: l’autonomia, anche se non totale, che deriva ai sistemi di AI dalle loro capacità di apprendimento e di adattamento, pone evidentemente dei problemi ulteriori rispetto ai più elementari deficit di progettazione e fabbricazione, inquadrabili nella sottrazione dello strumento tecnologico dal controllo dell’operatore. Date queste caratteristiche, quindi, appare inapplicabile la gravosa conseguenza prevista dall’art. 1 della Direttiva citata, cioè la responsabilità del produttore per i danni causati dai difetti del suo prodotto.

Infine, è lo stesso Libro Bianco ad evidenziare l’ulteriore limite della disciplina relativa alla responsabilità del produttore, cioè l’eccessiva gravosità dell’onere probatorio posto in capo al danneggiato quanto alla prova del difetto e del nesso di causalità tra difetto e danno.

Considerati tutti i limiti della disciplina vigente, quindi, il rischio è quello di offrire ai soggetti danneggiati dai sistemi di AI un livello di tutela inferiore rispetto a quello previsto per i danni causati dalle tecnologie tradizionali.

La risoluzione del Parlamento europeo

La complessità del fenomeno e la necessità di regolamentare il settore hanno indotto il Parlamento europeo ad adottare tre risoluzioni contenenti altrettante proposte di regolamento in materia di IA: tra queste, la risoluzione A9-0178/2020 riguarda specificamente il regime della responsabilità civile per danni derivanti dall’impiego dei sistemi di Intelligenza artificiale[10].

La proposta di regolamento pone una disciplina differenziata a seconda della maggiore o minore esposizione a rischio della tecnologia di IA, distinguendo tra sistemi ad alto rischio e altri sistemi.

Quanto ai primi, l’alto rischio è definito come “un potenziale significativo in un sistema di IA che opera in modo autonomo di causare danni o pregiudizi a una o più persone in modo casuale e che va oltre quanto ci si possa ragionevolmente aspettare; l’importanza del potenziale dipende dall’interazione tra la gravità dei possibili danni o pregiudizi, dal grado di autonomia decisionale, dalla probabilità che il rischio si concretizzi de dalla modalità e dal contesto di utilizzo del sistema di IA”.

Quanto ai danni causati da questo tipo di sistemi, che saranno indicati in un elenco esaustivo formato e periodicamente aggiornato dalla Commissione, l’art. 4 prospetta una responsabilità di carattere oggettivo in capo all’operatore del sistema. Da tale responsabilità gli operatori possono liberarsi solo fornendo la prova che il danno o pregiudizio è dovuto a cause di forza maggiore, a nulla rilevando la prova di aver agito con la diligenza richiesta dalle circostanze o dell’azione pienamente autonoma del sistema di IA.

Degli altri sistemi di IA, cioè di quelli non ad alto rischio, si occupa l’art. 8, che sancisce invece la responsabilità per colpa dell’operatore in ordine ai danni e pregiudizi causati da un’attività, dispositivo o processo fisico o virtuale guidati dal sistema di IA. In tal caso, la prova liberatoria può riguardare l’autonoma attivazione del sistema, purché siano state adottate tutte le cautele volte ad evitare tale attivazione, ovvero il diligente svolgimento delle operazioni di selezione, attivazione, monitoraggio ed aggiornamento del sistema di IA. Come nell’ipotesi di sistema ad alto rischio, la prova della forza maggiore libera l’operatore, mentre non è in alcun modo rilevante la pura e semplice iniziativa autonoma del sistema di IA.

Oltre che in relazione alla loro natura, i due tipi di responsabilità differiscono sotto il profilo della prescrizione, soggetta ad un regime speciale in caso di danni causati da sistemi ad alto rischio[11] e sottoposta alla disciplina posta dalle singole legislazioni nazionali nelle altre ipotesi.

L’entità del risarcimento, limitata nel quantum in relazione ai danni causati dai sistemi ad alto rischio, è ridotta secondo le regole generali in caso di concorso tra la condotta dell’operatore (o dei più operatori responsabili in solido) e quello della persona interessata. Ove quest’ultima venga soddisfatta interamente dall’operatore, egli ha azione di regresso nei confronti del produttore del sistema di IA difettoso, a norma della Direttiva 85/374/CEE.

Conclusione

Il Libro Bianco e la proposta di regolamento della Commissione europea rendono palese la molteplicità degli obiettivi da raggiungere progressivamente in materia di Intelligenza artificiale, in modo che all’auspicabile diffusione della tecnologia IA nei più svariati settori si accompagni un adeguato incremento dei livelli di tutela di tutti i soggetti coinvolti.

In materia di responsabilità per danni derivanti da sistemi di IA, più specificamente, occorrerà costruire un idoneo sistema normativo in materia, a livello tanto nazionale quanto sovranazionale, predisponendo contestualmente strumenti volti a garantirne l’effettiva e corretta applicazione, anche alla luce delle continue integrazioni e dei continui aggiornamenti cui i sistemi di AI sono soggetti.

È ragionevole ritenere, quindi, che sarà questa la direzione verso la quale saranno orientati i lavori delle Istituzioni europee e dei singoli Stati membri nel corso del 2021.


[1] AI HLEG, A definition of Artificial Intelligence: main capabilities and scientific disciplines, 8 aprile 2019, in ec.europa.eu, European Commission, Strategy, Shaping Europe’s digital future, Reports and studies.

[2] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico sociale europeo e al Comitato delle regioni, L’intelligenza artificiale per l’Europa in eur-lex.europa.eu, COM/2018/237 final.

[3] Libro Bianco sull’Intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, 19.02.2020, in ec.europa.eu, COM/2020/65 final

[4] https://www.mise.gov.it/images/stories/documenti/Strategia_Nazionale_AI_2020.pdf

[5] La Commissione europea utilizza l’esempio dell’automobile self-driving in evidente riferimento al c.d. caso Tesla, avvenuto in Florida il 07.05.2016: il conducente aveva impostato la modalità di guida automatica che, errando nell’interpretazione dei dati relativi alla presenza di un tir che svoltava – e, secondo la ricostruzione dell’azienda, confondendo il colore bianco del profilo del mezzo con la luminosità del cielo azzurro -, aveva causato un violento impatto e, conseguentemente, la morte del conducente stesso.

[6] Tra gli altri, Pagallo U., Intelligenza artificiale e diritto. Linee guida per un oculato intervento normativo, in Sistemi intelligenti, Rivista quadrimestrale di scienze cognitive e di intelligenza artificiale, 3/2017, pag. 615 e ss., DOI: 10.1422/88512

[7] A tal proposito Ruffolo U., Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies, Volume 2(1), aprile 2020, pag. 75 e ss. qualifica il relativo processo in termini di personalizzazione o, quantomeno, di entificazione della res “macchina intelligente”.

[8] Bonaldo A. e Cugini G., Intelligenza artificiale: responsabilità nella progettazione e utilizzo di sistemi, in Novità fiscali, 2020(1), pag. 39-44, ISSN 2235-4573

[9] Il riferimento, contento nello stesso Libro Bianco, è alla Direttiva 85/374/CEE del 25 luglio 1985, cui è stata data attuazione nel nostro ordinamento con il D.P.R. 24 maggio 1988 n. 224.

[10] https://www.europarl.europa.eu/doceo/document/A-9-2020-0178_EN.html

[11] Ai sensi dell’art. 7, le azioni per danni alla vita, alla salute o all’integrità fisica si prescrivono nel termine di trenta anni dalla data in cui si è verificato il danno. Le azioni per danni al patrimonio o rilevanti danni non patrimoniali che risultino in una perdita economica verificabile si prescrivono in dieci anni dalla data in cui si è verificato il danno patrimoniale o la perdita economica verificabile, ovvero in trenta anni dalla data in cui ha avuto luogo l’attività che ha dato origine al danno o alla perdita.

SCRIVI IL TUO COMMENTO

Scrivi il tuo commento!
Per favore, inserisci qui il tuo nome

12 − quattro =

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.