Responsabilità civile dell’intelligenza artificiale nell’Unione Europea: il nuovo regolamento

L’ultima proposta della Commissione europea circa la regolamentazione della cosiddetta Intelligenza artificiale (IA) entra di diritto in quel gruppo di iniziative legislative riguardanti l’economia digitale (come quelle su sicurezza, privacy e concorrenza).

Il tratto comune delle suddette leggi è l’avere un approccio “top-down”.

Ovvero, si trova un rischio (o soggetti e settori esposti ad un dato rischio) e si applicano degli obblighi da rispettare, al fine di responsabilizzare i soggetti operanti nei settori di interesse delle regolamentazioni.

Un regime di responsabilità civile per l’intelligenza artificiale

Nel regolamento UE il rischio è l’elemento centrale e questo rende le regole molto specifiche. Il loro compito è infatti quello di scovare tutte le possibilità di rischio di un determinato settore, comportamento o dispositivo, per trovare le soluzioni migliori possibili.

Da questo punto di vista, le suddette regolazioni hanno al loro interno una dettagliata descrizione dei rischi.

In tal senso, le raccomandazioni fatte dal Parlamento europeo alla commissione circa un regime di responsabilità civile per l’IA sembrano ricalcare lo stesso modus operandi.

A differenti livelli di rischio corrispondono diversi livelli di responsabilità

Come per la proposta di regolamento sull’intelligenza artificiale, troviamo un diverso livello di responsabilità, individuato in base al livello di rischio. La previsione, infatti, individua un operatore di IA a basso rischio, che sarà soggetto ad un regime di responsabilità per colpa (qualora ci fossero danni), e un operatore IA ad alto rischio, responsabile di qualunque danno arrecato.

Questo modus operandi aiuta a trovare una soluzione per ovviare ad alcune criticità dovute alle particolarità delle tecnologie di IA. Anche se, tenendo presente la velocità con cui tali tecnologie progrediscono, è giusto chiedersi se sia la via più efficace per risarcire le vittime di tali sistemi.

E’ infatti assolutamente lecito ritenere che, andando avanti, diventerà sempre più difficile individuare i rischi e scovare i responsabili, poiché i suddetti sistemi saranno maggiormente integrati e polifunzionali. In più, considerando il lavoro che si sta facendo per sviluppare tecnologie di IA in grado di lavorare autonomamente senza un comando umano, l’aggiornamento della regolamentazione diventerà sempre più complicato.

Da questo punto di vista, il rischio più grande è quello di ritrovarsi un elenco infinito di misure, settori e soggetti complessi da interpretare e applicare in una situazione così mutevole nel tempo. Questo renderebbe di fatto irraggiungibile l’obiettivo iniziale, ovvero quello – come detto anche dal Parlamento europeo – “di trovare un equilibrio tra l’efficace ed equa tutela delle potenziali vittime di danni o pregiudizi e, allo stesso tempo, la disponibilità di una sufficiente libertà d’azione per consentire alle imprese, in particolare alle piccole e medie imprese, di sviluppare nuove tecnologie e nuovi prodotti o servizi”.

Il Regolamento UE sull’Intelligenza Artificiale

A questo punto, è lecito porsi delle domande circa l’adeguatezza delle leggi già in vigore, lavorando magari per un coordinamento e aggiornamento delle stesse. Il sistema giuridico attuale offre, per l’appunto, diverse ipotesi di responsabilità, attribuibili a diversi soggetti, e non solo al produttore.

Alcuni esempi di quanto appena detto possono essere, per esempio, le regolazioni circa la responsabilità dei padroni e dei committenti (art. 2409 c.c.), quella dei custodi (art.2051 c.c.) e quella del produttore da prodotto difettoso.

Le suddette regolazioni potrebbero fare al caso nostro, pertanto il Parlamento europeo ha già raccomandato una revisione e aggiornamento delle normative.

L’imputazione oggettiva della responsabilità

E’ dunque possibile attribuire responsabilità senza l’ausilio di nuovi strumenti normativi, ma grazie all’uso di quelli già in essere.

In aggiunta a ciò, va detto che concepire come tutela “sussidiaria”, rispetto alla responsabilità per colpa, la responsabilità per danno da prodotto difettoso, sarebbe opportuno.

Così facendo infatti, la persona danneggiata potrebbe richiedere agli organi giudiziari l’accertamento della negligenza del produttore, così da ottenere non solo il risarcimento, ma anche l’adozione di misure inibitorie circa l’uso di tecnologie non adeguate, ovvero circa l’omissione di controlli che certifichino qualità e sicurezza.

In ultimo, nel caso in cui il giudice non abbia la possibilità di accertare la negligenza del produttore – con evento dannoso considerato inevitabile – colui che è stato danneggiato potrebbe comunque far domanda di risarcimento per danni sulla base dell’imputazione oggettiva.

Il ruolo delle assicurazioni

Per concludere il discorso, un ruolo importante nel tentativo di ridimensionare l’impatto del rischio di responsabilità di tutti i soggetti produttori coinvolti è svolto dalle assicurazioni.

Il loro compito è infatti quello di incentivare l’assunzione – per i soggetti coinvolti –  della responsabilità dei danni causati dai loro prodotti, svolgendo anche un ruolo positivo nello sviluppo e adozione di tecnologie più avanzate.

Fonte: https://www.agendadigitale.eu/mercati-digitali/responsabilita-civile-dellintelligenza-artificiale-i-paletti-del-nuovo-regolamento-ue/

Condividi questo articolo: