I principali dilemmi del diritto sull’artificial intelligence

di Niccolò Nalesso

  1. Premessa

L’essere umano ha da sempre fantasticato sulla possibilità di costruire delle entità dotate di un’intelligenza in grado di competere o addirittura superare la propria. Si assiste oggi alla rapida evoluzione delle potenzialità dell’Artificial Intelligence, dovuta alla disponibilità di enormi quantità di dati ed a una potenza di calcolo sconosciuta fino a poco tempo addietro. Si stima infatti che il 90% dei dati disponibili nel pianeta sia stato prodotto negli ultimi 2 anni![1]

Ci si avvia dunque verso una nuova rivoluzione industriale, in cui la proliferazione di tecniche di intelligenza artificiale come gli algoritmi di machine learning, le tecniche di mining ed i sistemi predittivi permeano le nostre esistenze ben oltre la nostra consapevolezza. Basti pensare a come i nostri smartphone quotidianamente ci suggeriscano luoghi, ristoranti, film ed eventi a cui potremmo essere interessati, oppure a come Siri ed Alexa riconoscano e comprendano le nostre conversazioni.

La differenza fondamentale rispetto al passato sta nel fatto che l’Artificial Intelligence (d’ora in avanti detta anche A.I.) ha ora a disposizione:

  • i Big Data, ovvero una raccolta di dati molto estesa in termini di volume, velocità e varietà;
  • elaboratori con le capacità di calcolo adatte ad estrarre le informazioni necessarie da questa mole di dati.

Siamo ancora nella fase iniziale dello sviluppo dell’A.I., perciò questo è il momento ideale per analizzare, senza pretesa di esaustività, alcune tematiche giuridiche che verranno notevolmente influenzate dal rapporto con entità intelligenti.

  1. Responsabilità civile

Gli straordinari progressi tecnologici dell’ultimo decennio hanno fatto sì che le entità intelligenti siano oggi in grado di svolgere attività tipicamente umane, quali interagire con l’ambiente circostante ed alterarlo in maniera significativa. Diventa quindi essenziale porsi la questione di chi sia responsabile per gli eventuali danni provocati da tali entità.

Premessa fondamentale: ogni regolazione dovrebbe tener conto dei suoi possibili effetti nel campo della ricerca scientifica e del commercio della tecnologia intelligente. In tale ottica è stato sostenuto[2]che una legislazione che implichi l’imposizione di severi criteri di responsabilità prima ancora di aver raggiunto la possibilità tecnica di addivenire a determinati standard tecnologici, potrebbe ostacolare lo sviluppo scientifico – tecnologico dell’A.I. ingenerando nei produttori il timore di dover sopportare costi elevatissimi circa prodotti per i quali concretamente essi non sono in grado di calcolare i rischi d’impatto nella società. Pertanto, l’imposizione di normative eccessivamente restrittive innalzerebbe i costi per le aziende coinvolte, i cui competitor operanti in altri mercati sottoposti a regolazioni più flessibili verrebbero inevitabilmente avvantaggiati.

Nell’attuale quadro giuridico, le entità di A.I. non possono essere considerate responsabili in proprio, in quanto la Direttiva 85/374/CEE[3]si limita a prevedere la responsabilità oggettiva da prodotto difettoso, per cui il produttore è responsabile per il solo fatto di aver messo in circolazione il prodotto, a prescindere dal dolo o la colpa dello stesso.

Il suo campo di applicazione è quindi limitato alle ipotesi di automi difettosi a prescindere dalle loro capacità cognitive e di adattamento all’ambiente esterno. Va rilevato che non si tratta di una normativa dettata specificatamente per le entità di A.I., come del resto si evince dall’art 2 della Direttiva, per la quale prodotto è il bene caratterizzato da mobilità e tangibilità, requisito quest’ultimo difficilmente riscontrabile nell’intelligenza artificiale. La Direttiva non pare quindi idonea a disciplinare una materia che sembra invero avvicinare il concetto di “cosa” a quello di “persona”. Un altro orientamento fa riferimento alla responsabilità genitoriale, assimilando giuridicamente le entità di A.I. ai minori[4].

Una soluzione alternativa, che mira a contemperare la tutela della vittima con l’esigenza di non sovraccaricare il produttore di oneri eccessivi, postula una differenziazione di responsabilità tra azienda produttrice ed utilizzatore dell’automa operata sul concetto del c.d.“responsibility gap”, ovvero l’impossibilità per il produttore di prevedere il comportamento di un prodotto tecnologico così avanzato ed in grado di apprendere da solo nuove tipologie di condotte. Si postula quindi un’esenzione o quantomeno una limitazione della responsabilità del produttore[5]. L’esenzione per i produttori scatterebbe sulla base del rispetto di alcuni standard delineati da linee guide, certificazioni e codici di condotta che attestino l’inserimento nell’automa di criteri etici volti al rispetto dei diritti fondamentali dell’uomo, oltre che di principi di security e privacy by design per incentivare ab originegli investimenti sulla sicurezza dei prodotti.

In questi casi il sistema di risarcimento verrebbe incentrato:

  • sull’obbligo per i produttori di robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro prodotti;
  • sull’istituzione di un Fondo di solidarietà in capo al quale graverebbe l’onere di risarcire i danni subiti dagli utenti in caso di mancata copertura assicurativa ed in caso di non imputabilità del produttore o dell’utilizzatore finale;
  • sull’esenzione e/o limitazione di responsabilità per i produttori qualora adempiano l’obbligo di sottoscrivere la copertura assicurativa e qualora finanzino il predetto Fondo di solidarietà[6].
  1. Data Protection

I sistemi di A.I. hanno la necessità di raccogliere enormi quantità di dati grazie ai quali poter apprendere nuovi comportamenti in via autonoma. Le modalità e le finalità di trattamento diventeranno pertanto sempre più complesse e richiederanno una tutela dinamica che miri a proteggere i dati nella pluralità delle loro utilizzazioni e funzioni. In tal senso, è già possibile contare su una congrua base normativa quale il Regolamento Ue n. 679/2016, c.d General Data Protection Regulation (GDPR), il quale rappresenta il riconoscimento definitivo del fatto che la protezione dei dati personali è un diritto fondamentale dei cittadini europei.In particolare, secondo l’art 22 del GDPR, “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato”,ed ha “il diritto di ottenere l’intervento umano da parte del titolare del trattamento”.L’interessato non può quindi essere oggetto di decisioni assunte senza la presenza dell’intervento umano, in quanto deve sempre esservi la possibilità di ottenere la disattivazione o la modifica dell’algoritmo del sistema di A.I.

La previsione in oggetto si pone come una delle colonne portanti della tutela dei diritti fondamentali. Si pensi alla portata di decisioni automatizzate che impediscano ad un soggetto l’ingresso in uno Stato, o l’accesso ad un sussidio statale, o ancora all’erogazione di un servizio essenziale. Decisioni simili vanno quindi accompagnate dalla possibilità per l’interessato di chiedere l’intervento di un soggetto umano, o quantomeno di poter appellare – sempre di fronte ad un soggetto umano – la decisione presa dall’automa. L’interessato dovrà anche essere reso edotto di come una particolare decisione sia stata raggiunta dal sistema di A.I., ovvero di cosa sia necessario affinchè esso pervenga ad una decisione differente in un’occasione successiva[7].

L’obiettivo finale è quello di ricercare un equilibrio tra individuo e tecnologia, da condurre attraverso una continua analisi del rischio per adottare le misure di protezione più adeguate. I diritti dell’individuo nell’era digitale, del resto, sono fortemente influenzati dagli algoritmi che analizzano le nostre attività tramite una sorta di sorveglianza digitale. Gli effetti, solitamente, si riverberano sull’advertising e sulle offerte promozionali o lavorative. Nei casi peggiori invece, e stiamo parlando del noto esperimento del Social Credit System che verrà applicato in Cina a partire dal 2020, essi contribuiscono ad elaborare una sorta di pagella sociale dell’individuo che può essere categorizzato come affidabile o inaffidabile per decidere a quali servizi possa avere accesso.

Purtroppo, la consapevolezza del cittadino medio circa i rischi introdotti dall’utilizzo incontrollato della tecnologia è molto bassa dal momento che è difficilmente percepibile[8].

Di recente, il Comitato dei ministri del Consiglio d’Europa ha lanciato l’allarme evidenziando che l’utilizzo di dati su larga scala è in grado di predire i comportamenti delle masse , di influenzarle e di determinare nuove discriminazioni. Il Comitato, nella conferenza a Helsinki del 26 e 27 febbraio, ha così invitato gli Stati  a considerare nuove tutele specifiche nell’ambito dell’A.I.[9].

Il Comitato del trattato del Consiglio d’Europa sulla protezione dei dati, inoccasione della Giornata della protezione dei dati del 28 gennaio, ha pubblicato delle linee guida sul rapporto tra protezione dei dati ed A.I. Viene posto l’accento sulla necessità che l’utilizzo dell’A.I. venga condotto nel rispetto dei principi di protezione dei dati (di cui alla Convenzione 108 ed i principi di privacy by design e di accountability) ma altresì dei valori etici e dei principi di funzionamento delle democrazie.

La speranza è che tale visione umano-centrica possa finalmente condurre l’Europa ad assumere un ruolo guida nello sviluppo dell’A.I..

  1. Veicoli a guida autonoma

Negli ultimi anni il tema dei veicoli senza conducente ha suscitato interesse e perplessità. In California e in Florida è stata da tempo liberalizzata la ricerca nell’ambito, e le note Google driverless cars hanno già percorso migliaia di km. Nel Michigan è stato avviato il progetto Mcity che prevede la creazione di una mini città per simulare l’utilizzo della guida autonoma[10]. In Europa, nel 2015, è stato avviato il progetto City Mobil 2 in merito all’automazione dei mezzi di trasporto pubblici: dalla nostra Oristano sono partiti due veicoli a guida autonoma che hanno fatti tappa in diverse città europee per poi essere presentati all’Expo di Milano. Il progetto concerneva altresì la necessità di aggiornare le normative in tema di circolazione stradale al fine di introdurre una nuova legislazione che contempli la possibilità di introdurre nelle strade pubbliche i veicoli a guida autonoma. Sotto questo aspetto, è già stata modificata la Convenzione di Vienna sulla circolazione stradale del 1968, introducendo all’art 8 la previsione per cui “ogni guidatore deve essere sempre presente e abile a prendere il controllo del veicolo”[11]. In buona sostanza, viene paventata per la prima volta la possibilità che il guidatore possa sollevare le mani dal volante, a patto che possa estromettere in qualunque momento il sistema elettronico automatico in favore del controllo umano.

Più recentemente, nel marzo 2019, è giunto il parere positivo del Ministero delle Infrastrutture e dei Trasporti per l’inizio dei test di veicoli a guida autonoma su strade pubbliche, come previsto dal D.m. 70/2018 nell’ottica di digitalizzazione delle strade[12].

Dal punto di vista giuridico, un veicolo senza conducente introduce alcune questioni da analizzare. Ad esempio, l’annuncio della società automobilistica Volvo dell’Ottobre 2015, per il quale essa si assumerà la responsabilità dei danni provocati dai propri veicoli a guida autonoma, costituisce un precedente interessante.

Tuttavia, è necessario individuare delle norme che consentano di risolvere il dilemma giuridico. Per stabilire chi sia responsabile dei danni causati dal veicolo a guida autonoma occorre ribadire che, secondo l’orientamento maggioritario, si è in presenza di una responsabilità di tipo oggettivo (di cui si è già discusso al paragrafo n. 2). Anche in tal caso si possono riprendere i concetti in merito all’inadeguatezza della Direttiva 85/374 sui prodotti difettosi ed alla necessità di elaborare delle normative alternative.

L’obiettivo è tutelare la posizione dei c.d. bystanders, cioè coloro che pur non utilizzando il prodotto ne subiscono un pregiudizio, ad esempio il pedone che attraversando la strada viene investito dalla driverless car, come tragicamente avvenuto a Tempe, in Arizona, ove nel marzo 2018 una vettura a guida automatica di Uber ha investito ed ucciso una donna[13]. E’ necessario che vi sia sempre la possibilità per l’individuo (o gli eredi) di vedersi riconosciuto il congruo risarcimento del danno per il pregiudizio subito.

  1. Robot sul posto di lavoro

Negli ultimi anni si è diffuso il concetto di Industria 4.0, con cui si fa riferimento all’insieme di nuove tecnologie, fattori produttivi ed organizzazioni del lavoro che stanno modificando in via sostanziale le modalità di produzione e le relazioni tra gli attori economici. L’automazione nel luogo di lavoro non è certo un nuovo fenomeno, tuttavia nelle fasi di svolta tecnologica è lecito interrogarsi sulla trasformazione del mercato del lavoro. Nell’ultimo periodo si è assistito agli scioperi contro gli algoritmi di Uber e Foodora ed alla recente protesta del sindacato statunitense International Longshore & Warehouse Union contro l’automazione del colosso danese della logistica Maersk[14].

Si contrappongono le tesi di chi preannuncia la scomparsa irrimediabile delle professioni meccaniche/manuali, nell’ottica di quella che Keynes definiva disoccupazione tecnologica, a quella di chi parla di “distruzione creativa” secondo cui gli strumenti per combattere la disoccupazione sarebbero già contenuti nella stessa innovazione attraverso la nascita di nuove tipologie di lavoro[15].

Le precedenti rivoluzioni industriali hanno comportato cambiamenti radicali per i lavoratori, tuttavia lo sviluppo tecnologico si è sempre dimostrato irreversibile. Il robot, del resto, è un investimento che riduce i costi ma ciò non esclude che ci sia bisogno di politiche e normative per gestire la transizione. Del resto, uno studio dell’università di Oxford sostiene che il 47% dei lavori sia a rischio automazione[16].

Il vero nodo della questione sta nell’individuare delle forme di tutela per i lavoratori che dovessero venire rimpiazzati dallo sviluppo dell’A.I. Si è ipotizzata l’introduzione ex lege dell’obbligo per il datore di lavoro di seguire un’apposita procedura per cui[17]:

  • venga in prima istanza esplorata l’opportunità di ricorrere a forme flessibili quali part-time, job shares ecc.;
  • in caso negativo, venga previsto un risarcimento per il lavoratore;
  • venga notificato l’evento ad una Commissione nazionale che abbia l’incarico di valutare le circostanze e tenere traccia dell’evoluzione del trend a livello statale.

In ogni caso, dovrebbero altresì essere introdotti dei progetti di riqualificazione per tutte le categorie di lavoratori le cui posizioni sono soggette al rischio sostituzione da parte di entità intelligenti, oltre a sviluppare programmi di alfabetizzazione digitale, come raccomandato dalla Risoluzione del Parlamento UE del 12 febbraio 2019[18]. Tutti i progressi nell’attuazione dell’A.I. nei luoghi di lavoro dovrebbero in ogni caso avvenire di concerto con le parti sociali.


[1]Fonte: IBM.

[2]R. LEENES, E. PALMERINI, B. KOOPS, A. BERTOLINI, P. SALVINI, F. LUCIVERO, Regulatory challenges of robotics: some guidelines for addressing legal and ethical issues, in Law, Innovation and Technology, 23.03.2017, pp. 14 ss.

[3]Modificata dalla Direttiva 99/34/CE, e recepita in Italia  nel Codice del consumo (D.lgs n. 206/2005).

[4]A. SANTOSUOSSO, C. BOSCARATO, F. CAROLEO, Robot e diritto, una prima ricognizione, p. 20.

[5]A. BERTOLINI, Robot as Products: the case for a realistic analysis of Robotic applications and Liability rules, p. 233 ss.

[6]L’esigenza di un Fondo di risarcimento è già stata sollevata dal Parlamento Europeo nella Risoluzione del 16.02.2017, in particolare al par. 58-59. V. anche C. HOLDER, V. KHURANA, F. HARRISON, L. JACOBS, Robotics and law: key legal and regulatory implications of the robotics age, Part I, p. 390 ss.

[7]THE NORWEGIAN DATA PROTECTION AUTHORITY, Artificial Intelligence and Privacy, Report 01/2018, pp. 20 ss.

[8]E’ stata pertanto avanzata la proposta di introdurre degli intermediari digitali che siano in grado di abilitare l’utente a decidere da chi farsi profilare o contattare fissando un prezzo per il trattamento dei propri dati. V. intervento dell’avv. Luca Bolognini in http://www.ingenium-magazine.it/intelligenza-o-follia-artificiale-intervista-a-luca-bolognini/

[9]Dice l’avv. Francesco Pizzetti, ex Garante privacy italiano «L’idea di fondo…è che non è più sufficiente tutelare i dati personali degli utenti. Adesso servono tutele ad hoc per i “dati inferiti”, quei dati che – tratti da altri dati, magari anche relativi a persone terze – riescono grazie ad analisi algoritmiche a predire e influenzare i nostri comportamenti, conoscenze, scelte e opinioni”.

[10]https://mcity.umich.edu/

[11]http://www.ansa.it/motori/notizie/rubriche/normativa/2014/05/19/auto-a-guida-autonoma-modificata-convenzione-sul-traffico_9ea32151-da49-4b4f-be8e-3ba700586867.html

[12]http://www.mit.gov.it/comunicazione/news/smart-road/smart-road-primo-ok-per-autorizzazione-alla-guida-autonoma-su-strada

[13]https://www.theguardian.com/technology/2018/mar/19/uber-self-driving-car-kills-woman-arizona-tempe

[14]Articolo di  MASSIMO SIDERI, in Corriere della Sera, 23.03.2019.

[15]V. ad esempio  A. MAGONE, T. MAZALI, Industria 4.0, p. 87 ss.

[16]https://www.ilsole24ore.com/art/notizie/2016-10-06/l-invasione-robot-lavori-rischio-automazione-47percento-182138.shtml?uuid=ADN7lUXB

[17]C.  HOLDER, V. KHURANA, J. HOOK, G. BACON, R. DAY, Robotics and law: Key legal and regulatory implications of the robotics age, Part II,  p. 562 ss.

[18]Risoluzione del Parlamento UE del 12 febbraio 2019, Par. 1-8.


Autore

 

it_ITItaliano
en_USEnglish it_ITItaliano