Skip to main content

La regolamentazione degli Agenti Autonomi Artificiali

Tra «diritto del cavallo» e New IT-Tech Law

by Antonio Iannì 

1. Lo scenario della c.d. Quarta Rivoluzione Industriale

La fase d’innovazione tecnologica nella quale siamo immersi sembra caratterizzata sia da una costante accelerazione sia da un profondo impatto sul sistema delle relazioni economico-sociali. Tra i primi e più attenti osservatori di tale scenario – comunemente detto “Quarta Rivoluzione Industriale” (QRI) – si può senz’altro annoverare l’economista tedesco Klaus Schwab, il quale, forse meglio di altri, è riuscito a cogliere l’intera gamma di caratteristiche e implicazioni del nuovo assetto economico-produttivo (e quindi, per ricaduta, anche politico e legale). A detta di Schwab, la QRI si connoterebbe per almeno tre distinte peculiarità: (i) il perfezionamento di una nuova realtà industriale/di mercato capace di offrire dispositivi elettronici per l’accesso immediato e continuo alla rete internet; (ii) la presenza sempre più capillare, all’interno di prodotti e servizi di largo consumo, sia dell’intelligenza artificiale c.d. debole sia degli algoritmi di machine learninge data mining; (iii) l’espansione dei settori delle nanotecnologie e delle biotecnologie.[1]

Il risultato finale di questa Rivoluzione è il consolidarsi di un ambiente nel quale le risorse (umane/non-umane, analogiche/digitali, materiali/immateriali) cooperano in senso prevalentemente orizzontale (si pensi alla c.d. Internet of things): mutano dunque il verso nonché i soggetti e gli oggetti delle relazioni economico-sociali, e dunque – per conseguenza – anche di taluni rapporti giuridici.[2] Ci troviamo a fare i conti con un rinnovato ordinamento sociale ispetto al quale quello giuridico tradizionale non è detto che riesca a conservare piena forza prescrittiva.

 

2. Non solo Robot: cosa s’intende per Agenti Autonomi Artificiali?

Una delle implicazioni che si presenta come di maggior impatto per il mondo del diritto è rappresentata dall’introduzione di nuovi attori all’interno di relazioni dal potenziale giuridico. A ben vedere, si tratta di un qualcosa di comune con le precedenti rivoluzioni industriali: è già accaduto con il soggetto-lavoratore subordinato, oppure, in tempi più recenti, con la “comparsa” della figura del consumatore (prima analogico e poi anche digitale).

Tuttavia, nel corso della fase attuale, il novero dei soggetti di recente emersione, da un lato, sembra essere più eterogeneo e composito rispetto alle esperienze del passato e, dall’altro, presenta una matrice ontologica assai differente: non si tratta solo di proiezioni soggettive sempre e comunque riconducibili alla persona fisica, quanto semmai della comparsa d’individualità dalle fattezze integralmente elettronico-artificiali. Siamo in presenza di un vero e proprio tecno-ecosistema, rispetto al quale, come si avrà modo di spiegare da qui a breve, si sono prodotte forme di “esistenza” (anche giuridica) prima sconosciute.

Per meglio comprendere quale possa e debba essere il ruolo del diritto all’interno di questo contesto, non resta che tentare la strada di una riduzione ad unicum di tutti i diversi attori introdotti dalla QRI. A tal proposito, grazie a un’attenta analisi “fattuale” del nuovo ambiente-QRI, e quindi agendo per via induttiva, la letteratura specialistica (giuridica e non) ha optato per la creazione della figura unitaria del c.d. Agente Autonomo Artificiale(AAA).[3]

Occorre dunque capire quale possa essere innanzitutto il significato del termine “agente”. Tuttavia, per evitare una definizione del tutto pleonastica – ovverosia, agente nel senso di colui che compie delle attività – all’interno delle diverse tassonomie disponibili il sostantivo agente si accompagna all’aggettivo “autonomo”, quasi fossero un’endiadi:[4] in questo senso, si è soliti parlare di “agente autonomo” laddove quest’ultimo riesca ad assumere decisioni in maniera non eterodiretta (anche laddove si trattasse semplicemente di individuare il mezzo in relazione a un fine da altri prestabilito).[5]

Per ciò che attiene invece l’ultimo lemma del trinomio, ovverosia “artificiale”: convenzionalmente si parla di “agenti artificiali” ogni qualvolta si tratti di entità che, pur essendo frutto della creazione umana, riescono comunque a esprimere un’esistenza che sia capace – tanto sotto il profilo interno che per quello relazionale – di replicare le dinamiche biologiche e sociologiche “comuni”.[6]

Nel tentativo di sintetizzare le diverse definizioni finora illustrate, si può concludere che un AAA, per essere effettivamente tale, dovrebbe possedere almeno uno dei seguenti elementi costitutivi: (i) capacità di operare senza il diretto intervento dell’essere umano (o anche di un essere artificiale); (ii) capacità di interagire con altri agenti (umani e artificiali); (iii) capacità di percepire gli input provenienti dalla realtà circostante (sia essa fisica o virtuale) e di reagire ad ogni suo cambiamento.[7] Impiegando tale polivalente nozione, si potrebbero dunque ascrivere all’insieme degli Agenti Autonomi Artificiali (AAAs) sia taluni sistemi artificiali di carattere (anche) fisico-materiale (ad es., robot socio-sanitari), sia alcune entità dematerializzate (ad es., algoritmi data mining), passando per le combinazioni ibride dei due (così accade, ad es., nel caso delle driverless car).

 

3. Nuovi approcci di regolamentazione: l’insegnamento del cyberlawvs. «diritto del cavallo» e orientamento waitandsee

Nonostante l’ormai diffusa applicazione delle tecnologie-QRI abbia certamente contribuito ad accrescere l’interesse per il rapporto tra diritto e AAAs, è pur vero che in questo campo – lato sensu considerato – il contenzioso legale è tutt’altro che strettamente contemporaneo. È questo il caso di quei giudizi risarcitori promossi, specialmente in ordinamenti di common law, nei confronti di taluni produttori di tecnologie GPS, per i danni subiti da conducenti e/o passeggeri e/o altri utenti in occasione di sinistri legati a informazioni satellitari erronee. Nella maggior parte delle ipotesi, attribuendo incidenza causale predominante al comportamento del guidatore, i giudici hanno deciso per il rigetto delle domande, condannando il conducente per aver agito con colpa, qui declinata come eccessivo affidamento nei confronti della tecnologia GPS.[8] Eppure, specialmente all’interno della dottrina statunitense, si è argomentato nel senso di considerare all’opposto come unico responsabile il produttore.[9] Nello specifico, si è giunti a siffatta conclusione, dapprima ragionando sul dato che ogni apparecchio GPS altro non è che un sistema ibrido composto da software e hardware. Trattandosi di un ibrido, laddove si dimostrasse che le erronee informazioni direzionali siano imputabili a un difetto di produzione dell’apparecchio ricevitore-fisico, allora si potrebbe applicare la disciplina sulla c.d. products strict liability (responsabilità oggettiva) con annessa inversione dell’onere della prova a tutto svantaggio del produttore, cui da ultimo spetterà quindi la prova liberatoria. Nel caso invece di erronee informazioni dovute a una qualche fallacia di programmazione e/o successivo funzionamento del software, non è escluso – secondo questo stesso orientamento – che si possa ragionare in termini analoghi. E tutto questo perché nel diritto statunitense il software – ancorché elemento materialmente intangibile – è dalla giurisprudenza comunque ricompreso tra i beni (in applicazione dell’art. 2, sec. 105 U.S. Uniform Commercial Codegoods) e non tra i servizi (per i quali invece è prospettabile eventualmente la sola responsabilità contrattuale, priva dell’inversione probatoria). Tale ricostruzione è stata però oggetto di ampie critiche:[10] (i) poiché non terrebbe conto del fatto che, pur essendo il software inquadrabile come prodotto, la giurisprudenza statunitense – similmente a quanto suggerito, quantomeno per alcune specifiche fattispecie, da parte della dottrina europea[11]– tende talvolta a escludere la gravosa responsabilità oggettiva da prodotto difettoso, che non rappresenta dunque la rule generalmente e regolarmente applicabile;(i) poiché la teoria in esame troppo spesso – ragionando per analogia – si richiama ai precedenti relativi a danni per inesatte informazioni ricavate da carte aereonautiche “mal confezionate”, e dunque applicando un regime legale sorto per un prodotto interamente analogico.

A proposito del tema qui analizzato, va sottolineato che lo schema appena sopra illustrato – originariamente partorito per le tecnologie GPS – è stato poi diffusamente “sponsorizzato” anche per la gestione di taluni AAAs: a detta dei sostenitori del ragionamento per analogia, molti tra gli AAAs sarebbero infatti simili alle tecnologie pre-QRI. Si tratta di proposte che – applicando il più classico degli approcci wait-and-see– riecheggiano di frequente considerazioni di tal tipo: (i) quanto a incidenza socio-giuridica (rapporto umano con le nuove applicazioni tecnologiche), non vi sarebbero delle differenze di rilievo tra gli agenti della QRI e quelli della precedente fase tecnologico-industriale;[12] (ii) anche laddove tali differenze vi dovessero essere, non si è ancora in grado di valutare a pieno l’impatto della QRI sul diritto contemporaneo, e dunque – piuttosto che “sconvolgere” l’ordinamento giuridico – sarebbe meglio attendere evoluzioni future, e nel frattempo rivolgersi a principi e regole già nella nostra disponibilità. [13]

Qualcuno hanno fatto notare che un siffatto approccio altro non sarebbe che la riproposizione di quel medesimo orientamento attendista e scettico che fu contrapposto – verso la fine degli anni Novanta – alla eventualità di una regolamentazione ad hoc per il cyberspazio.[14] Tra quanti si fecero portatori di tale atteggiamento conservativo va certamente ricordato il giudice federale statunitense Frank Easterbrook, il quale, in occasione di una oramai celebre conferenza universitaria (1996, Chicago), affermò provocatoriamente che il mondo giuridico non avesse bisogno di un nuovo framework per la gestione del cyberspazio, o quantomeno non in misura maggiore di una disciplina ad hoc per gestire le controversie in materia di cavalli (vendita, danni, etc.).[15]  Pertanto, si poteva tranquillamente utilizzare il diritto privato patrimoniale già esistente,[16]sia per i cavalli che per il cyberspazio.

Le argomentazioni di Easterbrook, per quanto possiedano un innegabile valore pragmatico-risolutivo, non paiono pienamente soddisfacenti per la QRI, e quindi per le sue implicazioni giuridiche. Da questo punto di vista, tra i tanti esempi che si potrebbero fare, sostanzialmente due appaiono come i più significativi. Innanzitutto, si pensi alle applicazioni driverless,[17] nelle quali il grado di autonomia dell’agente artificiale è pressoché assoluto, non potendosi in alcun modo rilevare – così nei sistemi di ultima generazione – una qualche partecipazione del soggetto umano, e pertanto nessuna consequenziale assimilazione è ipotizzabile rispetto agli impianti di c.d. guida assistita (GPS e sue evoluzioni).[18] Invece, ragionando secondo il metodo wait-and-see, delle due l’una: in caso di sinistro, si potrebbe pensare di applicare la disciplina sulla responsabilità del produttore come se si trattasse di un veicolo semplicemente assistito; il tutto con la verosimile conseguenza di ostacolare, per ragioni di costi, la diffusione di tali sistemi. Oppure, all’opposto, si dovrebbe procedere all’imputazione giuridica del fatto dannoso in capo all’agente umano, che però risulta integralmente estraneo quanto a condotta materialmente rilevante; e quindi nuovamente si verrebbero a creare – per il tramite di una sorta di responsabilità assoluta – meccanismi di disincentivo all’utilizzo mainstream. In entrambi i casi si rischia un’allocazione inefficiente – e discutibile sotto il profilo dell’elemento soggettivo – del danno, cui peraltro si accompagnerebbe una definitiva rottura tra la realtà esperienziale (driverless carcome agente autonomo) e quella legale (driverless carcome bene/prodotto).

Volendo invece considerare il mondo degli AAAs dematerializzati, e muovendo ad esempio dal data mining/machine learning di applicazione finanziaria, si può da ultimo brevemente richiamare – questa volta con riferimento all’ambito contrattuale – la questione dell’AAA quale rappresentante mandatario di un soggetto umano.[19] Per esempio, quale sarebbe la sorte (o per meglio dire, quale sarà la sorte) dei contratti future autonomamente attivati dall’algoritmo (alla presenza di specifiche condizioni), e pertanto quali tutele per il “legittimo affidamento” della controparte? Si potranno tali accordi considerare alla stregua di contratti legalmente validi ed efficaci? E se si volesse inquadrare tale fattispecie all’interno della disciplina tradizionale della rappresentanza, quali le conseguenze? Con riferimento all’ultimo dei quesiti, si deve far notare che l’algoritmo machinelearning/data miningspesso esprime una capacità “cognitiva” difficilmente assimilabile a quella del mero nuncius: così accade con gli algoritmi improntati secondo lo schema informatico c.d. condizionale semplice (IFTTT/If This Than That), e dunque a fortiori con i sistemi di apprendimento automatico. Malgrado ciò, perché all’opposto l’AAA possa essere trattato alla stregua di un rappresentante, prima ancora di discutere di una sua capacità di agire, occorrerebbe risolvere la pregiudiziale di soggettività.

Ebbene, combinando il tema della responsabilità aquiliana con quello della dimensione contrattuale, tra quanti considerano la questione di un regime ad hoc per gli AAAs come un qualcosa d’improcrastinabile, sono state avanzate proposte dal carattere assolutamente innovativo, che hanno ulteriormente ravvivato quel movimento che si può definire di New IT-Tech Law.[20] In questo senso, da una parte, si sta cercando di cogliere interamente l’essenza ontologica degli agenti artificiali-QRI, dall’altra di ragionare attorno alla possibilità che tale autonomia possa tradursi in qualcosa che assomigli a un centro d’imputazione giuridica. In altre parole, si tratterebbe di attribuire agli AAAs – per via legislativa (civil law) e/o giurisprudenziale (common law) – una qualche forma di soggettività giuridica (talvolta denominata soggettività elettronica).[21] Una soggettività che potrebbe emulare quella di un diverso agente giuridico, forse altrettanto artificiale rispetto a quello elettronico: ovverosia, le società di capitali.[22] A tal riguardo, tra le diverse mozioni, una proposta in particolare sembra in letteratura maggiormente condivisa:[23] si tratterebbe di riconoscere agli AAAs una soggettività giuridica, cui accompagnare piena autonomia patrimoniale da poter impiegare (soprattutto) nel caso di domande risarcitorie, siano esse per responsabilità contrattuale o extracontrattuale. Il patrimonio si potrebbe rimpinguare con quote minime progressivamente prelevate dagli stessi ricavi commerciali cui l’AAA a vario titolo contribuisce (ad es., una percentuale sulla fee per il diritto di utilizzo della driverless car). L’amministrazione sarebbe invece affidata a quegli umani che condividono con l’agente elettronico il medesimo ambito operazionale (ad es., soggetti nominati dalla società finanziaria mandante, oppure individuati dalla dirigenza comunale fornitrice del servizio pubblico di driverlesscar sharing).[24]

Ebbene, se fino a poco tempo addietro tali proposte potevano apparire come stravaganti, e forse più vicine a un racconto asimoviano che a una riforma giuridica, dopo la recenteRisoluzione del Parlamento Europeo del 2017,[25] che – ricollegando il tutto al tema delle responsabilità extra-contrattuale – suggerisce l’introduzione di una sorta di personalità giuridica elettronica per taluni robot (cfr. punto 59, lett. f), lo scenario potrebbe gradualmente cambiare.

Parafrasando Lawrence Lessig[26], si può quindi concludere facendo presente che ogni nuova architettura tecnologica comporta delle mutazioni nell’ordinamento sociale, esprimendo talvolta una forza normativa quantomeno pari a quella delle disposizioni giuridiche obiettive. Pertanto, – a meno di non voler assecondare il vuoto giuridico al momento presente, con indubbie ricadute sulla possibilità di accompagnare lo sviluppo (economico, ma non solo) della QRI -, la strada dell’approccio wait-and-see non pare più seriamente sostenibile. Recuperando la funzione creativa del giurista (specialmente dottrinale), bisognerebbe invece riflettere in termini sia sistematici sia riformisti: il che sta a significare procedere laddove possibile a un adattamento di istituti e categorie già esistenti, e in difetto abbandonarli a favore di soluzioni innovative. Detto altrimenti: quanto più smart sono – e in futuro saranno – le nuove realtà (soggetti e relazioni) tecnologiche, tanto più dovranno esserlo il diritto e i suoi formanti.


Bibliografia

[1]Schwab K., The Fourth Industrial Revolution, World Economic Forum, 2016, 11-12.;

[2]Elvy S. A., Hybrid Transactions and the INTERNET of Things: Goods, Services, or Software, 2017, Washington and Lee Law Review74, 91 e ss.;

[3]Jennings N. R., Wooldridge M. J., Applications of Intelligent Agents, in Jennings N. R., Wooldridge M. J. (a cura di), Agent Technology: Foundations, Applications, and Markets, Springer, 1998, 4 e ss.;

[4]Beer J. M., Fisk A. D., Rogers, W. A., Toward a framework for levels of robot autonomy in human-robot interaction, 2014, in Journal of Human-Robot Interaction3, 74 e ss.;

[5]Franklin S., Graesser A., Is it an Agent, or just a Program?: A Taxonomy for Autonomous Agents, in Müller J. P. et al. (a cura di),Intelligent Agents III Agent Theories,Architectures, and Languages, Springer, 1996, Springer, 21-35;

[6]Bedau M. A., Artificial life, in Frankish K. and Ramsey W. M. (a cura di), The Cambridge Handbook of Artificial Intelligence, Cambridge University Press, 2014, 296 e ss.;

[7]Chopra S., White L. F., A Legal Theory for Autonomous Artificial Agents, University of Michigan Press, 2011, 9 e ss.;

[8]Weaver J. F., Robots are people too: how Siri, Google car and artificial intelligence will force us to change our laws, Praeger, 2014, 12 e ss.;

[9]Woodard, J. E., Oops, My GPS Made Me Do It: GPS Manufacturer Liability under a Strict Products Liability Paradigm When GPS Fails to Give Accurate Directions to GPS End-Users, 2008, in University of Dayton Law Review34, 429 e ss.;

[10]Sunghyo K., Crashed Software: Assessing Product Liability for Software Defects in Automated Vehicles, 2018, in Duke Law & Technology Review 16, 300 e ss.;

[11]Ponzanelli G., Responsabilità per danno da computer: alcune considerazioni comparative, 1991, in Responsabilità civile e previdenza, 653 e ss.; Zaccaria A., La responsabilità del «produttore» di software, 1993, in Contratto e impresa, 303 e ss.;

[12]Doctorow C., Why It Is Not Possible to Regulate Robots, 2 Apr. 2014, in TheGuardian.com;

[13]Balkin J. M., The Path of Robotics Law, 2015, in California Law Review 6, 45 e ss;

[14]Calo R., Robotics and the Lessons of Cyberlaw, 2015, in California Law Review, 513 e ss.;

[15]Easterbrook F. H., Cyberspace and the Law of the Horse, 1996, in University of Chicago Legal Forum, 207 e ss;

[16]Sommer J. H., Against cyberlaw, 2000, in Berkeley Technology Law Journal 15, 1145 e ss;

[17]Davola A., Pardolesi, R., In viaggio col robot: verso nuovi orizzonti della r.c. auto (“driverless”), 2017, in Danno e responsabilità fasc.5, 616 e ss;

[18]U.S. National Highway Traffic Safety Administration (NHTSA), Automation Levels, 2016;

[19]Pagallo U., The Laws of Robots: Crimes, Contracts, and Torts, Springer, 2013, 79-102;

[20]Hilgendorf E., Uwe Seidel U. (a cura di), Robotics, autonomics, and the law: legal issues arising from the AUTONOMICS for Industry 4.0 technology programme of the German Federal Ministry for Economic Affairs and Energy, Nomos, 2017;

[21]Alesso D., Robot e A.I.: questioni di soggettività giuridica, 4 Lug. 2018, in CyberLaws.it

[22]Dewey J., The Historic Background of Corporate Legal Personality, 1926, in Yale Law Journal 35, 655 e ss;

[23]Bayern S., The Implications of Modern Business–Entity Law for the Regulation of Autonomous Systems, 2016, in European Journal of Risk Regulation7, 297 e ss.;

[24]Teubner G., Rights of non‐humans? Electronic agents and animals as new actors in politics and law, 2006, Journal of Law and Society 33, 497 e ss;

[25]Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL));

[26]Lessig L., The law of the horse: What cyberlaw might teach, 1999, in Harvard law review 113, 501 e ss.


Autore


it_IT