Intelligenza artificiale ed entropia legislativa

Profili, diagnosi e rimedi giuridici del mondo dei robot

di Pier Francesco Zari

Abstract:

L’articolo si propone di analizzare la situazione corrispondente all’implementazione di sistemi di intelligenza artificiale nei diversi strati sociali e tecnologici odierni, con una particolare attenzione ai risvolti giuridici di tale fenomeno. Analizzando il problema della soggettività giuridica da attribuire a tali sistemi, ipotesi ventilata da alcuni autori, si sfocerà dunque non solo nella diagnosi della scelta legislativa di non conferirla, ma anche nelle conseguenze che l’opzione così considerata avrebbe nel campo della responsabilità civile, tradizionalmente il campo di battaglia e filtro risolutore dei problemi legati ad un’attività di nomopoiesi costantemente in ritardo rispetto al substrato tecnologico di riferimento.

Nuove sfide dell’oggi e prospettive del domani

Secondo un autorevole studio del McKinsey Global Institute del maggio 2013[1], vi è un numero di tecnologie che hanno il potenziale per avere un impatto sul lavoro e sulla vita umani, nonché le attività industriali e più in generale l’economia, entro un orizzonte temporale che raggiunge il 2025. Chiaramente lo studio si fa carico di un margine di errore molto ampio, che è conseguenza del dinamico sviluppo della tecnologia, ma costituisce un buon punto di partenza per una valutazione dell’estensione richiesta alla legislazione sulla responsabilità civile entro il 2025 e per l’individuazione dei tipi di cambiamento necessari. La domanda principale che viene posta infatti è se il sistema di responsabilità civile, qualora risulti adatto e sufficiente a garantire un livello di protezione adeguato dai rischi che le nuove tecnologie faranno gravare sui corpi sociali, non decelererà il processo innovativo. Si individua subito difatti il problema principale nel necessario equilibrio che vi deve essere tra innovazione tecnologica, ormai inarrestabile, e tutela sociale, che, proprio per il prefato carattere di irreversibilità, rischia di essere compromessa se priva di efficaci strumenti giuridici di difesa. Lo studio del McKinsey Institute specifica dunque dodici tipi di tecnologie che avranno il più grande impatto sull’economia, individuate come di comune e generalizzata applicazione, non essendo limitate a settori specifici ma applicate altresì all’intero spettro del settore economico[2]. Si individuano dunque tecnologie trasversali e portanti per tutti i settori dell’economia odierna, enucleando le strutture tecnologiche portanti di interi assetti economici: tra queste ve ne sono molte che sono collegate dall’intelligenza artificiale. I robot, più esteriore manifestazione del fenomeno, costituiscono oggi non soltanto un elemento realistico nella vita di professionisti, come testimoniato dall’utilizzo che se ne è fatto nelle più diverse discipline ed attività, dall’esplorazione della superficie di Marte alla riparazione di estrattori di petrolio nelle profondità oceaniche, dalle operazioni chirurgiche negli ospedali agli impieghi militari (dragamine, droni et cetera), per nominarne soltanto alcuni, ma anche nella vita di tutti i giorni[3]. I robot difatti stanno diventando sempre più frequenti da vedere in contesti quotidiani, nelle vite dei consumatori non professionisti: essi sono presenti in attività domestiche, come la pulizia casalinga, la cucina, i videogiochi, ma anche nei sistemi di trasporto, come possono essere le metropolitane prive di guidatore. Le stesse automobili stanno subendo la stessa trasformazione tecnologica, sviluppandosi nella direzione di una automazione sempre più marcata che taglia fuori la necessità della presenza di un guidatore: la Google car può essere un esempio chiaro e limpido di tale fenomeno[4]. Bisogna rendersi dunque conto che i robot stanno diventando sempre più importanti nella vita quotidiana, sociale e professionale di ogni individuo, comportando un cambiamento sensibile nel sistema tecnologico esistente. L’intelligenza artificiale, in ogni sua manifestazione e declinazione possibile, dalle mail alle macchine senza guidatore, sta infatti cambiando il paradigma sociale di riferimento per gran parte dei normali canoni di vita esistenti. Come sottolinea anche lo studio del McKinsey Institute, tale avanzamento di tecnologie si fonde con una crescita continua dal punto di vista economico e sociale, comportando una irreversibilità di tale fenomeno. Tale sviluppo è continuo e inarrestabile in tutti i campi dello scibile umano, comportando un continuo avanzamento tecnologico ed un allungamento della lista delle disruptive technologies. I rapidi cambiamenti nella micro-elettronica, nella programmazione, nelle telecomunicazioni stanno infatti creando un’economia basata su dati e informazioni: le espressioni che richiamano questo cambiamento (Information Age, Information Society[5], The Communication Revolution, The Information Highway[6]) sono indicative del passaggio di ere che si sta vivendo nel contesto globale attuale[7]. Ecco che in un tale ecosistema di riferimento, il legislatore si deve preparare per la tecnologia del futuro: per comportarsi di conseguenza c’è bisogno di avere una chiara comprensione di come la tecnologia potrebbe plasmare l’economia e la società globali nei decenni a venire. Si dovrà decidere infatti come investire in nuove forme di istruzione e in infrastrutture, nonché capire come tali nuove tecnologie impatteranno sul mondo odierno, con l’ottica di creare una società nella quale i cittadini possano continuare a vivere in armonia e tranquillità, pur con la prospettiva di vedere le proprie vite profondamente modificate in ogni loro aspetto.

Diritto e capacità reattiva del sistema giuridico alle innovazioni.

L’apparizione di nuove tecnologie mette alla prova non soltanto l’impalcatura economico-produttiva di un sistema, ma anche il suo tessuto giuridico preesistente. Se nelle epoche precedenti l’introduzione di una nuova tecnologia aveva tempi di implementazione e di concreta effettività piuttosto lunghi[8], accompagnata da un’iniziale aura di diffidenza da parte del contesto sociale di appartenenza, negli ultimi due secoli si è visto che non solo i tempi si sono ridotti drasticamente, ma si può parlare anche di un fenomeno di frenesia tecnologica[9], intendendo descrivere con tale espressione una ben precisa forma mentis volta a valorizzare le idee innovative, rendendole il meno possibile casuali (come invece nelle epoche precedenti il più delle volte accadeva[10]), e invogliando una loro continua fabbricazione in serie, con la finalità precipua di raggiungere il massimo livello di avanzamento tecnologico. Il contesto odierno, di esasperata competizione tecnologica, con stringenti regolazioni dal punto di vista di brevetti e proprietà intellettuale, può essere addotto come elemento di conferma di uno spiccato favore per la tutela dell’innovazione, non vista più come elemento accessorio della crescita, ma come nucleo stesso del rilancio economico di un sistema[11]. La centralità dell’innovazione nel sistema economico mondiale è la prova del fatto che si cerca di anticipare volontariamente i tempi, con la finalità di accelerare il processo di sviluppo. È proprio il minor tempo a disposizione per la recezione che costituisce un pericolo per il legislatore, e soprattutto per il legislatore democratico, il cui processo nomopoietico richiede tempi medi abbastanza lunghi in termini relativi rispetto ad altre forme di stato[12]. L’accelerazione del processo legislativo in paesi democratici può portare difatti a conseguenze disastrose a livello sociale, potendo avere tre differenti esiti: A) recezione con successo del prodotto legislativo, che attraversa i vari stadi procedurali endo- ed extra-parlamentari, caso più favorevole in quanto le frizioni fisiologiche di uno stato democratico, frutto del suo intrinseco pluralismo, hanno fornito un prodotto finale amalgamando le componenti più disparate in modo efficace; B) recezione del prodotto in un contesto ormai progredito ulteriormente, rendendo dunque il disposto normativo obsoleto alle finalità per cui era stato prodotto; C) rigetto del prodotto, realizzando dunque quella che i giuristi medioevali chiamavano lex non recepta, ossia un corpo legislativo morto sul nascere, non rappresentativo di istanze sociali, emblematico di uno scollamento tra intenzioni del legislatore ed esigenze del tessuto sociale[13]. Il più delle volte, quando i tempi per legiferare si accorciano e il legislatore deve far fronte a cambiamenti sempre più rapidi, ciò che succede è descritto sub C), determinando effetti devastanti sia dal lato economico che da quello più specificamente giuridico. Questo fenomeno si amplifica maggiormente quanto più il legislatore si pone al vertice dell’ordinamento, ad una quota molto distante dalle istanze di riferimento[14]: si può ben capire dunque che, essendo presenti già problemi notevoli in tal senso a livello nazionale, a livello sovranazionale il fenomeno si intensifichi esponenzialmente, dal momento che il processo legislativo, con i suoi limiti e strumenti, è sempre più lontano fisicamente dai loci solutionum delle necessità del substrato sociale. Si dovrà dunque tenere in considerazione il principio di sussidiarietà in ogni sua forma, verticale e orizzontale, spostando la ripartizione gerarchica delle competenze verso gli enti più prossimi al cittadino, che deve al tempo stesso avere la possibilità di cooperare con le istituzioni nel definire gli interventi che incidano sulle realtà sociali a lui più prossime[15]. L’eventuale modifica di una disposizione normativa erronea o inappropriata è conseguentemente più difficile e gravosa che a livello nazionale, per tutta una serie di motivi (si pensi alla lentezza dei procedimenti parlamentari, alla continua interferenza delle lobbies interessate al settore da regolare, a tutti gli stakeholders della normativa, solo per citare alcuni esempi). Il contrasto con un tessuto sociale di riferimento sempre più dinamico può essere avvertito osservando un altro fenomeno, sempre più visibile, come la cosiddetta democratizzazione della tecnologia, che si manifesta nel fatto che un largo numero di piccoli imprenditori riesca sempre più ad offrire nuovi dispositivi e applicazioni grazie alla loro maggiore flessibilità e capacità di innovazione, riuscendo ad intaccare il dominio di offerta delle grandi aziende e a giocare un ruolo continuamente più importante a livello di mercato[16].

La prima considerazione che affiora dunque è quella relativa alla sicurezza dei prodotti, con l’apice dei nanomateriali, che non sono ancora stati del tutto decrittati da tale punto di vista e potrebbero essere tossici o dannosi per l’ambiente[17]; allo stesso modo, interventi medici basati sulla genomica, organi riprodotti da cellule staminali, dispositivi con I.A. immessi nella vita di tutti i giorni dovrebbero altresì essere oggetto di un’attenta valutazione. Garantire la sicurezza dei prodotti infatti è un problema che riguarda in prima istanza il diritto pubblico, ma il risarcimento dei danni che scaturiscono da prodotti non conformi a standards di sicurezza fissati è invece una questione che investe in pieno il diritto privato ed i meccanismi di responsabilità civile. I nuovi strumenti e dispositivi che l’odierna tecnologia offre difatti non mettono a repentaglio solo fisicamente la persona umana, ma rischiano di ledere anche diritti fondamentali ed inviolabili, che costituiscono la sfera intangibile di protezione del singolo soggetto giuridico[18].

Una seconda considerazione a proposito riguarda l’incertezza pressochè diffusa a proposito della causalità, sia materiale che giuridica, del danno da prodotti difettosi. Con il continuo aumentare di soggetti giuridici che partecipano alla produzione ed alla resa di servizi, al cui incrementare corrisponde una decrescita altrettanto veloce del contributo materialmente umano alla realizzazione del prodotto o del servizio, le possibilità di provare con certezza la causa di un danno e di individuare con sicurezza il soggetto il cui comportamento ha causato tale danno continua a diminuire[19]. Questo fenomeno è sintomo di un’incapacità da parte del danneggiato di identificare quale dei prefati soggetti che possano aver causato il danno lo abbia realmente causato, amplificato dal fatto che gli stessi dispositivi in questione sono in grado di modificare i propri algoritmi di partenza mano a mano che acquisiscono nuovi dati dall’ambiente di riferimento[20]. Il problema che sorge automaticamente è che il peso della colpevolezza tra gli specifici corresponsabili diventa difficile da distribuire precisamente, comportando un’allocazione inefficiente della responsabilità in sede post-giudiziale. Questa incertezza può inoltre comparire anche a proposito della causalità materiale del danno stesso. L’implementazione di dispositivi sempre più sofisticati difatti comporta una sempre maggiore difficoltà nel discernere i fatti che hanno realmente causato il danno da quelli invece completamente estranei al nesso causale: le catene di eventi cui è riconducibile una connessione causale con il fatto dannoso dunque incrementano e si allungano, comportando anche una maggiore expertise tecnica nell’analizzare la stessa serie causale. Il criterio della regolarità causale verrebbe dunque ad essere dilaniato da molteplici filoni di avvenimenti, che finirebbero per far ricadere la concezione del nesso causale nel regressus ad infinitum tipico delle situazioni di incertezza. Il corollario del secondo aspetto è dunque l’espansione del raggio causale dell’impatto dei singoli eventi. Un singolo errore, difatti, anche tangendo il minore dei componenti di funzionamento di un prodotto, potrebbe causare un danno enormemente sproporzionato a chi ha partecipato allo scambio in buona fede, o anche a parti terze. Si tratta di un corollario che va ben tenuto a mente quando si parla di causalità giuridica, giacchè anche il produttore di componenti all’apparenza insignificanti ed accessorie, qualora si provi il nesso causale, può essere tenuto al risarcimento per intero di un danno enorme (si pensi al danno ambientale causato dall’esplosione di un reattore nucleare per un malfunzionamento del software di controllo, a mero titolo di esempio).

Si deve inoltre tenere in considerazione che il legislatore deve attenersi ad un principio fondamentale nel campo delle tecnologie odierne, come il principio di neutralità tecnologica[21]. Tale concetto si fonda principalmente su quattro assunzioni: 1) non-discriminazione, intesa come fattore che deve impedire che la regolazione legislativa favorisca una tecnologia a discapito di un’altra, a tutto danno della competizione di mercato; 2) sostenibilità, nel senso che la regolazione si deve porre come obiettivo quello di essere flessibile ed aperta ai cambiamenti tecnologici che mano a mano possono presentarsi, con il fine precipuo di non risultare anacronistica ed obsoleta; 3) efficienza, ossia la capacità del legislatore di essere attento anche alle esigenze di mercato, sempre dinamiche e in continuo cambiamento; 4) certezza del consumatore, intesa come sicurezza di protezione sociale e tutela dei propri diritti indipendentemente dalla tecnologia di riferimento tramite un «servizio universale», che ricopra il ruolo di garanzia di eventuali patologie del mercato stesso[22]. Tali fondamenti devono dunque risultare alla base di ogni regolazione statale, che deve dunque comportare che lo Stato rimanga neutrale verso i tipi di tecnologia inseriti sul mercato. Quando si andrà a parlare di vigente regolazione dunque, si dovrà tenere ben in conto tale principio, in modo tale da valutare l’efficienza totale delle misure approntate dal legislatore.

Inquadramento giuridico del problema dell’I.A.

Il problema definitorio si concentra in particolar modo sul concetto stesso di intelligenza artificiale. Stando a quanto viene detto dal luminare e pioniere in questo settore, John McCharty[23], il concetto di I.A. risiede nella scienza e nell’ingegneria di creare macchine intelligenti, in special modo programmi da computer intelligenti[24]. Il punto interessante è però il fatto che l’I.A. non deve tenere in nessun conto i limiti cognitivi che invece caratterizzano, biologicamente parlando, l’intelletto umano[25], utilizzando i meccanismi intellettivi propri di un essere umano, pur non avendo alcun elemento innato in sè. Tale definizione è evidentemente insufficiente nell’obiettivo di dare una risposta al quesito riguardo all’ontologia del fenomeno preso in considerazione: è per tale motivo che McCharty prende in considerazione il concetto di intelligenza, rendendolo scevro da ogni considerazione sulla sua artificialità o meno. Difatti l’intelligenza è la parte computazionale della capacità di raggiungere degli obiettivi nell’ecosistema-mondo la quale è presente in vari gradi nelle persone, in molti animali e alcune macchine[26]. Tale definizione risente di una visione antropocentrica di tale concetto, giacchè si considera non ancora possibile scollegarsi dalla visione umana dell’intelligenza, anche perché le scienze cognitive conoscono solo parte dei meccanismi che la governano, mentre altri sono completamente ignoti[27]. Va dunque detto che non è possibile ridurre la domanda riguardante l’intelligenza ad una semplice qualificazione chiusa sull’intelligenza o meno dell’entità presa in considerazione, anche perchè allo stesso tempo non è sempre detto che l’intelligenza artificiale simuli sempre l’intelligenza umana[28]. Il quadro si complica se si riscontra come le scienze cognitive non abbiano ancora determinato quali siano e in cosa esattamente consistano le capacità intellettive umane[29]. Secondo Russell e Norvig, l’I.A. è categorizzabile attraverso quattro elementi: il pensare umanamente, l’agire umanamente, il pensare razionalmente e l’agire razionalmente, potendo suddividere il campo di esistenza degli automi in processi di pensiero e di ragionamento contrapposti alla logica di comportamento[30]. Dopo un lungo excursus storico[31] ed un’analisi dettagliata di ogni campo che ha portato alla teorizzazione dell’intelligenza artificiale[32], viene definito ciò che viene inteso come agente, che coincide con qualsiasi cosa che può percepire l’ambiente circostante attraverso dei sensori e può agire su di esso mediante degli attuatori[33]. Mentre un essere umano ha occhi, orecchie e altri organi che performano come recettori, nonché braccia e gambe come attuatori, un agente robotico avrà al loro posto telecamere e raggi infrarossi come sensori e vari altri elementi, motori o meno, come attuatori[34]. Cripticamente poi si ricollega la razionalità di un agente al compimento della «cosa giusta» («right thing»): gli autori[35] sanno bene che a questa domanda si può rispondere in molti modi, tutti diversi tra loro, ma adottano un approccio consequenzialistico, che consente loro di guardare alla giustizia di un’azione dalle conseguenze del comportamento dell’agente. Quando un agente difatti è posto in un ambiente, genera una sequenza di azioni in accordo agli input che riceve; tale sequenza di azioni causa una serie di conseguenze nell’ambiente, che, se sono desiderabili, fanno sì che l’agente abbia performato in modo «giusto». È dunque l’ambiente circostante a subire le conseguenze giuste o sbagliate delle azioni dell’agente, che appunto non può essere la base per la valutazione delle sue stesse azioni, per il banale motivo che, qualsiasi azione abbia compiuto, esso le valuterà tendenzialmente sempre in modo tale da renderle giuste[36]. Si tratta di un modo oggettivo di valutazione della condotta di un agente, giacchè è proprio esso che deve conformarsi all’ambiente, e non viceversa, cosa che impone la valutazione della sua razionalità di fondo. In accordo con la teoria della complessità algoritmica[37], bisogna distinguere l’onniscienza, che corrisponde alla coscienza del risultato delle proprie azioni da parte dell’agente e dunque la prevedibilità delle azioni stesse e delle loro conseguenze, dalla razionalità, che invece è appunto il fare la cosa giusta: l’onniscienza è di fatto impossibile[38]. La razionalità massimizza l’aspettativa di performance, mentre la perfezione la performance stessa, cosa che non è affatto umana, richiedendo doti divine e metafisiche, come quelle di prevedere il risultato delle azioni stesse[39]. La nozione di razionalità implica inoltre quella di autonomia, cioè della possibilità per l’agente di agire senza condizionamenti esterni e di poter commettere errori di valutazione, cosa che era un tempo[40] molto limitata nei meccanismi di I.A., poiché erano per la gran parte orientati verso il completo asservimento all’altrui volontà, vivendo dunque un’esistenza semi-autonoma proprio perchè etero-indotta, ma che ad oggi sembra superata proprio grazie all’elemento originale del machine learning[41]. Inoltre la struttura dell’agente è composita nel caso di questi automi, poichè si tratterebbe di una fusione perfetta tra un elemento etereo, ossia il programma di gestione, e l’elemento invece corporeo, la c.d. architettura, componenti entrambi coordinati per il fine che costituisce l’elemento vitale della macchina[42]. Al fine di individuare le principali caratteristiche che possono essere individuate dall’analisi dei dispositivi con annessa intelligenza artificiale, si possono altresì prendere in considerazione tre elementi: l’interattività, l’autonomia e l’adattabilità[43]. I robot sono infatti interattivi in quanto percepiscono l’ambiente e rispondono a stimoli cambiando i valori delle loro stesse peculiarità; sono autonomi, in quanto modificano le loro peculiarità ed il loro stato interno senza stimoli esterni, esercitando il controllo sulle loro azioni senza intervento umano; sono infine adattabili, poichè possono migliorare la loro funzionalità mediante il cambiamento delle regole che governano le loro caratteristiche intrinseche[44]. A questi tre elementi se ne deve aggiungere un altro: l’imprevedibilità, dovuta ai recenti sviluppi in tema proprio di machine learning[45]. Esso consiste infatti in una serie di algoritmi che risultano funzionali nell’ottica di capacità predittiva degli automi, in controtendenza con tutte le serie algoritmiche precedenti, che dovevano necessariamente contenere modelli predefiniti ex ante per poter raggiungere lo stesso risultato[46]. Mentre infatti un algoritmo ordinario lavora su una predefinita serie di dati e compie il proprio lavoro di analisi e successiva azione su modelli standardizzati ex ante dal programmatore, comunque riferendosi ad un insieme definito di dati, un algoritmo generato tramite la tecnologia di machine learning è capace di lavorare su una serie di dati in continua evoluzione, in costanza con l’analisi degli input compiuta dal dispositivo stesso. Si tratta dunque di un meccanismo che consente di programmare il dispositivo in modo tale che esso si adatti continuamente ai nuovi input che gli provengono dall’ambiente circostante, ma al tempo stesso di adeguare la propria azione in base ai nuovi dati mano a mano acquisiti, cambiando il proprio modus agendi proprio in relazione ad una sempre nuova analisi[47]. In tal modo si capisce bene che, se prima si aveva un serie definita di dati su cui un algoritmo poteva lavorare, corrispondendo ad ogni variabile in input una o più in output, ma comunque sempre in un’ottica di prevedibilità e finitezza, con la tecnologia machine learning si ha invece un campo sterminato di nuovi dati acquisiti ed analizzabili, cui la macchina si conforma cambiando la propria azione di conseguenza, nonchè un’eliminazione di ogni relazione causale tra originari input e output finali. Di conseguenza nessuna pretesa può essere avanzata in relazione al fatto che il processo di machine learning non presenti alcun insieme di relazioni statistiche con il mondo circostante, poiché proprio nessuna delle inferenze causali che tipicamente caratterizzano il modello statistico può essere applicata ai risultati del processo stesso[48]. L’imprevedibilità dell’azione del dispositivo I.A. dunque si configura come elemento imprescindibile per un’analisi completa dell’intelligenza artificiale nel suo complesso[49].

Si ricordi che la ricerca in questo campo è relativamente recente: fu solo dopo la Seconda guerra mondiale che gruppi di studiosi dei più vari campi si misero indipendentemente al lavoro su macchine intelligenti[50]. Il matematico inglese Alan Turing, difatti, è accreditato come il primo ad aver contribuito in questo settore[51], creando il c.d. Turing test, che consiste nel provare che una macchina sia equiparabile al livello intellettivo di un essere pensante e cosciente se riesce ad ingannare l’interlocutore umano sulla sua natura in base alla valutazione che poi egli è chiamato a dare delle sue domande[52]. Tale test è evidentemente unilaterale, nel senso che prova l’intelligenza equiparabile di una macchina che lo abbia superato, ma non riesce invece a dare in senso assoluto la valutazione precisa del grado di intelligenza di una macchina[53]. Si tenga inoltre conto che lo scopo della ricerca in questo campo è divenuto quello di raggiungere i livelli di intelligenza umani, anche se al presente stato di cose sembra impossibile progettare ex novo una mente con dei semplici strumenti di programmazione[54]. Si deve tenere inoltre in considerazione che i dispositivi e la ricerca I.A. sono votati ad uno scopo che non è condiviso da tutti gli studiosi del settore, ma nemmeno da appartenenti ad altre discipline, come filosofi, biologi ecc.[55]. Ci sono comunque cose che infatti l’I.A. non può fare, in corrispondenza del fatto che non esistono algoritmi per tutte le sfaccettature dell’intelligenza umana, anche per il fatto che il loro numero è tendente all’infinito, come evidenzia anche la sopra citata teoria della complessità algoritmica[56]. Tale teoria venne sviluppata da Solomonoff, Kolmogorov and Chaitin (ciascuno in modo indipendente dall’altro), che riuscirono a dimostrare quanto incredibilmente più impegnativo diventi programmare in funzione di compiti sempre più complessi[57]. A questa complessità si aggiunge inoltre il processo di machine learning, come già detto, cui però bisogna far riferimento in combinato con quello di Deep Learning: tale processo difatti, intrinsecamente legato con il machine learning, costituisce la sua principale modalità applicativa[58]. L’apprendimento profondo infatti è definibile come una classe di algoritmi di approfondimento automatico che utilizzano vari livelli di unità non lineari, strutturati gerarchicamente, col fine di svolgere compiti di estrazione di caratteristiche e di trasformazione: ciascun livello si basa strutturalmente sul precedente, considerandolo come input[59]. Questa modalità di apprendimento consente un alto livello di astrazione concettuale, strutturata su più gradi di classificazione, che corrispondono poi a multipli gradi di rappresentazione. In conclusione, tramite il Deep Learning è possibile non soltanto acquisire nuovi dati dall’ambiente circostante, ma di elaborarli e di analizzarli in modo tale da estrarre induttivamente una legge generale di comportamento[60]. È tramite questa modalità di rappresentazione che i dati acquisiti tramite la programmazione originaria possono essere incamerati, elaborati, analizzati e trasformati in output riconducibili ad un’astrazione che può non coincidere più con quella offerta dall’algoritmo di partenza.

È chiaro che l’intelligenza artificiale a tal punto non può essere definita con precisione e certezza, non solo per i motivi che elencava McCharty assieme ai molti neurologi e psicologi che si sono impegnati in tale impresa, ma anche perché essa non ha una sua concretezza spaziale definita. Essendo composta da algoritmi, che risultano essere nient’altro che parole e numeri, come possono essere trovati in un qualsiasi romanzo o manuale di matematica, essa infine risulta essere intrinsecamente l’anima di dispositivi tangibili non solo automatizzati, ma anche in grado di imparare[61] dalle proprie azioni e dall’effetto che esse hanno sull’ambiente di riferimento, ricalcando i passaggi tipici di un processo di trial-and-error[62]. Si tratta dunque di una componente declinabile in più contesti concreti, la cui intrinseca natura è data da una immaterialità di fondo, capace però di incidere su ecosistemi ben definiti in base alla sua implementazione[63]. Data dunque l’idea, più che la precisa nozione, di cosa è un’intelligenza artificiale ontologicamente, si pone il problema giuridico per eccellenza, ossia una qualificazione definitoria che possa costituire la base per una regolazione mirata di tale settore tecnologico.

Soggettività o non soggettività: questo è il problema…

L’individuazione e l’inquadramento dal punto di vista fenomenologico e ontologico dell’intelligenza artificiale certamente porta ad una consapevolezza maggiore dell’oggetto della presente discussione, ma non apporta alcun contributo dal punto di vista giuridico. Si manifesta dunque la necessità di inserire gli automi e i dispositivi più generalmente muniti di I.A. nella zona di discussione più prettamente giuridica, in modo tale da poterne poi analizzare i contorni definitori.

Bisogna dunque innanzitutto approcciarsi al primo status giuridico degno di nota, la soggettività giuridica, per guardare non solo eventualmente a punti di contatto tra la sua vigente definizione e le caratteristiche intrinseche dell’intelligenza artificiale, ma anche alle varie conseguenze che un suo eventuale riconoscimento potrebbe portare in termini di imputabilità. La nozione di soggetto giuridico non viene tuttavia definita dall’ordinamento, venendo affidata alla elaborazione della dottrina proprio perché il legislatore la ricomprende nei principi basilari dell’ordinamento stesso[64]. Classica è però la definizione di soggetto come centro unitario di imputazione di diritti ed obblighi, o più generalmente di situazioni giuridiche soggettive[65], essendo appunto il soggetto titolare di posizioni giuridiche[66]. Le posizioni giuridiche sono in generale le posizioni garantite o sanzionate dalla norma giuridica; in quanto la norma è regola sociale, così le posizioni giuridiche, che trovano in essa la loro garanzia e la loro sanzione, sono posizioni di chi è partecipe di relazioni sociali[67]. Soggetto giuridico perciò può essere la persona umana, in funzione della quale l’ordinamento è costituito, ma anche altri enti giuridici sono qualificabili come soggetti in quanto partecipi di una rete sociale garantita dalle norme dell’ordinamento[68]. La nozione di soggetto perciò non coincide con quella di persona umana nè allo stesso tempo presuppone una particolare natura del soggetto, indicando la titolarità semplicemente «la giuridica imputazione di una posizione giuridica di un soggetto»[69]. Il titolare di una posizione giuridica è colui al quale la posizione è giuridicamente imputata, ossia colui al quale la posizione risulta giuridicamente attribuita, potendosi ben dire che è soggetto ogni centro di imputazioni giuridiche[70]. La nozione di soggetto giuridico dunque prescinde dalla natura del titolare al quale la posizione è imputata, essendo essa limitata al dato formale della titolarità delle posizioni giuridiche[71]. La domanda sulla possibilità per una entità di essere o meno soggetto giuridico deve perciò essere trasmutata nel senso di valutarne l’idoneità ad assumersi diritti ed obblighi, trascurando, o comunque riducendo in secondo piano, l’elemento della natura di tale entità[72]. In tale ottica, sebbene oggi la domanda sia completamente teoretica[73] e lo stato delle conoscenze delle scienze cognitive non sia completo[74], si possono valutare i vari elementi raccolti per la definizione dell’intelligenza artificiale in relazione alla definizione fornita ora di soggettività e valutarne la compatibilità. Si deve in primo luogo tener conto del fatto che un’I.A. non è minimamente in grado di esprimere giudizi ed esercitare discrezionalità nelle proprie azioni[75], cosa che sembrerebbe pregiudicare il riconoscimento di uno status come quello di soggetto giuridico in quanto pare minare le capacità cognitive dell’entità. Come illustra Giovanni Sartor[76], tuttavia, l’uomo è naturalmente tendente ad applicare alle entità artificiali, e specialmente alle I.A., quei modelli interpretativi che si applicano invece normalmente tra esseri umani, particolarmente spiegando il comportamento delle determinate entità mediante l’attribuire loro degli stati mentali propri dei meccanismi mentali umani appunto. Tale comportamento mette il legislatore, ed il giurista in generale, in difficoltà, giacchè non rimane loro che o eliminare qualunque nozione psicologica oppure duplicare la caratterizzazione dei fatti rilevanti, provvedendone invece una comportamentalista, da applicare appositamente alle entità artificiali[77]. Invece è possibile dare una interpretazione dei concetti mentali in maniera neutrale e flessibile, in modo tale da diventare applicabili anche a speciali categorie di entità artificiali, consentendo di preservare sia la spiritualità che l’unità della legge, anche in una società che vede sempre più caratterizzarsi per un processo di informazione automatizzato[78]. Sempre secondo tale ricostruzione, vi possono essere tre errori di fondo, che portano l’analisi giuridica ad essere fallimentare: in primis, il fatto di concepire che la legge debba forzatamente adottare la prospettiva comportamentalista, giacchè non è possibile percepire gli stati mentali, è un errore grossolano perchè esistono altri modi per regolare fenomeni che risultano essere invece ben fisici; in secundis, non si deve fraintendere che attribuire uno stato mentale ad un’entità artificiale significhi forzatamente imporre a tale entità uno status giuridico assimilabile a quello umano; in tertiis, non è necessario avere per presupposto una completa ed indiscutibile teoria della mente e della coscienza per addentrarsi in una corretta analisi giuridica della condizione mentale di un’entità mentale[79]. Per valutare davvero se un ente ha stati cognitivi (obiettivi, intenzioni, desideri ecc.) al proprio interno, bisogna invece considerare se vi siano condizioni di esistenza di stati epistemici (desideri) e stati cognitivi (obiettivi, intenzioni), e soprattutto se vi siano modalità per quella entità di funzionare attraverso quei processi mentali: il comportamento a quel punto diventerebbe rilevante per il possesso di stati interni di cognizione come indizio del suo interno funzionamento[80]. Ascrivere uno stato epistemico ad un computer, o comunque ad un dispositivo automatizzato, può essere il discrimen necessario per approntare una disciplina legale a tal proposito; il passo ulteriore sarebbe invece quello di riconoscere uno status intenzionale alla entità giuridica, in modo tale da confermarne le capacità di agire razionalmente. Ciò può tranquillamente conseguire dalla mera apparenza di razionalità e intenzionalità che tale entità può mostrare al mondo circostante, legittimando l’ordinamento a considerare le sue azioni come risposte a pulsioni come il desiderio, l’intenzione e le motivazioni[81]. La conclusione può dunque essere quella che nei sistemi caratterizzati da I.A. vi può essere il riconoscimento di tratti di intenzionalità poiché riescono ad agire con un orizzonte teleologicamente orientato, potendo essi performare anche in processi cognitivi ed essere perciò assimilati a soggetti giuridici generalmente intesi[82]. Bisogna infine sottolineare come una non completa conoscenza dei meandri più reconditi della mente umana, in realtà, sia corrisposta da una mancata chiarezza a proposito del concetto di soggetto giuridico, situazione che vede dunque uno stallo di fondo, risolto dai giudici con un mantenimento dello status quo[83]. Si tenga inoltre conto del fatto che, senza analizzare eventuali stati psichici e cognitivi mentali, i problemi relativi alla concessione della soggettività giuridica potrebbero essere risolti tramite due teorie risalenti, ma utili in questo senso: ci si riferisce qui alla teoria della finzione e a quella della realtà giuridica. La prima fu coniata in epoca immediatamente precedente all’entrata in vigore del Code Napolèon da uno dei più noti commentatori[84] del codice francese napoleonico e consisterebbe nell’adoperare una fictio iuris per quanto riguarda la concessione della soggettività ad enti sociali che propriamente non corrisponderebbero ai criteri umani: tale teoria sarebbe utile nel caso di automi non canonizzabili nè come uomini nè come beni mobili. La teoria della finzione però fu superata abbastanza agevolmente dalla teoria della realtà giuridica, che ebbe il suo massimo esponente nel Gierke[85], e che vedeva attribuire la soggettività a corpi sociali che potessero avere intrinseche somiglianze con un essere umano, parlando addirittura di «animo sociale» e «cervello sociale»: questa teorica risulterebbe utile per ratificare lo status giuridico degli automi, manifestando essi elementi di somiglianza con l’essere umano in modo ancora maggiore rispetto ai corpi sociali. In realtà poi entrambe le teorie sono state surclassate da quella della fattispecie dualistica[86], ma sono comunque esempi (chiaramente non esaustivi) utili a delineare possibilità e strategie giuridiche per concedere la soggettività a queste nuove entità a metà tra uomini e beni mobili/prodotti.

Si aprono dunque degli spiragli notevoli per il riconoscimento della soggettività giuridica, anche se finora il legislatore, principalmente per motivi scientifici e tecnici[87], non ha azzardato la creazione ex novo di una disciplina, ma si è limitato al riconoscimento di una istanza ormai manifesta da tempo[88] lasciando ai giudici la valutazione caso per caso e fornendo come unica risposta regolativa la disciplina relativa ai prodotti di consumo.

Chi paga? Un ventaglio di possibilità.

La natura della responsabilità dipende principalmente dal riconoscimento che l’ordinamento conferisce agli automi: è evidente che, qualora non si riconoscesse un dispositivo con I.A. come entità che abbia volontà e autonomia, la responsabilità in termini giuridici dovrebbe ricadere sui partecipanti alla catena d’uso del prodotto, mentre, qualora si riconosca completa autonomia alla macchina, si dovrà raggiungere un maggiore grado di responsabilità gravante sull’automa, al quale si riconoscerebbe imputabilità piena[89]. Il principale problema è porre un accentuato discrimen tra capacità di agire autonomamente o meno del dispositivo, stando attenti a valutare se dietro la macchina vi siano altri agenti che la guidano, e che quindi fornirebbero input eteronomi, nonché a stabilire dei validi criteri di imputazione giuridica dei danni, che in caso di dubbio andrebbero addossati, secondo Vladeck, sul creatore[90]. Autonomia poi non deve necessariamente significare volontà, né men che meno capacità di sentire o pensare[91]. Le domande che sorgono sono quindi principalmente due: in primis su come applicare la legge sulla responsabilità in base allo status giuridico che si riconosce all’automa; in secundis, qualora non si riesca a ricostruire il nesso di causalità materiale del danno, e solo qualora succeda questo, su quale regime di responsabilità applicare, in prospettiva di una efficiente allocazione dei danni subiti[92]. Si tenga in conto dunque che gli elementi principali degli apparecchi con I.A. sono riconducibili a tre criteri di valutazione: autonomia, prevedibilità e controllo[93]. L’autonomia deve essere presa in considerazione in quanto, come già detto in precedenza, è l’elemento principale dell’innovazione dell’intelligenza artificiale, dato che il progresso tecnologico mira a una sempre maggiore automatizzazione dei dispositivi[94]. La prevedibilità entra in gioco invece in quanto l’I.A. deve essere creativa e slegata dagli schemi così come un umano[95], cosa che è possibile non tanto per un’intrinseca somiglianza alla mente umana, ma piuttosto per la disumana velocità computazionale, che consente al dispositivo di prendere in considerazione un numero maggiore di ipotesi in un minore lasso temporale rispetto a quanto potrebbe fare un essere umano, cosa che causa problemi dal punto di vista della prevedibilità delle sue azioni[96]. Quello che prima si è detto a proposito del processo di machine learning qui poi risulta di nuovo utile, giacchè il dispositivo così programmato risulta assolutamente slegato dalle logiche causali che invece possono risultare dalla sua mera automatizzazione, elaborando esso innumerevoli quantità di dati e modificando i suoi stessi algoritmi di partenza in base alle successive analisi operate[97].  Infine è da tenere in conto il controllo dell’apparecchio, che è programmato appunto per essere autonomo: il controllo, una volta perso, infatti, diventa complesso da recuperare[98], ponendo problemi di compatibilità tra intenti e logiche tra I.A.  ed esseri umani in prospettiva di un contenimento del rischio pubblico[99].

Tutto si ricollega quindi al quesito su chi paga per le azioni ed omissioni di un automa che abbiano causato danni alla controparte o a terzi. La situazione però può essere esemplificata attraverso il paradosso di Zenone e la tartaruga, con la legge che si trova nella posizione di dover sempre recuperare tempo perduto nei confronti del progresso tecnologico, che, per parte sua, sembra invece irraggiungibile da quest’ultima[100]. Se, come già si diceva in precedenza, si riconoscono tracce umane nella mente degli automi, e questa tendenza va a crescere fino ad una completa equiparazione uomo-automa, è chiaro che ci si presta maggiormente a riconoscerne la soggettività giuridica, con un grado di responsabilità maggiore in capo al dispositivo con I.A., in conseguenza del più ampio livello di imputabilità corrispondente[101]. Nonostante poi la capacità di intendere e di volere sia il presupposto fondamentale della responsabilità, presupponendo i sistemi legali odierni requisiti psicologici come la coscienza e l’intenzionalità, la soglia di responsabilità deve essere individuata nella razionale intelligenza umana[102]. La prospettiva infatti è quella di vedersi macchine progettate da esseri umani le quali adotteranno comportamenti assolutamente imprevedibili, dati dal contesto in cui sono immessi, dal quale ricevono stimoli continui: come già detto, l’intenzionalità è l’unico elemento in grado di far sì che si possano prevedere le azioni dei soggetti giuridici[103]. Tali macchine vanno distinte in due categorie a seconda del loro ruolo in funzione della volontà umana: esse possono essere divise in macchine-strumenti dell’interazione umana e macchine-stretti esecutori ed agenti di altrui volontà, modificandosi chiaramente i meccanismi di responsabilità a seconda di tale qualificazione[104]. Quello che si prospetta dunque è una regolazione della materia in base alla declinazione della funzione dei robot, intendendosi così disciplinare un dispositivo con I.A. adibito a mansioni lavorative tramite il regime di responsabilità oggettiva tipico dei rapporti di committenza, oppure ancora, e solo per esempio, un robot che faccia da balia tramite i meccanismi di responsabilità vicaria che gravano sul genitore[105]. Si tratta chiaramente di una disciplina sicuramente ipotizzabile dal punto di vista giuridico, giacchè riprende le regole di responsabilità applicabili su esseri umani e le trasla sulla nuova categoria ontologica, ma che non soddisfa le nuove esigenze che si prospettano nel prossimo futuro a tal proposito, in vista di una sempre maggiore automatizzazione e responsabilizzazione di tali dispositivi[106]. Si apre dunque un notevole spazio per guardare a possibili soluzioni, che soddisfino le esigenze di riconoscimento di una forma giuridica a tali nuove entità, ma che allo stesso tempo garantiscano anche efficienza allocativa dei rischi e dei costi, nonchè il principio massimo di giustizia ed equità sociale.

Pagallo per primo ipotizza la possibilità di un riconoscimento di capacità giuridica, anche non piena, funzionale al conferimento del c.d. digital peculium, invece che regolare l’intero settore con i criteri di imputazione propri della responsabilità per prodotti difettosi[107]. Esso si richiamerebbe alla tradizione romana antica[108], nel senso di conferire una capacità giuridica limitata alla gestione del patrimonio compreso nel peculium, che risulterebbe separato da qualsiasi altro patrimonio in questione e dunque idoneo a soddisfare le richieste di risarcimento derivanti da eventuali danni del soggetto. Si tratterebbe di una garanzia patrimoniale generica nei confronti dei terzi e delle eventuali controparti contrattuali: l’idea, seppur apparentemente interessante, cela il problema della sufficienza del peculio. Se difatti il peculium fosse insufficiente a garantire il risarcimento pieno di un danno ingente, come può scaturire dalla lesione di un diritto fondamentale[109], andrebbe trovato un criterio di imputazione che porti all’effettiva soddisfazione della pretesa risarcitoria, senza però gravare iniquamente su una parte solo parzialmente colpevole o addirittura incolpevole[110]. Questo può essere il primo problema che può venir addotto in tal senso, ma ce ne sono molti altri che fanno propendere per una diversa soluzione[111]. Si tratta difatti di andare a guardare più a fondo i meccanismi che possono governare i rapporti tra I.A. e esseri umani, riconoscendo lo status ontologico dei primi e la necessaria interazione con i secondi: è per questo motivo che il legislatore deve agire con prontezza e conoscenza, coadiuvato anche da corti e dottrina, nonchè da authorities indipendenti, che collaborino affinchè lo standard di sicurezza necessario sia assicurato ai consumatori[112]. La soluzione ipotizzata da Scherer è infatti la creazione di un’agenzia indipendente, competente a riconoscere certificati di sicurezza ai prodotti I.A., con un relativo alleggerimento di regime di responsabilità per i proprietari, produttori, fabbricanti e qualsiasi altro partecipante alla catena produttiva, che si troverebbero ad essere responsabili dei danni solo se colpevolmente negligenti. Ai prodotti e dispositivi I.A. cui non sia stata rilasciata la certificazione di sicurezza invece corrisponde un regime di responsabilità oggettiva, scevra da ogni possibile riferimento con eventuale negligenza[113]. L’agenzia servirebbe inoltre a fare ricerca ed istituire un regime di pre-test sull’intelligenza artificiale, garantendo non solo standard di sicurezza adeguati a tale contesto, ma anche la necessaria spesa in ricerca e sviluppo, indispensabile in un settore come questo[114]. Al di là di tali esempi, la questione rimane lo stabilire un criterio di imputazione corretto in un regime di responsabilità compatibile con le esigenze di tale settore: è per questo che, rebus sic stantibus, risulta una scelta migliore guardare ad un possibile ventaglio di possibilità di regimi di responsabilità piuttosto che ipotizzare una regolazione precisa e minuziosa da parte del legislatore[115]. Inoltre, come si è visto, il più delle volte procedere in maniera astratta, avulsa dai problemi reali che possono presentarsi dall’introduzione di una nuova tecnologia, può condurre a disperdere il focus legislativo: chiaramente le speculazioni teoriche sulla soggettività giuridica risultano utili per poi poter effettivamente andare ad analizzare concretamente la situazione, ma non debbono costituire l’unico lato della diagnosi, che deve focalizzarsi anche dal punto di vista dell’effettività giuridica delle misure[116].

È perciò particolarmente interessante notare come vi possano essere diverse possibilità di regimi normativi di responsabilità in corrispondenza del riconoscimento che viene dato all’I.A., che appunto può variare da un estremo reificante ad un estremo, opposto, di personificazione piena[117]. La prima ipotesi è quella di regolare il settore con un regime di responsabilità derivante da prodotti difettosi: si tratta del regime ordinario di responsabilità per beni mobili di consumo, di natura industriale o agricola, implementabile (e vigente) poichè gli automi sono considerati nient’altro che prodotti, più sofisticati del normale, il cui difetto rientra in un regime di responsabilità oggettiva. Quest’ultima ricade non soltanto sul produttore, ma, nel caso in cui quest’ultimo non sia imputabile, su tutti gli altri partecipanti alla catena produttiva, dal fabbricante all’importatore, fino ad arrivare al consumatore stesso[118]. La complessità nel caso dei dispositivi I.A. sta nella loro bipartizione strutturale, in hardware e software, ossia in parte fisica e in parte eterea, che consente con sempre maggiore difficoltà di addebitare eventuali danni ad un unico produttore[119].  Una seconda ipotesi può essere data dal considerare il grande rischio che essi portano intrinsecamente, data la capacità dei dispositivi con I.A. di scegliere il proprio modello comportamentale e di potersi muovere autonomamente, nonché il danno che essi potrebbero di conseguenza arrecare: a causa di questo grande rischio per la società, il peso della responsabilità può essere trasferito dal produttore/fabbricante sul proprietario/consumatore ed il principio che regola gli animali pericolosi diventa pertinente. Il peso si sposta infatti sul proprietario/consumatore, ma la natura della responsabilità non cambia, rimanendo sempre oggettiva, ma graduata in relazione alla pericolosità del dispositivo con I.A., in questo caso considerato come un animale[120]. Tale espediente normativo richiederebbe l’uso di una fictio iuris evidente, aprendo un vaso di Pandora notevole a livello definitorio, al fine di considerare gli automi come animali, cioè come esseri viventi veri e propri[121]. Allo stesso modo, un regime di responsabilità simile può essere implementato guardando alla responsabilità di cose in custodia, come si può vedere dall’art. 2051 CC: esso scaturirebbe dalla considerazione di «cose» relativamente ai dispositivi, sul cui proprietario graverebbe l’eventuale responsabilità dei danni da essi provocati[122]. Si tratta evidentemente di una ipotesi eccessivamente semplificativa, poiché, come si è già detto, i dispositivi con I.A. non sono propriamente «cose». Una terza possibilità può essere costituita dal ridurre gli automi a meri schiavi, reificandoli totalmente pur riconoscendo loro delle peculiarità non proprie delle res: il termine robot infatti proverrebbe dalla parola ceca robota, che significa schiavitù, lavori forzati, e dall’antico slavo ecclesiastico rabota, che vuol dire appunto servitù, e considerare gli automi dei meri servitori significherebbe riunire il lato etimologico con quello sostanziale della parola[123]. Tale reductio ad servitutem porterebbe come conseguenza un regime di responsabilità tutto gravante sul padrone, unico soggetto giuridico su cui è possibile esercitare domanda di risarcimento: in tale ipotesi il vero problema non sta tanto nella responsabilità del padrone, quanto invece nella punibilità e sanzionabilità del dispositivo con I.A. nel caso in cui il padrone non sia imputabile, essendo impossibile punirlo fisicamente ed emotivamente[124]. Vi sono poi due altre ipotesi l’una collegata all’altra, ma di scarso significato ed applicabilità concreta: la prima è attribuire una capacità giuridica depotenziata, in modo tale da limitare le azioni dei neo-soggetti di diritto solo a determinati tipi di atti; la seconda sarebbe quella di considerarli come dei bambini, cioè con capacità giuridica diminuita, in modo tale che si garantirebbe e si riconoscerebbe l’alto livello intellettivo raggiunto, cui corrisponderebbe però un basso livello di responsabilità giuridica[125]. Un’interessante ipotesi è invece data dall’analisi giuridica del rapporto che si instaura tra dispositivo, esecutore della funzione cui è stato preposto, e proprietario, essere umano che dà ordini e input all’esecutore stesso: in un’ottica del genere, l’istituto del mandato è perfettamente inquadrabile, giacchè il proprietario umano può essere ravvicinato alla figura del mandante, mentre il mero esecutore al mandatario[126]. Ovviamente la genericità del mandato, e la corrispondente specificità, sarà determinata dall’ampiezza delle modalità con cui si permette al mandatario di eseguire il compito: sarà più specifico qualora l’esecutore agisca da mero nuncius, mentre sarà più generico se il mandante lascia più spazio di manovra all’esecutore. La genericità può anche dipendere dalla natura dell’apparecchio che si ha a disposizione: se esso è capace di gestire autonomamente più compiti, altrettanto sarà in grado di accollarsi un mandato generico, mentre se le funzioni che è in grado di svolgere sono più basilari e monolitiche, la specificità del mandato riprenderà corpo[127]. L’ultimo spazio è riservato all’estremo opposto, quello personificante: in tale ultimo caso, il dispositivo verrebbe equiparato totalmente ad una persona, acquisendo lo stesso status giuridico. Con tale affermazione è evidente che si deborda in altre discipline (etica, filosofia, neurologia, scienze mediche, biologia et cetera), ma quello che più interessa notare è che con il passare del tempo la tecnologia informatica si sta sempre più affinando, avvicinandosi continuamente, grazie anche alla neurologia ed alla psicologia[128], a scoprire i meccanismi più reconditi della mente e del corpo umano: la tendenza, sebbene ad oggi non vi sia la benché minima equiparabilità, è perciò di convergenza tra il mondo naturale e quello artificiale[129]. Ovviamente con la personificazione dell’I.A. si aprono immensi spazi di regolazione, giacchè si dovrebbe fare una scelta ben precisa di politica del diritto, cioè se applicare per analogia le stesse norme che si applicano agli esseri umani, pur con quelle differenze che già prima si sottolineavano, oppure crearne di nuove che ne tengano conto: la risposta, tuttavia, non può essere data al presente stato di cose.


[1]Per approfondire il tema si veda McKinsey & Company, Disruptive technologies: Advances that will transform life, business, and the global economy, May 2013 (https://www.mckinsey.com/~/media/McKinsey/Business%20Functions/McKinsey%20Digital/Our%20Insights/Disruptive%20technologies/MGI_Disruptive_technologies_Full_report_May2013.ashx).

[2] Tra le tecnologie portanti lo studio sottolinea in particolar modo dodici tipi di tecnologia che potrebbero portare ad un generale sconvolgimento delle attività umane in generale, elencate nel seguente ordine: a) mobile Internet b) automazione del lavoro intellettuale c) Internet d) tecnologia Cloud e) Robotica avanzata f) veicoli automatici g) genomica di nuova generazione e medicina rigenerativa h) materiali avanzati i) stoccaggio e conservazione di energia l) esplorazione e recupero avanzati di gas e petrolio m) fonti rinnovabili di energia n) stampa a tre dimensioni. (si veda McKinsey & Company, Disruptive techinologies: Advances that will transform life, business, and the global economy, May 2013, pp. 29-147)

[3] Si veda E. Palmerini, B. J. Koops, A. Bertolini, P. Salvini, F. Lucivero, Regulatory challenges of robotics: some guidelines for addressing legal and ethical issues, 9 Law, Innovation and Technology Journal 1, 1-5 (2017).

[4] Si fa riferimento qui al progetto Waymo, portato avanti da Google e dallo Stanford Artificial Intelligence Laboratory, che hanno portato alla creazione di Stanley, un veicolo robotico privo di guidatore (per maggiori informazioni a proposito si consulti https://www.google.com/selfdrivingcar/).

[5] Si veda Select Committee on Science and Technology, Information Society: Agenda for Action in the United Kingdom, House of Lords Paper, No. 77, July 23, 1996.

[6] Si veda a tal proposito I.h.a.c., The Challenge of the Information Highway: Final Report of the Information Highway Advisory Council, September 1995.

[7] Si veda in tal caso B. B. Sookman, Computer, Internet, and Electronic Commerce Law, Thomson and Carswell, Toronto, 2006-Rel.5, p. 1.1; J. Benthall, The Body Electric: Patterns of Western Industrial Culture, London, Thames & Hudson, 1976, p. 22.

[8] I tempi di implementazione e sviluppo di una tecnologia erano comunque abbastanza lunghi da consentire al tessuto sociale di riferimento di adeguarsi nel lungo periodo (H. Chesbrough, Open Innovation: Researching a New Paradigm, Oxford University Press, Oxford, 2006, p. 11).

[9] Si faccia riferimento in tal caso a H. Chesbrough, Open Innovation: Researching a New Paradigm, Oxford University Press, Oxford, 2006, pp. 10-21, in cui si evidenzia come il paradigma dell’innovazione si è concretizzato solo dopo una profonda riflessione su come rendere centrale il concetto stesso di innovazione. Il XX secolo è infatti stato l’epoca di passaggio da una concezione casualistica del progresso, procedendo il più delle volte tramite shock tecnologici fortuiti, ad una invece deterministica, finalizzata al continuo sviluppo della società nel suo complesso.

[10]Si potrebbe fare un elenco senza fine di innovazioni e nuove tecnologie la cui scoperta fu dettata dal caso (dalla penicillina fino alla dinamite, dal pacemaker alla polvere da sparo, solo per fare alcuni esempi), ma non sembra questo il luogo per dilungare tale discorso. Basti osservare che da un mondo in cui le scoperte scaturivano involontariamente, poiché erano gli stessi sperimentatori e pionieri a non sapere dove si stessero dirigendo, si passa ad un altro, in cui la ricerca e lo sviluppo diventano parte centrale dell’assetto economico internazionale (si veda sempre H. Chesbrough, op. cit., pp. 22-23).

[11] Si veda H. Chesbrough, op. cit., p. 26.

[12] Si veda N. Irti, L’età della decodificazione, IV ed., Giuffrè editore, Milano, 1999, pp. 66-76. Si nota infatti come il processo legislativo proprio di stati democratici debba essere continuamente attraversato da frizioni al proprio interno, rallentando la realizzazione del prodotto finale, mentre in stati totalitaristici, o assolutistici, avendo un baricentro legislativo pressoché unico, tutto questo non avviene, consentendo fluidità e velocità normativa.

[13] Questo fenomeno ha implicazioni sia economiche, dal momento che produce effetti che gravano sul mondo economico in generale, sia politico, causando inoltre una frattura tra il mandato elettorale e le sue concretizzazioni normative. Si veda sempre N. Irti, op. cit., pp. 77-78.

[14] A tal proposito si veda G. A. Benacchio, Diritto privato della Comunità Europea: fonti, modelli, regole, CEDAM, Padova, 1998, pp. 59-60.

[15] Si faccia riferimento sempre a G. A. Benacchio, op. cit., p. 65.

[16] Si faccia riferimento a H. Chesbrough, op. cit., p. 45.

[17]  Si veda E. Al Mureden, La sicurezza dei prodotti e la responsabilità del produttore: casi e materiali, II ed., Giappichelli editore, Torino, 2017, pp. 34

[18] Si prenda a riferimento il caso di violazione della privacy attribuibile a malfunzionamento del computer o del database. In tal caso la fuoriuscita di dati sensibili, in qualsiasi modo e per qualsiasi motivo avvenga, ledono l’immagine e la reputazione del soggetto, indicandone gusti, preferenze, convinzioni o immagini che non dovevano essere mostrate pubblicamente, causando un danno intangibile fisicamente, ma ben percepibile giuridicamente (E. Al Mureden, op. cit., pp. 35-36)

[19] Si veda E. Al Mureden, op. cit., pp. 39-40.

[20] Si fa qui riferimento ai meccanismi di machine learning, di cui si parlerà in modo più approfondito al cap. 2.

[21] Si veda R. Ali, Technological Neutrality, 14 (2) Lex Electronica 1, 2-16 (2009).

[22] Si veda R. Ali, op. cit., pp. 14-15.

[23] McCharty non è l’unico autore e pioniere in tale settore. Si vedano infatti anche i contributi di M. Somalvico, F. Amiconi, V. Schiaffonati,  Intelligenza Artificiale, in Petruccioli Sandro (a cura di), Storia della scienza vol. IX, Roma, Istituto della Enciclopedia Italiana, 2003, pp. 615-624; M. Hutter, Universal Artificial Intelligence, Berlin, Springer, 2005, pp. 1-26; G. Luger, W. Stubblefield, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, VI ed., Benjamin/Cummings, 2004, pp. 1-34; S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach, II ed., Pearson Education Limited, 2003, pp. 10-65; S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach, III edizione, Pearson Education Limited, 2009, pp. 4-92; N. J. Nilsson, The Quest For Artificial Intelligence, A History of Ideas And achievements, Web Version, Stanford University, 2010, pp. 19-70; A. Gardner, An Artificial Intelligence Approach to Legal Reasoning, MIT Science Review, 1987, pp. 192 e ss.

[24]Si veda in a tal proposito J. McCharty, What is artificial intelligence?, Computer Science Stanford Department, 2, (2007), pp. 1-7.

[25]Il riferimento è a P. H. Kahn, Jr., A. L. Reichert, H. E. Gary, T. Kanda, H. Ishiguro, S. Shen, J. H. Ruckert, B. Gill, The New Ontological Category Hypothesis in Human Robot Interaction, Proceedings of the 6th ACM/IEEE International Conference on Human Robot Interaction, pp. 159-160.

[26] J. McCharty, op. cit., p. 2.

[27] J. McCharty, op. cit., p. 3.

[28]A. R. Jensen, nel suo Does IQ matter? Commentary, afferma chiaramente come ipotesi euristica («as a heuristichypothesis») che tutti gli uomini hanno i soliti identici meccanismi intellettuali e che le differenze nelle intelligenze sono collegabili alle condizioni biochimiche e fisiogiche («quantitative biochemical and physiological conditions»). (si veda A. R. Jensen, Does IQ matter? Commentary, November 1998, pp. 20–21).

[29] Si veda J. McCharty, op.cit., p. 4.

[30] Si veda a tal proposito S. J. Russell, P. Norvig, Artificial Intelligence, A Modern Approach, III ed., Pearson, 2010, cap. 1.1, p. 22.

[31] Si veda Russell, Norvig, op. cit., cap. 1.2.1., pp. 5 e ss., nonchè cap. 1.3., pp. 16 e ss..

[32] Non solo filosofia, ma anche economia, neuroscienze, psicologia e ingegneria informatica hanno contribuito infatti al formarsi di un’idea autonoma e separata dall’umana concezione di intelligenza (Russell e Norvig, op.cit., parr. 1.2.1.-1.2.8., pp. 5-16).

[33] Si veda Russell, Norvig, op. cit., cap. 1.3., p. 22.

[34] Si veda Russell e Norvig, op. cit., cap. 2.1., p. 34.

[35] Si veda Russell e Norvig, op.cit., par. 2.2, p. 37.

[36] Ibidem.

[37] Di cui si parlerà successivamente: si veda nota n. 60.

[38] Si veda Russell e Norvig, op. cit., par. 2.2.2., p. 37.

[39] Ibidem.

[40] Ci si riferisce qui al periodo della nascita delle teorie computazionali e più in generale sull’intelligenza artificiale degli anni ’50 e ’60, che, seguendo le leggi di Azimov (I. Asimov, Runaround, Street and Smith, NYC, 1942), riducevano gli automi a meri esecutori di una volontà esogena ed eteronoma (Russell e Norvig, op. cit., par. 2.2.2., p. 38).

[41] Si veda Russell e Norvig, op. cit., p. 39; C. Coglianese, D. Lehr, Regulating by robot: Administrative Decision making in the Machine-Learning Era, 105 Georgetown Law Journal 1147, pp. 1147 e ss., (2017); D. Lehr, P. Ohm, Playing with the Data: What Legal Scholars Should Learn About Machine Learning, 51 U. C. Davis L. Rev. 653, 655-656, (2017).

[42] Si veda Russell e Norvig, op. cit., par. 2.4., p. 46.

[43] Si veda il quadro prospettato da U. Pagallo, Law of the robots, Springer, Dordrecht, 2013, cap. 2, par. 3.1., p. 38.

[44] Si veda U. Pagallo, op. cit., ibidem.

[45] Si veda C. Coglianese, D. Lehr, Regulating by robot: Administrative Decision making in the Machine-Learning Era, 105 Georgetown Law Journal 1147, pp. 1147 e ss., (2017).

[46] Si veda C. Coglianese, D. Lehr, op. cit., p. 1148.

[47] Ibidem.

[48] Si veda C. Coglianese, D. Lehr, op. cit., p. 1149.

[49] Si deve qui ricordare che i meccanismi di machine learning nascono e si sviluppano come un superamento della normale automatizzazione di un dispositivo. Facendo “imparare” una macchina a muoversi, o ad agire teleologicamente, significa infatti surclassare la mera programmazione monofunzionale: le macchine in tal modo difatti non solo agiscono, ma imparano autonomamente a rispondere ad input diversi da quelli per cui erano originariamente programmati generando output conseguentemente non riconducibili all’algoritmo di partenza. Si tratta dunque addirittura di riscrivere l’algoritmo originario, modificandolo in base ai nuovi dati acquisiti durante i processi di analisi e conseguente azione. In un certo senso, il machine learning è una programmazione unicamente finalizzata a rendere autonomo il dispositivo I.A., non solo dal punto di vista fisico materiale (e quindi di azione), ma anche per quello “mentale” (e quindi di ragionamento) (C. Coglianese, D. Lehr, Regulating by robot: Administrative Decision making in the Machine-Learning Era, 105 Georgetown Law Journal 1147, pp. 1148-1149, (2017); D. Lehr, P. Ohm, Playing with the Data: What Legal Scholars Should Learn About Machine Learning, 51 U. C. Davis L. Rev. 653, 655-656, (2017)).

[50] Si veda U. Pagallo, op.cit., p. 4.

[51] A tal proposito sempre Pagallo, op. cit., p. 4; A. Turing, Computing machinery and intelligence, Mind, 1950; Russell e Norvig, op. cit., ibidem.

[52]Si veda A. Turing, Computing machinery and intelligence, Mind, 1950, cap. 2, p. 13.

[53] Si veda sempre J. McCharty, ibidem, e D. Dennett, Brainchildren: Essays on Designing Minds, MA, MIT Press, 1998, pp. 13-16.

[54] Si veda U. Pagallo, p.5.

[55] Il filosofo John Searle afferma che l’idea di una macchina non-biologica intelligente è incoerente, proponendo l’argomento della scatola cinese (J. Searle, Consciousness, Explanatory Inversion and Cognitive Science, 16(01), Behavioral and Brain Sciences 562, December 1990, pp. 585-642), mentre il filosofo Hubert Dreyfus dice che l’I.A. è impossibile (H. Dreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason, Cambridge, MA, MIT Press, 1992); l’ingegnere informatico Joseph Weizenbaum (J. Weizenbaum, Computer Power and Human Reason: From Judgment To Calculation, San Francisco, W. H. Freeman, 1976) afferma allo stesso tempo che l’idea è oscena, anti-umana e immorale.

[56] Si tenga conto che la teoria NP-completo, o della complessità algoritmica, venne coniata da Stephen Cook e Richard Karp (S. Cook, The complexity of theorem proving procedures, Proc. 3rd ACM Symposium on Theory of Computing, 1971, pp. 151-158; R. Karp, Reducibility among combinatorial problems, Complexity of Computer Computations, NY Plenum, 1972, pp. 85-104), che riuscirono a dimostrare che è possibile risolvere qualsiasi problema, ma con un numero di programmi e di impiego di tempo sempre maggiore in relazione al compito che si deve appunto svolgere. Si veda R. Penrose, The Emperor’s New Mind, Concerning Computers, Minds and The Laws of Physics, Oxford Landmark Science, 1989, pp. 48-64 (ed. italiana Rizzoli, 1991) nonché J. McCarthy, Concepts of Logical, A.I. 16, 1996, pp. 167-194.

[57]Si faccia riferimento a R. Solomonoff, A Formal Theory of Inductive Inference, Part I, Information and Control, Vol 7, No. 1, March 1964, pp 1–22; R.Solomonoff, A Preliminary Report on a General Theory of Inductive Inference, Report V, Cambridge, Ma., Zator Co. revision, Nov. 1960, p. 131; G. J. Chaitin, On the Length of Programs for Computing Finite Binary Sequences, Journal of the ACM, 13 (4), October 1966, pp. 547–569.

[58] Si veda a tal proposito D. Helbing, Societal, Ethical and Legal Challenges of the Digital Revolution: From Big Data to Deep Learning, Artificial Intelligence, and Manipulative Technologies, 5/2014, Die Volkswirtschaft- Das Magazin Fur Wirtschaftpolitik (2015), pp. 3-7.

[59] Ibidem.

[60] Ibidem.

[61] J. Hertzberg, R. Chatila (AI Reasoning Methods for Robotics, p. 208, in B. Siciliano, O. Khatib, Handbook of Robotic (eds), Springer, Amsterdam, 2008) definiscono l’apprendimento «as the ability to improve the system’s own performance or knowledge based on its experience».  Si veda inoltre A. Matthias, From Coder to Creator: Responsibility Issues in Intelligent Artifact Design, p. 195 (R. Luppicini, R. Adell (eds), Handbook of Research in Technoethics (Hersher, Berlino, 2008) , che definisce il machine learning nel seguente modo: «Presently there are machines in development or already in use which are able to decide on a course of action and to act without human intervention. The rules by which they act are not fixed during the production process, but can be changed during the operation of the machine, by the machine itself. This is what we call machine learning.». Simile definizione viene data da C.E.A Karnow, The Application of Traditional Tort Theory to Embodied Machine Intelligence, We Robot (n 26), 2013, pp. 17-18.

[62] Si veda A. Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, 5 (2) Law Innovation and Technology, 214, 233 (2013).

[63] Ibidem.

[64] Si veda per riferimento L. Bigliazzi Geri, U. Breccia, F. D. Busnelli, U. Natoli, Diritto Civile, Norme, soggetti e rapporto giuridico, Vol. I, Utet, Torino, 1986, cap.3, par. 1, p. 76.

[65] Tale definizione, è agevolmente riconoscibile, è la principale e più famosa di soggetto giuridico e fu data da Hans Kelsen nella sua Dottrina pura del diritto (trad. It., Torino, 1966, 173; l’edizione in lingua tedesca è del 1934), divenendo ben presto la più corrente in dottrina e in giurisprudenza.

[66] Si veda C. Massimo Bianca, Diritto Civile, La norma giuridica, i soggetti, Vol. I, Giuffrè editore, Milano, 1986, cap. 7, par. 93, p. 137.

[67] Ibidem.

[68] Ibidem.

[69] Ibidem.

[70] Si veda V. Falzea, Il soggetto nel sistema dei fenomeni giuridici, Giuffreè editore, Milano, 1939, pp. 23-24.

[71] Si veda C. Massimo Bianca, op. cit., par. 94, p. 138.

[72] Così anche J. Chipman Gray, The nature and sources of the law, Roland Ray edition, MacMillan,1921, nonché L. B. Solum, Legal Personhood for Artificial Intelligences, 70 N. Car. L. R. 1231, 1231(1992).

[73] Si veda L. Solum, op. cit., ibidem.

[74] Si veda a tal proposito O. J. Flanagan, Jr., The science of the mind, 2nd ed., 1991, pp. 1-22, che introduce alle scienze cognitive ed alla filosofia della mente, evidenziando i limiti che ad oggi caratterizzano tali settori epistemologici e le prospettive (ampie) che si aprono dietro tali lacune.

[75] Si veda L. Solum, op. cit., p. 1245.

[76] Si veda a tal proposito G. Sartor, Cognitive automata and the law, The Law of Electronic Agents, Bing, Olso,  Unipubskriftserier, 2003, pp. 67-114.

[77] Si veda G. Sartor, op. cit., p. 4.

[78] Si veda G. Sartor, op. cit., p. 4.

[79] Si veda G. Sartor, ibidem.

[80]Si vedano G. Sartor, op. cit., p.16; D. C. Dennett, J. C. Haugeland, Intentionality, The Oxford Companion to the Mind, Oxford University Press, L. Gregory editor, Oxford, 1987, pp. 383–386; D. C. Dennett, The Intentional Stance, MIT Mass., Cambridge, 1989, pp. 165-168.

[81] Si vedano G. Sartor, op. cit., p. 32; C. Castelfranchi, F. Dignum, M. J. Catholijn, and J. Treur, Deliberative normative agents: Principles and architecture, Proceedings of ATAL, 1999, pp. 364–378; C. Castelfranchi, R. Falcone, Socio-cognitive theory of trust. The Open Agent Society, Jeremy Pitt editor, Wiley, London, 2003, pp. 256-274.

[82] In R. Kurzweil, The Age of Spiritual Machines (Orion, London, 1999, pp. 147-176) le sfumature tra macchina e uomo si assottigliano particolarmente. John R. Searle in Consciousness, unconsciousness, intentionality. Philosophicaltopics (17, University of Arkansas Press, 1989, pp. 193–209) manifesta invece un atteggiamento molto più concreto verso il fenomeno del riconoscimento della soggettività giuridica, analizzando il ventaglio di possibilità che possono scaturire da esso. A. Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, 5 (2) Law Innovation and Technology 214, 240 (2013) ritiene che il problema della soggettività si risolva in una mera speculazione filosofico-giuridica, che nella pratica vede un’apertura al riconoscimento della soggettività giuridica agli automi, ma come allo stesso tempo ad esso si accompagni un’imputabilità economica prettamente umana.

[83] Si veda L. Solum, op. cit., p. 1245-1246.

[84] Si veda F. Laurent, Principes de droit civil, I, Parigi, 1869, pp. 367 e ss., nelle quali si afferma che «tutto è finto nella concezione delle persone giuridiche». La teoria della finzione si lega a doppio filo con il nome del Savigny, che in apertura del volume II del suo Sistema del diritto romano attuale (trad. It., Torino, 1868; l’edizione originale risale agli anni 1840-1848), afferma che il diritto positivo può estendere a soggettività «a qualche altro ente, oltre l’uomo singolo, e così può artificialmente formarsi una persona giuridica».

[85]Gierke il quale dedicò allo studio del problema un’opera in tre volumi (Das deutsche Genossenschaftsrecht, Berlin, 1868-1881; la teoria è sviluppata nel vol. II, 29 ss., 933 ss.). La Genossenschaft, cui si ispira il Gierke, è una figura di corporazione tipica della tradizione germanica, la cui struttura si fonda su un corpo organico di individualità collegate. Per una visione tutta italiana di tale teoria si dia uno sguardo a F. Ferrara, Sen., Teoria delle persone giuridiche, in Il diritto civile italiano, Fiore, II, Napoli-Torino, 1915 (ristampa in 2nda edizione nel 1958 a cura di F. Ferrara, Jr., Trattato Vassalli).

[86] Si veda sempre L. Bigliazzi-Geri, F. D. Busnelli, U. Natoli, U. Breccia, op. cit., cap. 3, par. 2, pp. 77-78.

[87] Si veda L. Solum, op. cit., ibidem.

[88] Si veda a tal proposito la risoluzione del Parlamento UE del 16 febbraio 2017, di cui prima si parlava, in cui si riconosce l’importanza, ormai acquisita, del mondo della robotica e dell’intelligenza artificiale, con un conseguente, e necessario, interesse del legislatore nel regolare tali settori.

[89] Si veda D. C. Vladeck, Machines without principals: liability rules and artificial intelligence, 89 Washington L. Rev. 117, 117 (2014), nonché N. Bostrom, When Machines Outsmart Humans, 35, Futures, 2003, pp. 759-763. Per esempi più concreti di questa teorica, si vedano N. Bostrom, M. Cirkovic, Global catastrophic risks, Oxford University Press, I ed., 2008, pp. 78-79; R. Kurzweil, The singularity is near: when humans transcend humanity, Viking, 2005, pp. 135–36; H. Moravec, Robot: mere machines to transcendent humans, Oxford University Press, Oxford, 1999, p. 61.

[90] Si veda D. Vladeck, op. cit., p. 123.

[91] Si vedano a tal proposito N. Bostrom, The Superintelligent Will: Motivation and Instrumental Rationality, Advanced Artificial Agents, 22, Minds and Machines, 2012, pp. 71–84; B. Joy, Why the Future Doesn’t Need Us, WIRED, April 2000 (https://www.wired.com/2000/04/joy-2/).

[92] Si veda D. Vladeck, op. cit., ibidem.

[93] Si veda M. U. Scherer, Regulating artificial intelligence systems: risks, challenges, competencies, and strategies, 29 (2) Harvard Journal of Law & Technology 363, 363 e ss, (2016).

[94] Si vedano a tal proposito N. Johnson et al., Abrupt Rise of New Machine Ecology Beyond Human Response Time, Sciences Rep., Sept. 11, 2013; A. Smith, J. Anderson, AI, Robotics, and the Future of Jobs, Pew Research Center, Aug. 6, 2014, pp. 44–45; Russell, Norvig, op. cit., p. 1034.

[95] A tal proposito si faccia riferimento a N. Silver, The signal and the noise: why so many predictions fail but some don’t, Penguin Group, 2012, pp. 287–88.

[96] G. Sartor in realtà a tal proposito obietta che un essere con un fine ben chiaro, e quindi con un orizzonte teleologico preciso non può essere altro che un essere prevedibile, proprio perché munito di intenzione (Cognitive automata and the law, op. cit., 2003, cap. 4, p. 10). Tale obiezione però è da declinare con la velocità computazionale dei dispositivi I.A., che sono certamente immessi in un circuito di soluzioni ed azioni definite numericamente, ma allo stesso tempo sono in grado di analizzarle ad una velocità talmente alta che risulta impossibile prevedere quale di esse sia ritenuta dal dispositivo stesso la migliore a completare il compito assegnatogli. Si tenga inoltre conto che la complessità dei compiti porta ad una maggiore imprevedibilità, dato che il principale rischio è quello dell’esperienza post-design dell’apparecchio, impredittibile perfino dal più attento ed esperto dei partecipanti alla catena produttiva (Scherer, ibidem).

[97] Si veda Russell e Norvig, op. cit., p. 39; C. Coglianese, D. Lehr, Regulating by robot: Administrative Decision making in the Machine-Learning Era, 105 Georgetown Law Journal 1147, pp. 1147 e ss., (2017); D. Lehr, P. Ohm, Playing with the Data: What Legal Scholars Should Learn About Machine Learning, 51 U. C. Davis L. Rev. 653, 655-656, (2017).

[98] Si par la in tal caso di perdita di controllo locale, se l’apparecchio non è più controllato dall’umano che lo dovrebbe fare, o generale, qualora non sia più recuperabile in toto. È chiaro che la seconda prospettiva, più plausibile vista l’autonomia con cui deve agire l’intelligenza artificiale, può portare ad un rischio pubblico enorme, nonché ad eventuali danni inestimabili, conditi con un’incertezza normativa in materia di responsabilità che aumenta il rischio di allocazione inefficiente dei costi provenienti dai danni. (Si veda Scherer, op. cit., ibidem; W. Wallach, C. Allen, Moral machines: teaching robots right from wrong, Indiana University Press, Indianapolis, 2009, pp. 197–214)

[99] Si veda Scherer, ibidem.

[100] Si veda Ugo Pagallo, The law of the robots, Crimes, contracts and torts, Springer, Dordrecht, 2013, cap. 2, p. 19.

[101] Si veda Ugo Pagallo, op. cit., cap. 2.2., pp. 30-31.

[102] Si faccia riferimento a Ugo Pagallo, op. cit., cap. 2.3.1., pp. 38-39.

[103] Si vedano G. Sartor, op. cit., pp. 24-25; U. Pagallo, op. cit., ibidem.

[104] Si veda U. Pagallo, op. cit., cap.2.4., pp. 43-44.

[105] Si veda sempre U. Pagallo, op. cit., cap. 5, pp. 115-116.

[106] Si faccia ancora riferimento a U. Pagallo, op.cit., ibidem.

[107] Si veda U. Pagallo, op. cit., cap. 5, par. 3.1., pp. 132-133.

[108] Per una più approfondita ricerca a proposito del peculium si vedano P. Voci, Istituzioni di diritto romano, Giuffrè editore, Milano, 1954, pp. 447 e ss.; A. Petrucci, Lezioni di diritto privato romano, Giappichelli editore, Torino, 2015, cap. IV, pp. 135-169; P. Cerami, A. Petrucci, Diritto commerciale romano, Profilo storico, Giappichelli editore, 2010, cap. II, pp. 36-67, cap. III, pp. 68-108.

[109] Si veda a tal proposito N. Levit, Ethereal torts, The George Washington Law Review, 1992, pp. 136-190.

[110] Si veda Herbert Simon, Models of bounded rationality, Cambridge, Mass., MIT Press, 1982, pp. 243-246, per le conseguenze economiche che un tale approccio può avere sul settore regolato. Se difatti una cattiva e sproporzionata allocazione dei costi dovuti ai risarcimenti dovesse gravare un settore estremamente innovativo, si rischia di tarpare le ali ad un potenziale strumento di progresso inutilmente e a causa di un’ignoranza delle cause dannose. Si raccomanda perciò un’attenta e precisa valutazione del criterio di imputazione, per un abbinamento di istanze sociali di giustizia e di progresso tecnologico ed economico.

[111]Si vedano a tal proposito U. Pagallo, op. cit., pp. 134-135; Scherer, op. cit., pp. 390-392.

[112] Si veda Scherer, op. cit., p. 393.

[113] Questo regime è ipotizzato da Scherer (op. cit., pp. 394 e ss.) nella speranza di avviare una stimolante discussione sulla cooperazione tra legislatore, giurisprudenza e agenzie indipendenti. Molte agenzie indipendenti sono state create difatti nell’ultimo decennio, proprio in prospettiva di una collaborazione sempre più fitta tra expertise tecnico-amministrativa e legislatore: si pensi, solo per citare un esempio, all’AgiD, istituita in Italia nel 2012 dal governo Monti, per fronteggiare lo sviluppo crescente nel settore della rivoluzione 4.0. con staff tecnico che potesse cooperare con il legislatore.

[114]Si faccia riferimento sempre a Scherer, op. cit., ibidem; Herbert Simon, op. cit., ibidem.

[115]Si veda ancora Scherer, op. cit., pp. 398-399.

[116] Si veda a proposito L. Solum, op. cit., p.1232, dove si fa riferimento alla possibilità che la concretezza giuridica possa fungere da “rasoio di Occam” anche nel caso dell’intelligenza artificiale, le cui speculazioni filosofiche rischiano di disperdere gli aspetti concreti che essa ha ed avrà nei prossimi anni.

[117] Si veda infatti S. N. Lehman-Wilzig, Frankenstein unbound: towards a legal definition of Artificial Intelligence, Futures, December 1981, pp. 442-457.

[118] Si veda Lehman-Wilzig, op. cit., p. 447.

[119] Ibidem.

[120] Ibidem. Per l’ipotesi di attribuire lo status di animale pericoloso ai dispositivi con I.A. si veda anche S. H. Duffy, J. P. Hopkins, Sit, Stay, Drive: The Future of Autonomous Car Liability, 16 SMU Scie. & Tech. L. Rev. 454, 467-470 (2013), dove si traccia un possibile parallelismo tra la natura canina ed i danni che possono scaturire da tale natura e le caratteristiche dei veicoli privi di guidatore, con i danni che possono arrecare a terzi.

[121] Ibidem.

[122] Ibidem.

[123] Si veda ancora Lehman, op. cit., p. 449.

[124] Ibidem. Lehman infatti spiega che i dispositivi con I.A. non possono avere sensibilità e coscienza per poter capire cosa è una sanzione: essi verrebbero puniti nel sistema di valori attuali, ma sarebbe come «chiudere una pietra in gabbia» (cit. p. 449), sortendo nient’altro che l’immobilizzazione di un oggetto. È per tale motivo che in taluni casi la soggettività giuridica potrebbe non essere la corretta soluzione ai problemi che si manifestano con i prodotti con I.A.

[125] Si veda sempre Lehman, op. cit., p. 450.

[126] Ibidem.

[127] Ibidem. Si veda a proposito della disciplina generale sul mandato F. Gazzoni, Manuale di diritto privato, vol. XVII, Edizioni scientifiche italiane, Milano, 2015, cap. LXIV, 4, pp. 1181-1189; L. Bigliazzi Geri, et ceteri, Diritto civile, Obbligazioni e contratti, vol. 3, Utet, Torino, cap. IX, sez. II, pp. 460-476.

[128] Si veda O. J. Flanagan, Jr., The science of the mind, 2nd ed., 1991, pp. 1-22, che introduce alle scienze cognitive ed alla filosofia della mente, evidenziando i limiti che ad oggi caratterizzano tali settori epistemologici e le prospettive (ampie) che si aprono dietro tali lacune.

[129] Si veda non solo Lehman, ibidem, ma anche D. R. Hofstadter, Godel, Escher, Bach: An Eternal Goldan Braid (New York, Vintage Books, 1980, p. 677), che offre una corretta panoramica delle prospettive del nostro tempo a proposito dell’I.A. e della convergenza tra «the artificial world and the natural one» (ibidem).

[130] A mero titolo di esempio, si può citare qui l’art. 2043 CC, con tutte le conseguenze del caso. La scelta del regime ordinario di responsabilità non sembra però affatto adeguato al presente stato di cose per regolare un settore come quello dell’I.A., dove la complessità dei dispositivi e la difficoltà di provare il nesso causale per il danneggiato sono le cause principali di insuccesso in contenzioso (A. Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, 5 (2) Law Innovation and Technology, 214, 236 (2013)).


Autore