Intelligenza Artificiale e sviluppo etico: le linee guida dell’Unione Europea per una AI antropocentrica e affidabile

di Eleonora Beltrame


Premessa

Se si dovesse individuare l’argomento più dibattuto e sviluppato degli ultimi anni, il tema dell’Intelligenza Artificiale (I.A.) non faticherebbe a raggiungere il podio. Nonostante sia possibile rinvenire fin dal secolo scorso speranze e preoccupazioni simili a quelle odierne,[1]nel corso del 2017 l’intelligenza artificiale è divenuto l’argomento per eccellenza su cui discutere e riflettere, tanto che oggi sia la rete sia i media più tradizionali abbondano di articoli, video e dibattiti concernenti l’I.A. e la sua applicazione in diversi ambiti della società.

L’interesse nei confronti dell’I.A., intesa come un insieme di processi tesi ad emulare attraverso l’utilizzo di macchine alcuni aspetti della cognizione umana,[2]risale al secondo Dopoguerra e la nascita ufficiale della stessa come disciplina scientifica è datata 1956, quando il termine “intelligenza artificiale” venne coniato durante un seminario estivo presso il Dartmouth College da John McCarthy.[3]Sebbene da allora vi siano stati significativi sviluppi e perfezionamenti, la maggior parte delle tecniche attualmente impiegate furono sviluppate decenni fa negli Stati Uniti e in Canada.[4] Se speranze, preoccupazioni e tecniche basi non sono variate, ad oggi ciò che veramente differenzia il dialogo e il clima relativo all’intelligenza artificiale, oltre all’ovvio incremento del suo potenziale applicativo, è l’inedita attenzione posta nei suoi confronti e nei suoi risvolti etici da parte di istituzioni, governi e policy makers.[5]

La finalità di questo articolo è quella di analizzare l’approccio dell’Unione Europea all’I.A. e il suo recente tentativo di garantirne uno sviluppo etico e trasparente attraverso l’adozione delle “Ethics Guidelines for Trustworthy Artificial Intelligence”.

L’approccio umano-centrico dell’Unione Europea all’I.A.

Posto a confronto con Stati Uniti e Cina, il Vecchio Continente si trova in ritardo nell’ambito dell’I.A. Mentre i primi sono attualmente considerati leader nella competizione internazionale sull’intelligenza artificiale, grazie alla solida struttura del mondo accademico statunitense e al lavoro del Defence Advanced Research Projects Agency (c.d. “DARPA“), un’Agenzia governativa del Dipartimento di Difesa degli Stati Uniti che da anni svolge ricerca nel campo dell’I.A. per lo sviluppo di nuove tecnologie ad uso militare,[6]la seconda ha intenzione di voler diventare, entro il 2030, la maggiore potenza mondiale nel campo dell’I.A., soprattutto grazie al recente stanziamento da parte del governo di due miliardi di dollari per incentivarne la ricerca e lo sviluppo.[7]

Al fine di colmare il gap di competitività creatosi nell’ambito dell’I.A. a causa di una strategia debole, un basso livello di investimento e una eccessiva frammentazione, l’Unione Europea ha deciso di incrementare gli investimenti per accelerare lo sviluppo dell’I.A.: ad esso saranno destinati venti miliardi di euro, frutto di investimenti pubblici e privati, nel biennio 2019-2020, e la stessa quantità ogni anno nel decennio successivo.[8]

Insieme agli investimenti, l’UE ha stabilito l’istituzione di un Gruppo di Alto Livello di Esperti (High_Level Expert Group) con il compito di definire linee guida per lo sviluppo dell’intelligenza artificiale in modo etico e trasparente. Questo approccio ‘umano-centrico’,[9]caratterizzato dalla ricerca di un equilibrio tra intervento pubblico ed autonomia privata, distingue l’UE dalle altre due superpotenze che si contendono il primato nel campo. Da un lato, infatti, gli Stati Uniti hanno adottato una politica liberale fondata sull’ampio spazio riconosciuto alla ricerca privata, in cui problemi etici, politici e legali emergono e vengono affrontati solo in seguito ad istanze precise. Dall’altro, la Cina si distingue per una strategia fortemente centralizzata, caratterizzata da corposi investimenti pubblici e finanziamenti di infrastrutture che permettono di utilizzare l’I.A. sia nelle città che nella P.A.[10]In Cina, infatti, la collettività viene prima dell’individuo, e l’intelligenza artificiale è considerata un imprescindibile strumento di amministrazione della società, anche laddove dovesse risultare lesiva della libertà individuale.[11]

Le linee guida europee per una I.A. affidabile

L’Unione Europea, considerando l’intelligenza artificiale uno strumento estremamente utile, ma al tempo stesso insidioso per gli interrogativi giuridici ed etici che solleva, ha ritenuto essenziale integrare i valori su cui è basata e il suo solido quadro normativo nello sviluppo dell’I.A.[12]In seguito alla nomina di 52 esperti indipendenti nel giugno 2018, lo scorso dicembre è stata raggiunta una bozza preliminare delle linee guida che andranno a comporre il Codice Etico dell’Unione Europea sull’Intelligenza Artificiale. Queste ultime saranno sottoposte da giugno 2019 ad una fase pilota, tesa a garantire la loro applicabilità pratica[13]e a raccogliere le osservazioni delle parti interessate, ossia di autorità pubbliche, istituti di ricerca e industria.[14]Infine, a partire dall’inizio del 2020, il Gruppo di Alto Livello di Esperti avrà il compito di revisionare e aggiornare le linee guida, sulla base dei riscontri e delle osservazioni ottenuti durante la fase pilota.[15]

Il documento, così come l’intera strategia europea in materia di I.A., è fondato sulla convinzione che l’intelligenza artificiale possa essere realmente vantaggiosa solo se sostenuta dalla fiducia della società.[16]Pertanto, la dimensione etica della stessa non può essere considerata un mero complemento accessorio, ma la base su cui fondare lo sviluppo di un’intelligenza artificiale “antropocentrica”, al servizio del bene comune per migliorare il benessere e garantire la libertà.

L’obiettivo delle linee guida consiste nel fornire le direttive necessarie per lo sviluppo di una I.A. “affidabile” (“trustworthy”), le cui tre componenti fondamentali sono: 1) essere in conformità con la legge, e in particolare con i Trattati dell’UE, la Carta dei Diritti Fondamentali dell’Unione Europea e il diritto internazionale dei diritti umani; 2) rispettare i principi etici; 3) essere solida.[17]

Nello specifico, le linee guida individuano sette elementi fondamentali che i sistemi di I.A. dovrebbero rispettare:

  • Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
  • Robustezza e sicurezza: è indispensabile che gli algoritmi alla base di una I.A. trustworthy siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi.
  • Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non devono essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di I.A.
  • Diversità, non discriminazione ed equità: i sistemi di I.A. dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  • Benessere sociale e ambientale: i sistemi di I.A. dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  • Responsabilità intesa anche come accountabilitydovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di I.A. e dei loro risultati, nonché adeguati meccanismi di ricorso e risarcimento.[18]

Conclusioni

L’analisi dei requisiti individuati come fondamentali dal Gruppo di Esperti di Alto Livello per lo sviluppo dell’I.A. nell’Unione Europea rivela le priorità dell’UE. Nonostante l’incremento degli investimenti e l’intenzione di competere a livello internazionale con Cina e Stati Uniti, l’Unione si sta mobilitando con l’adozione di soluzioni che priorizzino la tutela dei suoi cittadini, piuttosto che strategie che le garantiscano l’assoluto primato nel campo. Per questo motivo, proprio come nel caso del GDPR, sta creando quadri – o meglio scudi – legislativi ineguagliati in qualsiasi altra parte del mondo.

La centralità della dignità e delle libertà umane, anche e soprattutto quando sono coinvolti sistemi meccanizzati e algoritmi, implica la necessaria prevalenza dell’uomo sull’autonomia artificiale e conseguenti limitazioni allo sviluppo dell’I.A. La volontà dell’Unione che traspare dalle linee guida etiche è quella di non rendere eccessivamente invasive le nuove tecnologie, sebbene secondo alcuni questa posizione potrebbe rivelarsi nefasta in termini di crescita del mercato e della ricerca.


Bibliografia:

[1] Nel 1980, il New York Times pubblicò un articolo intitolato ‘A Robot Is After Your Job; New technologies aren’t a panacea’. Si veda SHAIKEN H., A Robot Is After Your Job; New technologies aren’t a panacea, New York Times, 3 settembre 1980, https://www.nytimes.com/1980/09/03/archives/a-robot-is-after-your-job-new-technology-isnt-a-panacea.html

[2] CALO R., Artificial Intelligence Policy: a Primer and Roadmap, in 3, University of Bologna Law Review, 2018, 180 ss

[3] AMIGONI F., SCHIAFFONATI V. e SOMALVICO M., Intelligenza Artificiale, in Enciclopedia Treccani, 2008, http://www.treccani.it/enciclopedia/intelligenza-artificiale_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/

[4] STONE P. e ALTRI, Artificial Intelligence and Life in 2030: Report of the 2015 Study Panel, Stanford University, 2016

[5] CALO R., supra note 2

[6] BOLDRINI N., Intelligenza Artificiale: Europa “terza incomoda” tra Cina e Usa?, AI4Business, 26 febbraio 2019, https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-europa-terza-incomoda-tra-cina-e-usa/

[7] POCCIANTI P., Le potenze investono sull’intelligenza artificiale: il ruolo dell’Europa tra Usa e Cina, Agenda Digitale, 22 febbraio 2019, https://www.agendadigitale.eu/cultura-digitale/le-potenze-investono-sullintelligenza-artificiale-il-ruolo-delleuropa-tra-usa-e-cina/

[8] TREMOLADA L.L’Europa pubblica un codice etico sull’intelligenza artificiale. Ecco cosa dice’, Il Sole24Ore, 19 dicembre 2018, https://www.ilsole24ore.com/art/tecnologie/2018-12-19/l-europa-pubblica-codice-etico-sull-intelligenza-artificiale-ecco-cosa-dice-113500.shtml?uuid=AEFDAP2G

[9] NICOTRA M., Intelligenza Artificiale, cos’è, come funziona e le applicazioni in Italia ed Europa, Agenda Digitale, 23 maggio 2018, https://www.agendadigitale.eu/sicurezza/privacy/intelligenza-artificiale-la-via-delleuropa-su-regole-e-investimenti/

[10] POCCIANTI, supra note 7

[11] Un esempio di tale violazione della libertà individuale in Cina sono i sistemi di riconoscimento facciale utilizzati per monitorare il comportamento dei pedoni o dei dipendenti. Si veda SIGNORELLI A.D., Il riconoscimento facciale sta creando un mondo distopico, Wired, 16 febbraio 2019, https://www.wired.it/attualita/tech/2019/02/16/riconoscimento-facciale-cina-ungheria-liberta/?refresh_ce=

[12] Commissione Europea, Building Trust in Human-Centric Artificial Intelligence, comunicazione, 8 aprile 2019 COM(2019) 168 final

[13] Commissione Europea, Orientamenti etici sull’intelligenza artificiale: proseguono i lavori della Commissione, comunicato stampa, 8 aprile 2019, http://europa.eu/rapid/press-release_IP-19-1893_it.htm

[14] Commissione Europea, supra note 13

[15] Commissione Europea, supra note 12

[16] Andrus Ansip, Vicepresidente e Commissionario responsabile per il Mercato Unico Digitale, ha dichiarato: ‘La dimensione etica dell’intelligenza artificiale non può essere considerata un’opzione di lusso né un complemento accessorio: solo con la fiducia la nostra società potrà trarre il massimo vantaggio dalle tecnologie. L’intelligenza artificiale etica è una proposta vantaggiosa per tutti, che può offrire un vantaggio competitivo all’Europa, ossia quello di essere leader nello sviluppo di una intelligenza artificiale antropocentrica di cui i cittadini possono fidarsi’. Disponibile su: http://europa.eu/rapid/press-release_IP-19-1893_it.htm

[17] Commissione Europea, supra note 12

[18] Commissione Europea, supra note 13


Autore:

 

it_ITItaliano
en_USEnglish it_ITItaliano