Analisi della proposta di Regolamento sull’intelligenza artificiale pubblicata dalla Commissione Europea il 21 aprile 2021

di Francesco Antonio Nanni


Recentemente, Il 21 aprile 2021, la Commissione Europea ha reso nota una proposta di Regolamento[1] (“Regulation on a European approach for Artificial intelligence“) con l’obbiettivo di plasmare la legislazione europea sull’intelligenza artificiale (“IA”), armonizzando, quindi, la normativa applicabile e caldeggiare l’innovazione, la sicurezza e la tutela dei diritti individuali.

Risulta piuttosto visibile il ruolo ricoperto dall’intelligenza artificiale nella trasformazione digitale di svariati settori economici e sociali (beni, servizi, mondo del lavoro, finanza, sanità, sicurezza. Essa rappresenta il presente e il futuro della tecnologia ed «un punto centrale nel Green deal europeo[2] e nel rilancio dell’economia post COVID-19[3]».[4]

La recente proposta di Regolamento si pone un primo quadro giuridico sull’IA che, con l’introduzione di nuove regole, azioni ed affrontandone i rischi, punta a trasformare l’Europa nel polo mondiale per un’intelligenza artificiale affidabile[5].

Il «nuovo approccio europeo è preceduto da una serie di iniziative intraprese negli ultimi anni, tra cui»[6]:

  • la consultazione pubblica sul Libro Bianco sull’Intelligenza Artificiale (COM 2020) 65 final del 19 febbraio 2020);
  • le Linee guida etiche finali per un’intelligenza artificiale affidabile, del Gruppo ad alto livello sull’intelligenza artificiale, pubblicate l’8 aprile 2019;
  • il Rapporto sulla responsabilità per l’Intelligenza Artificiale e altre tecnologie emergenti, del Gruppo di esperti sulla responsabilità e le nuove tecnologie, pubblicato il 21 novembre 2019;
  • la Dichiarazione di cooperazione sull’intelligenza artificiale, firmata da 25 paesi europei il 10 aprile 2018, che si basa sui risultati e sugli investimenti della comunità europea della ricerca e delle imprese nell’IA e stabilisce le basi per il Piano coordinato sull’IA.

L’obiettivo principale della Commissione, facilmente evincibile dalla lettura dei considerando, è quello di garantire che tutti i sistemi di IA utilizzati siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano,[7] rafforzando in questo modo la fiducia dei cittadini nell’utilizzo di tali soluzioni. L’intelligenza artificiale, al pari delle altre attività di trattamento di dati personali, porta con sei svariati rischi intrinsechi che vanno presi in considerazione, in quanto potenzialmente capaci di minare i diritti e le libertà degli individui.

La scelta della forma del Regolamento, quale atto legislativo vincolante da applicare nella sua interezza in tutta la UE, non è casuale, ma fa parte del più ampio progetto garantista e di piena tutela dell’individuo da raggiungere con l’applicazione congiunta di altre normative vincolanti quali la proposta di Regolamento ePrivacy (presentata il 10 di febbraio 2021 dal Consiglio dell’Unione Europa) e il Regolamento n.679/2016 (“GDPR”).

Da una prima analisi della proposta di Regolamento sull’IA si possono agilmente cogliere diversi punti di contatto ed istituti simili a quelli introdotti e normati dal GDPR che, nel proseguo del testo, cercheremo di evidenziare.

La proposta di Regolamento sull’IA si applica sia agli operatori europei che ai fornitori[8] o utenti[9] di sistemi di IA stabiliti al di fuori dell’Ue qualora l’ «output» dei sistemi sviluppati o utilizzati dagli stessi venga utilizzato all’intero dell’UE. Non si applica, invece, alle autorità pubbliche in paesi terzi o alle organizzazioni internazionali ma solo se usano sistemi di IA nell’ambito di programmi di cooperazione giudiziaria o investigativa (con l’Ue o con uno Stato Membro).

Il Regolamento si applica all’immissione sul mercato, alla messa in servizio e all’uso di “sistemi di IA”[10]. In tale contesto, la Commissione propone un approccio basato sul rischio[11] (AI Risk Classifications) che si può suddividere in quattro livelli, basati sulle ripercussioni che potrebbe avere l’IA sulla sicurezza delle persone e dei diritti fondamentali (Considerando 14).

Un primo livello è costituito da quei sistemi di IA la cui vendita e i cui possibili utilizzi sono vietati in modo pressoché assoluto dal Regolamento: sistemi di IA che utilizzano tecniche subliminali per distorcere in maniera sostanziale il comportamento di una persona, così causando, o potendo causare, danni fisici o psichici a quella persona o ad altri; sistemi di IA che sfruttano vulnerabilità legate all’età o ad una disabilità di uno specifico gruppo di persone al fine di distorcere in maniera sostanziale il comportamento di una persona appartenente a tale gruppo; l’uso di sistemi di social scoring da parte delle autorità pubbliche o da parte di chi agisce per conto delle stesse (es. social scoring utilizzato in Cina); l’uso in tempo reale di sistemi di identificazione biometrica da remoto (come i sistemi di riconoscimento facciale – identificazione biometrica) in luoghi accessibili al pubblico.

Proseguendo si ha una classificazione ad alto rischio quando determinati sistemi di IA possono avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali: l’elenco dei sistemi IA ad alto rischio è allegato alla proposta di Regolamento (allegato III) e potrà essere aggiornato nel tempo per essere sempre allineato agli sviluppi tecnologici. Secondo il Considerando 62 e come vedremo nel proseguo, il loro utilizzo non è totalmente vietato, in quanto sarà possibile per i fornitori immetterli sul mercato in determinati casi e solo a seguito di una preventiva e rigorosa valutazione di conformità oltre al rispetto di stringenti requisiti obbligatori, necessari per garantire piena tutela ai cittadini. Tra i sistemi di IA ad alto rischio vi rientrano, ad esempio, i sistemi di IA utilizzati per la selezione del personale e i sistemi di IA destinati ad essere utilizzati come componenti di sicurezza, nella gestione e il funzionamento delle infrastrutture critiche (ad esempio gestione del traffico stradale, fornitura di acqua, gas, riscaldamento ed elettricità). È prevedibile il potenziale impatto di tali sistemi di IA, in quanto un guasto o un malfunzionamento potrebbe mettere a rischio la vita e la salute delle persone su larga scala e portare a notevoli interruzioni del normale svolgimento delle attività sociali ed economiche (Considerando 34).

Nella fascia del cd. ”rischio limitato” vi rientrano, invece, quei sistemi che devono sottostare a minimi e precisi obblighi di trasparenza: ad esempio, i chatbot e gli assistenti vocali. Secondo la bozza di Regolamento gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare o meno ad utilizzarli, anche in vista del possibile trattamento di dati personali.

All’interno dell’ultima categoria vi rientrano i restanti sistemi di IA il cui rischio è considerato minimo (o quasi nullo) per la sicurezza e diritti e le libertà dei cittadini e che dovranno essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici (ad esempio un adesione volontaria a Codici di condotta). Si sottolinea[12], che attualmente la stragrande maggioranza sei sistemi di IA utilizzati all’interno della UE rientrerebbe in quest’ultima fascia, come i sistemi di manutenzione predittiva, i filtri anti-spam e contro le telefonate indesiderate, i videogiochi sviluppati sfruttando sistemi di IA.

La proposta di Regolamento dedica tutto il titolo III ai sistemi di IA ad alto rischio classificandoli, indicandone i requisiti di conformità e gli obblighi previsti (valutazione della conformità, certificazione e registrazione).

Risultano invero numerosi gli aspetti da considerare e gli obblighi cogenti ai quali i fornitori (ma non solo) di sistemi di IA ad alto rischio dovranno attenersi, prima della loro immissione sul mercato europeo[13] e durante tutto il ciclo di vita dei medesimi sistemi.

I fornitori dovranno garantire che il sistema ad alto rischio di IA sia sottoposto ad una adeguata procedura di valutazione della conformità, prima della sua immissione sul mercato o messa in servizio (o in caso di modifiche sostanziali che possano incidere sulla conformità) per verificare che i requisiti del Regolamento e gli obblighi di registrazione nella Banca dati UE siano stati effettivamente rispettati. Inoltre, per tutti i sistemi di intelligenza artificiale ritenuti “ad alto rischio” si richiede espressamente agli utenti di svolgere una Valutazione d’Impatto sulla protezione dei dati ai sensi dell’art. 35 del GDPR (articolo 29 co. 6 «Obblighi degli utenti di sistemi di intelligenza artificiale ad alto rischio»).

I fornitori dovranno dotarsi di un adeguato sistema di gestione dei rischi costituito da un processo interattivo e continuo di verifica, con test adeguati, che stimi, valuti e analizzi i rischi prevedibili, sulla base dell’analisi dei dati raccolti dal sistema di monitoraggio successivo all’immissione sul mercato.

In un’ottica di pura “accountability” simil GDPR, i risultati elaborati dai sistemi ad alto rischio dovranno essere poi verificati e tracciati lungo l’intero ciclo di vita del sistema. La documentazione tecnica afferente al sistema di IA deve essere sottoposta ad aggiornamento continuo e deve essere disponibile già prima della sua immissione sul mercato. È previsto un obbligo di tenuta dei registri (Record keeping – art. 12) secondo il quale deve essere prevista la registrazione automatica degli eventi (file di log) che indicano il periodo di ogni utilizzo del sistema (data e ora di inizio e data e ora di fine) e che identificano le persone fisiche coinvolte nella verifica dei risultati.

Deve essere sempre garantito e preservato un adeguato livello di accuratezza, robustezza, resilienza e sicurezza informatica dei sistemi di IA per tutto il loro ciclo di vita (tali livelli devono essere contenuti e dichiarati nella documentazione afferente al sistema di IA) allo stesso modo in cui deve essere garantita la riservatezza, l’esattezza, l’integrità, la disponibilità e la sicurezza dei dati personali nel GDPR nonché la resilienza dei sistemi.

Risulta centrale, quale obbligo esplicito, l’applicazione di tecniche appropriate di data governance e data management ai set di dati di addestramento, di convalida e di prova. Tali pratiche riguardano in particolare:

  • scelte progettuali pertinenti;
  • la raccolta dei dati;
  • le opportune operazioni di trattamento della preparazione dei dati, quali annotazione, etichettatura, pulizia, arricchimento e aggregazione;
  • la formulazione di ipotesi per quanto riguarda le informazioni che i dati dovrebbero misurare e rappresentare;
  • una valutazione preliminare della disponibilità, della quantità e dell’adeguatezza dei set di dati necessari (privi di bias e completi);
  • elevata qualità dei dati che alimentano il sistema;
  • valutazione in vista di possibili distorsioni;
  • l’identificazione di eventuali lacune o carenze di dati e come tali lacune e carenze possono essere affrontate.

Deve essere sempre garantito il principio di trasparenza con informazioni chiare, complete, corrette e facilmente accessibili e comprensibili per agli utenti e a chiunque acquisti o utilizzi tali sistemi all’interno dei propri servizi. Il sistema di IA deve essere sempre accompagnato da istruzioni per l’uso con indicazione delle sue caratteristiche e dei suoi limiti, in modo che il loro funzionamento non sia opaco, bensì trasparente e spiegabile.

[14] Uno studio ha rilevato che, prima che i dati vengano dati in pasto all’algoritmo (all’atto della raccolta dei dati personali) sarebbe possibile fornire al soggetto interessato solamente delle indicazioni di alto livello riguardo al funzionamento del sistema di IA nonché riguardo le finalità complessive che il sistema intende raggiungere. Sempre secondo lo studio, dovrebbero essere comunicate informazioni quali: i dati utilizzati dal sistema di IA come input (con un ulteriore chiarimento circa l’incidenza positiva o negativa sul risultato di un determinato dato fornito); i target che il sistema di IA intende calcolare, le conseguenze e l’esito della decisione (o valutazione) automatizzata.

La supervisione umana deve essere sempre garantita tramite integrazione di adeguati strumenti di interfaccia uomo-macchina che permettano all’uomo di poter sempre vigilare sul corretto funzionamento del sistema ed essere in grado, in qualsiasi situazione particolare, di non utilizzare il sistema di IA o di ignorare, annullare, interrompere (attraverso un pulsante “stop” o una procedura simile) o invertire i risultati ottenuti.

Sempre secondo il principio di accountability, analogamente a quanto previsto per il GDPR, i fornitori dovranno, su richiesta di un’Autorità nazionale competente, dimostrare la conformità del sistema ad alto rischio di IA. Similarmente a quanto previsto nel GDPR in relazione all’obbligo di notifica dei data breach, i fornitori dei sistemi di IA ad alto rischio devono notificare alle Autorità competenti nazionali ogni serio incidente o malfunzionamento del sistema di IA che possa costituire una “violazione” degli obblighi previsti dal diritto dell’Unione a tutela dei diritti fondamentali. Tale comunicazione è effettuata immediatamente dopo che il fornitore ha stabilito un nesso di causalità tra il sistema di intelligenza artificiale e l’incidente o il malfunzionamento o la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni da quando il fornitore è venuto a conoscenza dell’incidente grave o del malfunzionamento (art.62).

La proposta di Regolamento stabilisce espressamente (art. 71) che gli Stati Membri debbano prevedere delle sanzioni «effettive» e «dissuasive»[15].

Rispetto al GDPR che distingue in due gruppi di sanzioni, in questo caso le soglie ad oggi previste sono tre:

  • fino a 30 milioni di euro o al 6% del fatturato mondiale totale annuo dell’esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l’inosservanza di requisiti in materia di dati;
  • fino a 20 milioni di euro o al 4% del fatturato mondiale totale annuo dell’esercizio precedente per l’inosservanza di qualsiasi altro requisito o obbligo del regolamento;
  • fino a 10 milioni di euro o al 2% del fatturato mondiale totale annuo dell’esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta.

Al Garante europeo della protezione dei dati viene riconosciuto, in modo esplicito, il potere di imporre sanzioni alle istituzioni, alle agenzie e agli organismi dell’Unione che rientrano nell’ambito di applicazione del Regolamento sull’IA (Considerando 84).

La proposta di Regolamento prevede l’istituzione di un Comitato europeo per l’intelligenza artificiale (Artificial Intelligence Board) al fine di facilitarne l’attuazione in modo fluido, efficace, armonizzato e contribuire ad una efficace cooperazione con le autorità nazionali di vigilanza e la Commissione[16].  Il Comitato europeo sull’IA sarà responsabile di una serie di compiti consultivi, tra cui la formulazione di pareri, raccomandazioni, consigli o orientamenti su questioni relative all’attuazione del Regolamento, comprese le specifiche tecniche o le norme esistenti relative ai requisiti ivi stabiliti, nonché fornire consulenza e assistenza alla Commissione su questioni specifiche relative all’intelligenza artificiale. I suoi compiti, ad oggi previsti all’art. 58, risultano analoghi a quelli attualmente ricoperti dal Comitato europeo per la protezione dei dati (European Data Protection Board).

Inoltre, per aumentare l’efficienza e istituire un punto di contatto ufficiale con il pubblico e le altre controparti, ciascuno Stato membro dovrà designare una o più Autorità nazionali di controllo, che rappresenterà anche il singolo paese nell’ambito del «Artificial Intelligence Board». Le Autorità nazionali, una volta nominate, assumeranno un ruolo centrale nel garantire il rispetto del Regolamento, in quanto saranno incaricate di supervisionarne l’applicazione e l’attuazione, nonché singolarmente responsabili nello svolgimento di attività di vigilanza del mercato (considerando 77).

Infine, come previsto dal GDPR anche il nuovo Regolamento incoraggia l’adozione di codici di condotta volti a promuovere e garantire l’applicazione volontaria dei requisiti indicati all’interno del Reg. stesso per i sistemi di intelligenza artificiale (ad alto rischio e non) e di altri requisiti (relativi ad es. alla sostenibilità ambientale) oltre a verificarne e misurarne l’applicazione sulla base di obbiettivi prestabiliti ed indicatori chiave.


Note:

[1] resource.html (europa.eu)

[2] Green Deal europeo: la chiave per un’UE sostenibile e climaticamente neutrale, 31 marzo 2121, articoli attualità Parlamento Europeo, europarl.europa.eu

[3] COVID-19: il piano dell’UE per rilanciare l’economia, 17 dicembre 2020, articoli attualità Parlamento Europeo, europarl.europa.eu

[4] Regolamento sull’intelligenza artificiale: cosa vuole il Parlamento europeo, 20 maggio 2021, articoli attualità Parlamento Europeo, 20201015STO89417, europarl.europa.eu

[5] Un’Europa pronta per l’era digitale: la Commissione propone nuove regole e azioni per l’eccellenza e la fiducia nell’intelligenza artificiale, 21 aprile 2021, comunicato Commissione Europea, ec.europa.eu

[6] Il nuovo approccio europeo all’Intelligenza Artificiale, 22 aprile 2021, Camera dei deputati – documentazione parlamentare, temi.camera.it

(Il nuovo approccio europeo comprende anche una proposta di regolamento sulle macchine [COM(2021) 202 final], che stabilisce i requisiti di sicurezza dei prodotti, sostituendo l’attuale “Direttiva Macchine” n. 2006/42/CE)

[7] (Considerando n.5) È pertanto necessario un quadro giuridico dell’Unione che stabilisca norme armoniche in materia di intelligenza artificiale per promuovere lo sviluppo, l’uso e l’adozione dell’intelligenza artificiale nel mercato interno, che soddisfi allo stesso tempo un livello elevato di tutela di interessi pubblici, quali la salute, la sicurezza e la protezione dei diritti fondamentali, riconosciuti e tutelati dal diritto dell’Unione. (…) Stabilendo tali norme, il presente regolamento sostiene l’obiettivo dell’Unione di essere un leader mondiale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, come dichiarato dal Consiglio europeo, e garantisce la protezione dei principi etici, come richiesto espressamente dal Parlamento europeo

[8] “Fornitore”: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di intelligenza artificiale o che fa sviluppare un sistema di intelligenza artificiale al fine di immetterlo sul mercato o metterlo in servizio con il proprio nome o marchio, a pagamento o gratuitamente (art. 3 «definizioni»)

[9] “Utente”: qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di intelligenza artificiale sotto la sua autorità, tranne quando il sistema di intelligenza artificiale è utilizzato nel corso di un’attività personale non professionale (art. 3 «definizioni»)

[10]Definizione di “sistema di intelligenza artificiale” (art. 3 lett.1) «un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I e in grado, per una determinata serie di obiettivi definiti dall’uomo, di generare risultati quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono»

[11] Il Reg. sull’IA per «sistemi di intelligenza artificiale che presentano un rischio» intende un prodotto che presenta un rischio per la salute o la sicurezza o per la tutela dei diritti fondamentali delle persone.

[12] Intelligenza Artificiale: cosa prevede il regolamento Ue, Lucia Izzo, 2 maggio 2021, studiocataldi.it

[13] Prima di mettere i loro sistemi a disposizione sul mercato dell’Unione, qualora non sia possibile individuare un importatore, i fornitori stabiliti al di fuori dell’Unione nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell’Unione.

(Considerando n. 10) Per garantire condizioni di parità e un’efficace tutela dei diritti e delle libertà delle persone in tutta l’Unione, le norme stabilite dal presente regolamento dovrebbero applicarsi ai fornitori di sistemi di intelligenza artificiale in modo non discriminatorio, indipendentemente dal fatto che siano stabiliti nell’Unione o in un paese terzo, e agli utenti dei sistemi di intelligenza artificiale stabiliti nell’Unione

(Considerando n. 11) (…) Per evitare l’elusione del presente regolamento e garantire una protezione efficace delle persone fisiche stabilite nell’Unione, il presente regolamento dovrebbe applicarsi anche ai fornitori e agli utilizzatori di sistemi di intelligenza artificiale stabiliti in un paese terzo, nella misura in cui l’output prodotto da tali sistemi è utilizzato nell’Unione. (…)

[14] The impact of the General Data Protection Regulation (GDPR) on artificial intelligence, studio condotto dal professore accademico Giovanni Sartor, 25 giugno 2020

The impact of the General Data Protection Regulation (GDPR) on artificial intelligence | Panel for the Future of Science and Technology (STOA) | European Parliament (europa.eu)

[15] (Considerando 84) Gli Stati membri dovrebbero adottare tutte le misure necessarie per garantire l’attuazione delle disposizioni del presente regolamento, anche prevedendo sanzioni efficaci, proporzionate e dissuasive in caso di violazione delle stesse. Per alcune violazioni specifiche, gli Stati membri dovrebbero tener conto dei margini e dei criteri stabiliti nel presente regolamento. Il garante europeo della protezione dei dati deve avere il potere di imporre sanzioni alle istituzioni, alle agenzie e agli organismi dell’Unione che rientrano nell’ambito di applicazione del presente regolamento

[16] Art. 56 “istituzione del Comitato europeo dell’intelligenza artificiale” – art. 57 “struttura del comitato”.


Bibliografia:

  • Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts, European Commission, 24 aprile 2021
  • The impact of the General Data Protection Regulation (GDPR) on artificial intelligence, studio condotto dal professore accademico Giovanni Sartor, 25 giugno 2020
  • Ai e GDPR, un incontro non sempre facile, Gabriele Borghi, 21 dicembre 2020, ai4business.it
  • Il nuovo approccio europeo all’Intelligenza Artificiale, 22 aprile 2021, Camera dei deputati – documentazione parlamentare, temi.camera.it
  • La UE detta le regole per i sistemi di intelligenza artificiale, Daniela Di Leo, 22 aprile 2021, it
  • Regolamento sull’intelligenza artificiale: cosa vuole il Parlamento europeo, 20 maggio 2021, articoli attualità Parlamento Europeo, 20201015STO89417, europarl.europa.eu
  • Green Deal europeo: la chiave per un’UE sostenibile e climaticamente neutrale, 31 marzo 2121, articoli attualità Parlamento Europeo, europarl.europa.eu
  • COVID-19: il piano dell’UE per rilanciare l’economia, 17 dicembre 2020, articoli attualità Parlamento Europeo, europarl.europa.eu
  • Regolamentazione dell’AI: le raccomandazioni del Centre for Information Policy Leadership, Federica Maria Rita Livelli, 8 aprile 2021, ai4business.it
  • Un’Europa pronta per l’era digitale: la Commissione propone nuove regole e azioni per l’eccellenza e la fiducia nell’intelligenza artificiale, 21 aprile 2021, comunicato Commissione Europea, ec.europa.eu
  • New rules for Artificial Intelligence – Questions and Answers, European Commission, 21 aprile 2021, ec.europa.eu
  • EU funded Projects that use AI Technology, aprile 2021, European Commission, digital-strategy.ec.europa.eu
  • Intelligenza artificiale: le nuove regole europee che disciplinano l’uso della tecnologia, Marta Cagnoli, Anna Cataleta, 22 aprile 2021, cybersecurity360.it
  • Ecco il Regolamento UE sull’intelligenza artificiale, sul percorso del GDPR, Alessandro Longo, Maria Rita Carbone, 21 aprile 2021, cybersecurity360.it
  • L’Unione europea verso l’era digitale: azioni e regole per l’Intelligenza Artificiale (IA), europedirect, 21 aprile 2021, europa.formez.it
  • La Commissione europea definisce uno standard per lo sviluppo di un’AI incentrata sull’uomo, sostenibile, sicura e affidabile, Paola Cozzi, 23 aprile 2021, tech4future.info
  • Il Regolamento europeo sull’intelligenza artificiale e i suoi rapporti con il GDPR, Luigi Mischitelli, 4 maggio 2021, it
  • La bozza di regolamento europeo sull’intelligenza artificiale è in dirittura d’arrivo, 18 marzo 2021, dirittoaldigitale.com
  • Nuove regole europee per l’AI: impatto su giuristi e legal tech, Claudia Morelli, 10 maggio 2021, altalex.com
  • Il nuovo Regolamento sull’Intelligenza Artificiale: perché, com’è e quanto costa, 7 maggio 2021, filodiritto.com
  • Intelligenza Artificiale, il nuovo quadro normativo europeo, Claudio Palmieri, 20 maggio 2021, altalex.com
  • Intelligenza Artificiale: cosa prevede il regolamento Ue, Lucia Izzo, 2 maggio 2021, studiocataldi.it

Autore:

 

it_IT