AI & HR: la nuova sfida europea

di Paola Redaelli


Poche settimane fa è stata pubblicata la proposta di regolamento europeo in materia di intelligenza artificiale[1]: si tratta del primo passo formale verso una (del tutto inedita) regolamentazione a 360 gradi di un fenomeno tecnologico in rapida espansione e frenetica innovazione.

Il draft in parola, come dichiarato dalla stessa Commissione Europea, rappresenta un punto centrale nella strategia del mercato unico digitale dell’Unione Europea.

Al fine di evitare una repentina obsolescenza del perimetro normativo di riferimento, la Commissione Europea ha optato per approccio orizzontale, proporzionato e basato sul rischio (c.d. risk based approach). In particolare, i sistemi di intelligenza artificiale che vengono utilizzati in specifici contesti sono classificati sulla base del fatto che il loro utilizzo determini un rischio inaccettabile, un rischio alto, un rischio limitato oppure minimo. Il benchmark di riferimento è rappresentato dalla tutela dei diritti e delle libertà degli individui.

Pertanto, ancora una volta e in linea con l’approccio già adottato con l’introduzione del GDPR[2], il legislatore europeo intende orientare il progresso tecnologico mettendo al centro l’uomo e la tutela dei suoi diritti fondamentali.

Fermo quanto precede, le imprese, già da tempo impegnate nei processi di digital transformation, saranno quindi chiamate a confrontarsi con un nuovo quadro giuridico che regolamenterà lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale, già per certi versi protagonisti di molti processi aziendali.

L’utilizzo dell’intelligenza artificiale nella gestione delle risorse umane…

La gestione delle risorse umane ha rappresentato – e rappresenta tutt’ora – uno dei terreni più fertili in cui si è potuto diffondere (e oramai consolidare) con particolare vigore l’utilizzo delle nuove tecnologie, ivi inclusa l’intelligenza artificiale.

Algoritmi di ricerca semantica, robot per la selezione del personale, CV parsing, scanning delle emozioni facciali durante i colloqui di lavoro, sono solo alcuni dei possibili impieghi delle nuove tecnologie nell’ambito della ricerca e selezione del personale. Alla base di questa considerevole innovazione del settore vi è la necessità di rendere più efficienti e snelli i processi HR, automatizzando le fasi ripetitive dei processi e prive di valore aggiunto.

Nonostante gli indubbi vantaggi e benefici per le imprese in termini di efficienza e saving, non si può non tenere conto dei possibili rischi e impatti (sia materiali che immateriali) che l’impiego delle nuove tecnologie possa avere sulle persone nel contesto in parola.

Quindi fino all’approvazione di una regolamentazione in materia di AI non ci sono forme di tutela per gli interessati?

Assolutamente no.

Poiché i sistemi di intelligenza artificiale sono volti, in termini molto sintetici, a realizzare macchine e/o sviluppare algoritmi che risolvano problematiche imitando l’intelligenza umana, è naturale che gli stessi si fondino (e anzi si nutrano) di dati personali. Ciò comporta che gli stessi devono necessariamente essere progettati prima e utilizzati poi in conformità al GDPR, già pienamente applicabile da due anni.

Senza pretesa di esaustività, si tenga presente che, benché il GDPR non contenga una definizione relativa ai sistemi di AI – poiché costruito in senso tecnologicamente neutro – ciò nonostante lo stesso pone una specifica attenzione sui processi decisionali automatizzati, ossia privi di coinvolgimento umano.

In questo senso l’art. 22 del GDPR prevede che l’interessato abbia diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato (inclusa la profilazione) che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona, come, ad esempio nei processi di e-recruiting senza l’intervento umano[3].

…e nella proposta di regolamento sull’AI

Il draft del Regolamento sull’intelligenza artificiale include nel novero dei sistemi di AI ad “alto rischio” elencati nell’allegato III, che rappresentano il nucleo della regolamentazione in parola:

  1. I sistemi di intelligenza artificiale destinati ad essere utilizzati per il recruitment o la selezione del personale, in particolare per pubblicizzare le vacancies, screenare o filtrare le candidature, valutare i candidati nel corso di colloqui o test;
  2. I sistemi di intelligenza artificiale destinati ad essere utilizzati per prendere decisioni sulla promozione e la cessazione dei rapporti contrattuali in ambito lavorativo, per l’assegnazione dei task, per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone in tali contesti.

Si tratta, appunto, di sistemi di AI che creano un rischio elevato per la salute e la sicurezza o i diritti fondamentali delle persone fisiche, sicché in linea con un approccio basato sul rischio, tali sistemi potranno essere sviluppati e impiegati nel mercato europeo a condizione che siano rispettati una serie di requirements aventi carattere mandatorio, tra cui una valutazione di conformità ex ante (la c.d. marcatura CE).

Con specifico riferimento agli obblighi che nelle intenzioni della Commissione Europea dovrebbero essere introdotti in relazione ai sistemi di AI ad alto rischio, si ricordano in questa sede, senza pretesa di esaustività:

  • Gli obblighi relativi alla produzione della documentazione tecnica al fine di rafforzare la verificabilità e la tracciabilità del sistema in parola;
  • Gli obblighi concernenti la trasparenza nei confronti degli utenti;
  • Gli obblighi in termini di robustezza, sicurezza e cybersicurezza dei sistemi di AI;
  • Gli obblighi in relazione all’implementazione di misure appropriate che consentano una effettiva supervisione umana sul funzionamento di detti sistemi.

Conclusione  

La proposta di schema di regolamentazione dei sistemi di AI è sicuramente molto ambiziosa che vede l’Europa, ancora una volta, come pioniere a livello mondiale nella regolamentazione di tematiche così complesse.

Benché la piena definizione e applicabilità del quadro giuridico in parola richiederà ancora alcuni anni, ciò nonostante, a parere di chi scrive, il draft della Commissione Europea offre già importanti indicazioni per gli operatori e getta le basi per le future elaborazioni in materia.

Con specifico riferimento all’ambito HR, i sistemi di intelligenza artificiale possono (e potranno) rappresentare un incredibile supporto nell’ambito della gestione del capitale umano delle aziende al fine di poter snellire e automatizzare molti processi aziendali, garantendo al tempo stesso la tutela dei valori fondamentali degli individui.


[1] Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELLAR%3Ae0649735-a372-11eb-9585-01aa75ed71a1

[2] Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC, https://eur-lex.europa.eu/eli/reg/2016/679/oj

[3] Si veda, ad esempio, il Considerando 71 del Regolamento Europeo n. 679/2016 che recita: “ L’interessato dovrebbe avere il diritto di non essere sottoposto a una decisione, che possa includere una misura, che valuti aspetti personali che lo riguardano, che sia basata unicamente su un trattamento automatizzato e che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona, quali il rifiuto automatico di una domanda di credito online o pratiche di assunzione elettronica senza interventi umani […]”.


Autore:

 

en_US