“People analytics” e tutela dei lavoratori: il provvedimento del Garante sulla profilazione reputazionale

di Sara Corsi

Le analisi sui big data effettuate dalle imprese risultano funzionali ad una serie di attività aziendali, spesso impiegate per calibrare gli approcci strategici di business attraverso indagini sui consumi, oppure utilizzate per fini organizzativi e di gestione del personale.

L’utilizzo dei big data nel contesto della gestione del personale è meglio noto come people o HR analytics. Lo scopo di tali tecniche è quello di ottimizzare le decisioni aziendali nel settore delle risorse umane grazie al trattamento di dati oggettivi relativi ai lavoratori e aspiranti tali, esaminandoli con modelli statistici ed algoritmi, per individuare ad esempio il candidato migliore o il dipendente più o meno produttivo.

Diverse sono le fonti da cui provengono i big data: gli strumenti tecnologici utilizzati durante l’attività lavorativa, i social network per le informazioni riguardanti la vita privata e sociale, o ancora le risposte fornite nelle fasi di selezione tramite simulazioni e test attitudinali svolti online.

Ad oggi nell’Europa continentale tali tecniche e gli studi ad esse correlate si trovano ancora ad un primo stadio. Di conseguenza le dissertazioni giuridiche si concentrano più sulle potenzialità e gli scenari futuri prospettati dallo strumento e meno sul quadro odierno. I principi sulla finalità del trattamento dei dati e il principio del consenso al trattamento da parte dell’interessato, che sono cardini della Direttiva 94/56/EC sui dati personali (c.d. Data Protection Directive), sono alcune delle ragioni che concorrono alla limitata diffusione delle tecniche di people analytics in Europa. Questo perché tali analisi presuppongono spesso il riutilizzo di dati per operazioni che generino sempre nuove informazioni, e ciascuna operazione nell’ordinamento UE richiederebbe il rilascio di apposite autorizzazioni, in uno scenario operativo poco fluido. Ma si tratta di un’opportunità che l’Europa non può non cogliere, poiché diversi sono i benefici che i processi di people analytics potrebbero generare. Alcuni esempi riguardano la lotta contro i pregiudizi e la valorizzazione dell’apporto di lavoratori con diverse capacità lavorative, conciliando i carichi di lavoro con migliori standard di salute, così da scongiurare i rischi di burnout.

D’altro canto vi sono rischi legati alle HR analytics che si configurano nell’elevato livello di pervasività dei trattamenti, i quali coinvolgono una grande quantità di dati, anche sensibili; nell’eventualità che a causa di inesattezze o falsità, i dati vadano a costruire un quadro reputazionale erroneo del lavoratore; così come anche le potenziali discriminazioni attuate volontariamente, oppure non intenzionali, ma causate dall’utilizzo di modelli bias.

Nell’ordinamento italiano, il trattamento dei dati sul lavoro è regolato dagli artt. 114 e 113, co. 1, del d.lgs. n. 196/2003,  i quali richiamano le disposizioni contenute nello Statuto dei lavoratori, ossia gli artt. 4 e 8, che regolano i controlli a distanza sull’attività lavorativa e il divieto di indagini sulle opinioni personali dei lavoratori e su fatti non attinenti con l’attitudine lavorativa.

Il complesso di riforme del cd. Jobs Act ha novellato l’art. 4 dello Statuto, e consolidatosi il divieto dell’utilizzo di software per l’analisi di big data con il fine esplicito del controllo dei lavoratori, il principale scoglio si erge sul comma 3, che prevede l’utilizzabilità dei dati provenienti dai controlli preterintenzionali o dagli strumenti di lavoro, per tutti i fini connessi al rapporto di lavoro. Tra tutti i fini potrebbero certamente rientrare anche le attività delle tecniche di people analytics, ma in questo caso, oltre ai limiti espressi della disciplina sulla privacy, emergono anche gli oneri di informazione sulle modalità d’uso delle strumentazioni e di effettuazione dei controlli.

Un’indagine di people analytics potrebbe interessare anche la sfera dell’art. 8 dello Statuto, il quale è strumento di tutela diretta del lavoratore contro intrusioni nella sua vita privata o pubblica e intende prevenire un uso discriminatorio di alcune informazioni limitandone la possibilità di raccolta. Non si tratta di limitazioni solo sulle notizie riservate, ma anche su di informazioni pubblicamente disponibili che non si collocano in una sfera strettamente privata e che sono costitutive della proiezione pubblica della persona.

Condurre l’indagine analitica con il fine di valutare l’attitudine professionale dell’interessato, è dunque il discrimen tra una pratica vietata ed una conforme all’ordinamento.

Nell’ambito delle tecniche di HR analytics questa limitazione comporta serie difficoltà interpretative ed applicative, poiché l’attinenza dei dati analizzati rispetto all’attitudine professionale del lavoratore, si fonda su correlazioni elaborate con modalità tecnico statistiche, più che su un rapporto di causa ed effetto. Uno dei problemi fondamentali è individuare il pregiudizio causato dall’utilizzo di un modello statistico biased. Il funzionamento degli algoritmi utilizzati non è facilmente decifrabile poiché viene analizzata davvero un’ingente quantità di dati e le correlazioni generate non corrispondono ad un insieme di soggetti individuabili e stabili, ma prendono in esame categorie sempre variabili. Dunque risulta molto arduo rilevare se il modello utilizzato abbia comportato, e in quale modo, discriminazioni nei confronti dell’interessato.

Per la prima volta, il 24 novembre 2016, il Garante della privacy italiano ha emanato un provvedimento avente ad oggetto un sistema tecnologico finalizzato a fornire, a partire dall’analisi dei dati, un servizio di rating su persone fisiche e giuridiche consultabile da parte di terzi. L’analisi di dati della piattaforma, denominata Mevaluate, non si sarebbe limitata a raccogliere dati sul piano professionale, ma avrebbe costruito un quadro reputazionale completo per ciascun utente, relativamente al profilo penale, fiscale e civile, corredato da elementi di conoscenza «rilevanti anche sotto il profilo etico», utili per la selezione e il controllo delle controparti negoziali tra «appaltatori e subappaltatori, […] aspiranti dipendenti, dipendenti in forza». La banca dati sarebbe stata costituita tramite il caricamento di documenti tra cui ad esempio il certificato del casellario giudiziario, diplomi e titoli di studio o di formazione, elementi che testimonino «fatti e circostanze legate … alla sfera morale dei soggetti », acquisiti tramite articoli di testate, interviste e registrazioni tv.

Il Garante ha dichiarato illecito e contrario a numerose disposizioni del Codice della privacy, il trattamento dati operato da Mevaluate ed è intuibile inoltre come questa piattaforma, potrebbe anche influenzare l’andamento del flusso di mercato.

Seppure la base volontaria della procedura di creazione dei profili soddisfa il requisito del consenso dell’interessato per l’acquisizione, il trattamento e per la messa a disposizione dei dati, sarebbero stati però predisposti profili “contro terzi”. Tali profili, sebbene formulati con i «dati provenienti da pubblici registri, elenchi, atti o documenti conoscibili da chiunque» soggetti a trattamento senza necessità di consenso in base all’art. 24, comma 1, lett. d), del Codice, avrebbero potuto essere integrati o modificati, ma non sarebbe stato possibile cancellarli.

Il Garante ha rilevato anzitutto la violazione del principio della libera manifestazione del consenso (art. 23 del Codice), sia nel caso in cui l’utente non possa intervenire per contrastare un profilo creato da terzi, sia nelle ipotesi di inserimento di clausole all’interno di contratti di lavoro o appalto, che richiedano la concessione dell’autorizzazione alla pubblicazione delle informazioni a pena di risoluzione del contratto, cui consegue la cessazione o la mancata costituzione dello stesso.

Inoltre l’Autorità ha evidenziato che anche qualora i dati fossero provenienti da documenti pubblicamente disponibili (art. 24), il risultato elaborato dalla piattaforma fornisce delle «valutazioni reputazionali autonome, originali e del tutto distinte dalle informazioni originariamente acquisite» che richiedono un consenso al trattamento a se stante.

Le classificazioni dei quadri reputazionali di Mevaluate sarebbero inoltre in grado di condizionare la proiezione sociale di un individuo, tenuto anche conto della «oggettiva difficoltà di misurare situazioni, non sempre agevolmente classificabili o quantificabili», come è appunto la reputazione.

Un’altra ragione di illiceità è da riscontrarsi nella mancata affidabilità dell’algoritmo utilizzato per la costruzione del dato relativo alla reputazione, che viola il principio di qualità dei dati (art. 11, co 1, l) c), i quali debbono essere corretti non solo rispetto agli input, ma anche rispetto agli output del processo di analisi. Ne risulterebbero violate la dignità e l’identità personale.

Mentre la dignità è propriamente garantita nel campo giuslavoristico, l’identità personale del prestatore non è tutelata come un bene giuridico a se stante, perché non risulta sia collegato allo svolgimento della prestazione e non assume dunque autonoma rilevanza (principio necessario espresso dall’art. 8 St. lav. E dal art. 10, d.lgs. n. 276/2003). Sarebbe pertanto complicato predisporre tutele per un diritto che è espressione di elementi in larga parte inaccessibili al datore di lavoro.

Ma nell’odierno contesto tecnologico il quadro è nettamente mutato, poiché il trattamento automatizzato di dati a scopo di profilazione, potrebbe comportare una violazione di quella parte dell’identità personale che si riferisce alla professionalità, ponendo a rischio le caratteristiche “personalissime” del patrimonio intellettuale e valoriale del lavoratore, che non solo non dovrebbero entrare nella disponibilità del datore, ma che invece gli vengono fornite e per di più in modo poco preciso e parziale, amplificando così l’intensità della violazione dell’art. 8 dello Statuto.

Se l’attuale complesso normativo non risulta perfettamente al passo con le sfide della smart industry, per il futuro si prospettano strumenti più adeguati?

Il Nuovo Regolamento della Privacy europeo, che entrerà in vigore dal 25 maggio 2018, evidenzia quali sono le criticità della profilazione rispetto ad altre modalità di trattamento dei dati e richiede un’informativa rafforzata, non soltanto per la profilazione, ma per ogni trattamento automatizzato in presenza del quale l’interessato, il lavoratore, ha il «diritto di non essere sottoposto a una decisione basata unicamente» su di esso «che produca effetti giuridici che lo riguardano o che incida […] significativamente sulla sua persona», ciò tranne nelle ipotesi in cui il trattamento sia necessario per la conclusione di un contratto, si basi su consenso esplicito o ancora sia autorizzato dal diritto dell’Unione o di uno Stato membro (art. 13, comma 2 lett. f; art. 14, comma 2 lett. g, Reg. 679/2016 UE).

Anche nei casi di processo automatizzato a cui l’utente non può sottrarsi, è però comunque garantito il diritto di intervento, per evitare (v. art. 4, comma 1, n.4, Reg. 679/2016 UE) che siano prodotte e divulgate approssimazioni, a causa dalle correlazioni elaborate dalle tecniche di analisi dei dati.

Una formula vincente per una protezione dei dati immediata, potrebbe ricavarsi dal principio di privacy by design e by default introdotto dal nuovo Regolamento europeo. La nuova normativa impone infatti a tutti i responsabili del trattamento di adottare strumenti tecnologici in grado di configurare una protezione dei dati «per impostazione predefinita» (art.  25, Regolamento), senza lasciare discrezionalità nel momento successivo del trattamento dei dati e gli strumenti informatici prescelti devono riuscire ad escludere quei dati che non possono essere lecitamente trattati e quelli che non rispondono al principio di necessità.

Si tratterebbe dunque di applicare la protezione dei dati fin dal momento della progettazione degli strumenti di big data analytics, con filtri by desing impostati in modo da scartare ogni dato sulle attitudini personali del lavoratore. La tecnologia rivestirebbe così un ruolo centrale per la tutela delle situazioni giuridiche. Sarebbero dunque gli stessi sistemi di data analytics a fornire adeguati strumenti di tutela dei diritti fondamentali.


Bibliografia

Alvino, I nuovi limiti al controllo a distanza dell’attività dei lavoratori nell’intersezione fra le regole dello Statuto dei lavoratori e quelle del Codice della privacy, in Labour e Law Issues, Università di Bologna, in Vol. 2 n. 1, 2016.

Dagnino, People Analytics: lavoro e tutele al tempo del management tramite big data, in Labour e Law Issues, Università di Bologna, vol. 3, no. 1, 2017.

Donini, Profilazione reputazionale e tutela del lavoratore: la parola al Garante della Privacy, in Labour e Law Issues, Università di Bologna, vol. 3, no. 1, 2017.

Rota, Rapporto di lavoro e big data analytics: profili critici e risposte possibili, in Labour e Law Issues, Università di Bologna, vol. 3, 1, 2017

Ogriseg, Il Regolamento UE n. 2016/679 e la protezione dei dati personali nelle dinamiche giuslavoristiche: la tutela riservata al dipendente, in Labour e Law Issues, Università di Bologna, vol. 2, no. 2, 2016.

Provvedimento n. 488 del 24 novembre 2016, Garante per la Protezione dei Dati Personali, Piattaforma web per l’elaborazione di profili reputazionali – 24 novembre 2016.

D’acquisito – M. Naldi, Big data e protezione dei dati personali, in Big data e privacy by design, anonimizzazione, pseudonimizzazione, sicurezza, in I diritti nella “rete” della rete, diretto da F. Pizzetti, 2017, Giappichelli

Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Dalla Direttiva 95/46 al nuovo Regolamento europeo, Giappichelli, 2016.

Zeno-Zencovich, G. Giannone Codiglione, Ten legal perspectives on the “big data revolution”, Concorrenza e Mercato, vol. 23/2016.

E.Barraco e A. Sitzia,  Potere di controllo e privacy. Lavoro, riservatezza e nuove tecnologie, Ipsoa Guide operative, 2016.


Autore