La pedopornografia online: l’utilizzo delle nuove tecnologie nel Codice penale italiano

di Leila Rota


Nell’ultimo decennio vi è stato un significativo incremento della produzione, condivisione e vendita di materiale pedopornografico online, causato principalmente dall’utilizzo congiunto di Internet – apparentemente anonimo, di portata globale e non interamente regolamentato – e delle nuove tecnologie, come le fotocamere degli smartphone, i servizi cloud storage e i social media, che ne hanno facilitato la moltiplicazione.

Infatti, sebbene tali immagini si trovino prevalentemente nel c.d. dark web, negli ultimi anni si è assistito a una rapida diffusione delle stesse anche attraverso canali più accessibili quali Telegram[1], Whatsapp e Facebook e le piattaforme di videogiochi come Minecraft, League of Legends e Fortnite[2] .

I numeri e le statistiche delineano una situazione critica: secondo il Report annuale del 2019 della Internet Watch Foundation, su un totale di 260.426 segnalazioni ricevute e analizzate, 132.730 contenevano materiale pedopornografico, il 25% in più rispetto all’anno precedente, di cui il 34% raffigurante bambini tra i 7-10 anni e il 48% tra gli 11-13. Inoltre, il 20% delle immagini riproduceva stupri e torture sessuali, per lo più ai danni di bambini di età inferiore ai dieci anni e ai neonati.[3]

Durante il 2019, le società tecnologiche hanno segnalato oltre 45 milioni di foto e video contenenti abusi sessuali su minori, il doppio dell’anno precedente[4].

Parimenti, il National Center for Missing and Exploited Children (NMEC), organizzazione non profit contro gli abusi sui minori, attraverso il proprio sistema di reporting centralizzato “CyberTipline” ha registrato 16.9 milioni di reports contenenti 69.1 milioni di immagini relative allo sfruttamento minorile[5].

La pornografia infantile viene definita come lo sfruttamento sessuale dei bambini, che a sua volta è stato definito in letteratura come l’uso dei bambini per soddisfare i bisogni sessuali degli altri, a scapito dei bisogni emotivi e fisici degli stessi[6].

Generalmente, tale materiale viene identificato con i termini Child Exploitation Material (cem) o Child Sexual Abuse Material (csam), preferiti a quello di “pornografia minorile” perché in grado di trasmettere la gravità dell’aggressione sessuale intrinseca alla produzione di materiale pedopornografico[7].

Le vittime sono proprio i bambini e, solitamente, con questo termine ci si riferisce a tutti coloro con un’età inferiore ai 18 anni, anche se ciò può variare a seconda delle giurisdizioni, così come l’età necessaria a prestare un valido consenso a svolgere attività sessuali[8].

L’ordinamento italiano disciplina il reato di pornografia minorile all’art. 600 ter c.p., introdotto con la legge n. 269 del 1998, che punisce condotte diverse – dalla produzione, reclutamento e induzione a partecipare a spettacoli pornografici, alla vendita, divulgazione e partecipazione a tali spettacoli – finalizzate alla strumentalizzazione sessuale del minore[9].

Inoltre, all’art. 14 della suddetta legge sono disciplinate una serie di attività di contrasto a cui è deputata la Polizia postale e delle telecomunicazioni, che pertanto può svolgere un ruolo attivo nelle indagini, come quello dell’agente sotto copertura[10]. Infatti, su richiesta dell’autorità giudiziaria possono essere svolte le attività necessarie per contrastare, tra gli altri, i delitti ex art. 600 ter c.p., commessi attraverso sistemi informatici, mezzi di comunicazione telematica ovvero reti di telecomunicazione disponibili al pubblico.

L’art. 600 ter c.p. è stato poi modificato dalla Legge 1°ottobre 2012, n. 172, a ratifica della Convention on the Protection of Children against Sexual Exploitation and Sexual Abuse del Consiglio d’Europa, cd. Convenzione di Lanzarote, che ne ha ampliato il testo integrandolo con la definizione di “pedopornografia” ovvero “ogni rappresentazione con qualunque mezzo, di un minore degli anni diciotto coinvolto in attività sessuali esplicite, reali o simulate, o qualunque rappresentazione degli organi sessuali di un minore di anni diciotto per scopi sessuali”[11].

La Giurisprudenza sul punto inizialmente riteneva configurato il reato ex art. 600 ter c.p. laddove vi fosse il pericolo di diffusione delle immagini o dei video, applicando in alternativa il reato ex art. 600 quater c.p., ossia la mera detenzione di materiale pedopornografico. Tuttavia, a fronte dell’utilizzo sempre più esteso di apparecchi tecnologici, come tablet e smartphone, dotati di telecamere e di pronto accesso a Internet, la Cassazione ha ritenuto anacronistico il precedente orientamento, considerando che oramai è “potenzialmente diffusiva qualsiasi produzione di immagini e video”[12], pertanto le Sezioni Unite hanno stabilito che, ai fini della integrazione del reato ex art. 600 ter c.p., non è necessario accertare in concreto il pericolo di diffusione di detto materiale[13].

In conclusione, l’art. 600 quater c.p. rappresenta una norma a chiusura di un sistema che mira a punire in toto qualsiasi condotta volta allo sfruttamento sessuale dei minori e al danneggiamento del loro corretto sviluppo psicofisico[14].

Al fine di intensificare la tutela contro qualsiasi forma di pornografia minorile, la Legge 6 febbraio 2006, n. 38, ha modificato i suddetti articoli, ampliandone la portata e inasprendone le pene, e ha introdotto l’art. 600 quater 1 c.p., che estende le disposizioni degli artt. 600 ter e 600 quater c.p. alla pornografia virtuale, cioè alle “immagini realizzate con tecniche di elaborazione grafica non associate in tutto o in parte a situazioni reali, la cui qualità di rappresentazione fa apparire come vere situazioni non reali”[15].

Tuttavia, posta la natura transnazionale di Internet, si è palesata sin da subito la necessità di dare una risposta organica e internazionale all’espansione di tale fenomeno, anche per favorire la assistenza giudiziaria reciproca tra gli Stati.

A tal fine, il primo passo è stata la costituzione di cooperazioni internazionali e di basi legislative unitarie, che fossero in grado di armonizzare le legislazioni vigenti in ogni paese sotto una comune definizione e disciplina dei reati di pedopornografia.

Il primo trattato in tal senso è stato la Convention on Cybercrime del Consiglio d’Europa, cd. Convenzione di Budapest, ratificata nel 2001 ed entrata in vigore nel 2004, che ha imposto agli Stati membri di rendere illegale la produzione, la distribuzione, l’offerta, l’acquisizione o il possesso di materiale pedopornografico tramite computer o dispositivi di archiviazione multimediale. Inoltre, ha regolamentato l’estradizione di indagati, la divulgazione e la conservazione dei dati informatici, l’accesso transfrontaliero ai dati informatici memorizzati e l’intercettazione di cem, divenendo così uno strumento chiave per le indagini transazionali[16].

Parimenti, grazie all’Optional Protocol to the Convention on the Rights of the Child on the sale of children, child prostitution and child pornography[17] che affianca la Convenzione onu sui Diritti dell’infanzia, ratificato in Italia con la legge 11 marzo 2002, n. 46[18], gli Stati aderenti si sono impegnati ad adottare tutte le misure necessarie al fine di rafforzare la cooperazione internazionale mediante accordi multilaterali tra le loro Autorità e le ong, per perseguire e punire i responsabili di reati connessi alla pornografia minorile.

Da ultimo, ai fini del tema ivi trattato, è opportuno riportare che a seguito della continua espansione delle nuove tecnologie, nel 2007, ai sensi della già citata Convenzione di Lanzarote[19] il Consiglio d’Europa ha rafforzato le leggi in materia e, per la prima volta in un trattato internazionale, il grooming online è stato istituto come reato autonomo[20].

Da tali premesse sono nate numerose organizzazioni internazionali, task force e database, contenenti terabyte di dati, milioni di immagini e centinaia di ore di video, come il Child abuse image database (caid) e l’International Child Sexual Exploitation (icse) della Interpol, al fine di facilitare le indagini e il conseguente potenziale arresto dei rei[21].

Tuttavia, vi sono ancora numerosi ostacoli connessi principalmente alla tempestività nella identificazione e conseguente rimozione del materiale, nonché nella velocità del processo – ancora per lo più manuale – di analisi delle foto dei database, delle investigazioni digitali e della condivisione delle informazioni con enti privati[22].

A ciò si aggiungano le conseguenze negative per le risorse organizzative: difatti, gli investigatori possono sviluppare sintomi simili a quelli da disturbo post-traumatico da stress, in seguito alla visualizzazione di immagini pedopornografiche.

Per tutto quanto sopra esposto, è emersa l’importanza della implementazione della tecnologia nelle indagini e alcuni ricercatori hanno proposto o introdotto nuovi strumenti per rilevare ed elaborare le csam, come l’AI (Artificial Intelligence), il riconoscimento facciale e i Chat Bot[23].

Un primo esempio è portato da Photodna, una tecnologia elaborata congiuntamente da Microsoft e dal Dartmouth College, in grado di creare una firma digitale unica (hash) associata a un’immagine presente in una parte del web, che potrebbe essere utilizzata a scopi pedopornografici. Tale impronta viene poi confrontata con altri hash di immagini illegali precedentemente identificate e contenute in un database interno; quando vengono abbinate le immagini, tramite Photodna è possibile rilevare l’utilizzo di materiale di sfruttamento minorile, eliminarlo e segnalarne la distribuzione[24]. Ancora, sono stati implementati nelle indagini digitali strumenti come Amazon Rekcognition[25], che si basano su sistemi di riconoscimento facciale e, in particolare, contrassegnano tutti i contenuti rilevanti per un determinato caso, catalogando e filtrando automaticamente le immagini, come contenenti vittime o criminali noti o dettagli che solitamente sfuggono all’occhio umano. Inoltre, tale tecnologia permette di raggruppare immagini simili tra loro, permettendo così agli investigatori di esaminare rapidamente tutte le prove correlate nonché di confrontare casi diversi, al fine di trovare relazioni e di trarre conclusioni più rapidamente e in modo più strutturato rispetto a un’analisi manuale[26]. Un ulteriore caso è portato dai Chat bot, ossia software in grado di dialogare e comunicare con gli esseri umani, i quali vengono utilizzati sia per identificare i rei di grooming, sia per intercettare gli scambi di materiale pedopornografico. Tra tutti, il sistema che ha avuto più fortuna è stato il progetto di Terre des Hommes “Sweetie”, una bambina virtuale di origine filippina di 10 anni, per mezzo della quale, nel 2013, è stato possibile ai ricercatori identificare un migliaio di predatori sessuali, sparsi in 71 paesi, in 10 settimane, utilizzando altresì le informazioni ottenute online, di dominio pubblico. Da qui è nato il progetto “Sweetie 2.0”, una versione potenziata, con l’obbiettivo di prevenire e scoraggiare l’utilizzo del web per abusare sessualmente dei minori[27].

Tali tecniche investigative sono di indubbio valore nelle indagini all’interno delle reti pedofile, tuttavia, vi sono alcune criticità connesse al loro utilizzo, con particolare riferimento al confine che delinea l’attività dell’agente sotto copertura e quella dell’agente provocatore. Il primo, difatti, si limita a osservare e a raccogliere elementi di prova in seguito ad una condotta criminosa, mentre il secondo opera in maniera attiva, incidendo causalmente sul comportamento del soggetto interessato.

Pertanto, quando l’acquisizione probatoria sfocia in una istigazione a delinquere e sussiste un nesso tra la condotta dell’agente sotto copertura e quella dell’indagato, vi è una grave compressione della libertà e del diritto di autodeterminazione dello stesso, tanto che la Corte edu, in questa particolare fattispecie, dichiara violato l’art. 6 cedu sul diritto a un equo processo e, di conseguenza, le prove ottenute con questa modalità sono inutilizzabili. La Corte, in tali circostanze, esegue una prova cd. but-for test of causation, volta a verificare in concreto se l’autore avrebbe comunque commesso l’illecito oppure se l’attività degli agenti abbia instillato un proposito criminoso, prima inesistente, decisivo per la commissione del reato.

Nei sistemi di Civil law, a differenza degli ordinamenti di Common Law, come quello statunitense, la legge individua specificatamente quali sono i poteri e le condotte consentite per le attività undercover, nonché quali procedure seguire e le autorità giudiziarie che hanno il compito di sorvegliarne la correttezza.

Il legislatore italiano ha disciplinato il suddetto strumento investigativo all’art. 9 della legge n. 146 del 2006[28], quale mezzo di ricerca probatorio in specifiche circostanze, dunque supponendo la preventiva acquisizione della notitia criminis e, quindi, scongiurandone una funzione istigativa.

Infatti, la normativa italiana prevede una riserva di legge, in forza della quale le attività sotto copertura sono autorizzate solo in determinate fattispecie – ad esempio, in ordine ai delitti ex art. 648 bis c.p., 648 ter c.p., 600 e ss. c.p. nonché a quelli concernenti armi, munizioni, esplosi – e una riserva di giurisdizione, per la quale l’autorizzazione deve essere disposta dagli organi di vertice, che sono tenuti, altresì, a darne preventiva comunicazione al pubblico ministero competente per le indagini.

Ciò è giustificato dal fatto che se venisse punito un soggetto per un reato commesso solo perché provocato, si vanificherebbe la funzione che la Costituzione attribuisce alla responsabilità penale e si perseguirebbero coloro che sono propensi a commettere un reato, storcendo il ruolo della giustizia penale. Per questo motivo, il sistema procedurale delineato nella predetta legge, consente che le operazioni sotto copertura si svolgano in un contesto ove l’iter criminis sia già avviato, scongiurando così una potenziale creazione ad hoc di un reato da parte degli agenti.

Questi sono alcune delle garanzie poste a tutela di un possibile uso distorto dei suddetti strumenti investigativi[29].


Note:

[1] Cfr. S. Fontana, Dentro il più grande network italiano di revenge porn, su Telegram, su Wired, 3 aprile 2020, in Internet all’indirizzo web https://www.wired.it/internet/web/2020/04/03/revenge-porn-network-telegram/ (sito web visitato in data 5 maggio 2020).

[2] Cfr. R. Broadhurst, Child Sex Abuse Images and Exploitation Materials, in Roger Leukfeldt & Thomas Holt, Eds. Cybercrime: the human factor, Routledge, 2019.

[3] Cfr. Internet Watch Foundation, Annual Report 2019, in Internet all’indirizzo web https://www.iwf.org.uk/report/iwf-2019-annual-report-zero-tolerance (sito web consultato in data 7 maggio 2020).

[4] Cfr. M. H. Keller, G. J.X. Dance, The Internet Is Overrun With Images of Child Sexual Abuse. What Went Wrong?, in New York Times, 29 Settembre 2019, in Internet al sito web https://www.nytimes.com/interactive/2019/09/28/us/child-sex-abuse.html (sito web visitato in data 5 maggio 2020).

[5]Cfr. National Center for Missing and Exploited Children, in Internet all’indirizzo web https://www.missingkids.org/gethelpnow/cybertipline (sito web consultato il 5 maggio 2020).

[6] Cfr. L. C. Esposito, Regulating the Internet: The New Battle against Child Pornography, in Case Western Reserve Journal of International Law, Volume 30, Issue 2, 1998.

[7] Cfr. 2

[8] La Convenzione delle Nazioni Unite sui diritti del fanciullo del 1989 (UNCRC) definisce, all’art. 1, un bambino come una persona di età inferiore ai 18 anni, salvo che le leggi di un determinato paese stabiliscano un limite maggiore o minore per l’età adulta.

[9] Cfr. Legge 3 agosto 1998, n. 269, Norme contro lo sfruttamento della prostituzione, della pornografia, del turismo sessuale in danno di minori, quali nuove forme di riduzione in schiavitù, pubblicata in G.U. Serie Generale n. 185, il 10 agosto 1998.

[10] Cfr. L. Luparia, G. Ziccardi, Investigazione penale e tecnologia informatica. L’accertamento del reato tra progresso scientifico e garanzie fondamentali, Giuffrè, Milano, 2007.

[11] Cfr. Legge 1° ottobre 2012, n. 172, Ratifica ed esecuzione della Convenzione del Consiglio d’Europa per la protezione dei minori contro lo sfruttamento e l’abuso sessuale, fatta a Lanzarote il 25 ottobre 2007, nonché’ norme di adeguamento dell’ordinamento interno, pubblicata in G.U. Serie Generale n. 235, l’8 agosto 2012.

[12] Cfr. G. Luigi, L’evoluzione giurisprudenziale del reato di pornografia minorile, in Diritto Penale e Processo, n. 12/2019, Ipsoa, Milano.

[13] Cfr. Corte di Cassazione, Sez. Unite Penale, Sentenza 31 maggio 2018, n. 51815.

[14] Cfr. 12

[15] Cfr. Legge 6 febbraio 2006, n. 38, Disposizioni in materia di lotta contro lo sfruttamento sessuale dei bambini e la pedopornografia anche a mezzo Internet, pubblicata in G.U., Serie Generale n.38, il 15 febbraio 2006.

[16] Cfr. Council of Europe, Convention on Cybercrime, ETS No.185, Budapest, 23 november 2001.

[17] Cfr. United Nations, Optional Protocol to the Convention on the Rights of the Child on the sale of children, child prostitution and child pornography, in Treaty Series, Vol. 2171, 25 May 2000, in Internet all’indirizzo web https://www.ohchr.org/EN/ProfessionalInterest/Pages/OPSCCRC.aspx (sito web visitato il 10 maggio 2020).

[18] Cfr. Legge 11 marzo 2002, n. 46, Ratifica ed esecuzione dei protocolli opzionali alla Convenzione dei diritti del fanciullo, concernenti rispettivamente la vendita dei bambini, la prostituzione dei bambini e la pornografia rappresentante bambini ed il coinvolgimento dei bambini nei conflitti armati, fatti a New York il 6 settembre 2000, pubblicata in G.U., Serie Generale n.77, il 2 aprile 2002.

[19] Cfr. Council of Europe, Council of Europe Convention on the Protection of Children against Sexual Exploitation and Sexual Abuse, cets No.201, Lanzarote, 25 ottobre 2007.

[20] Cfr. 2

[21] Alcune delle realtà più attive sono: la End Child Sexual Exploitation (ecpat), l’European Cybercrime Centre (ec3), la Virtual Global Taskforce (vgt), il National Child Victim Identification Program (ncvip), il Cospol Internet Related Child Abusive Material Project, circamp, progetto di cui è membro anche l’Italia e che utilizza il filtro anti distribuzione di materiale pedopornografico, bloccando i domini dei siti web sospetti.

[22] Cfr. K. V. Acar, Framework for a Single Global Repository of Child Abuse Materials, in Global Policy, Volume 11, Issue 1, February 2020.

[23] Cfr. L. Sanchez, C. Grajeda, I. Baggili, C. Hall, A Practitioner Survey Exploring the Value of Forensic Tools, AI, Filtering, & Safer Presentation for Investigating Child Sexual Abuse Material (CSAM), in Digital Investigation, 29, 2019.

[24] Cfr. Microsoft Corporation, in Internet all’indirizzo web https://www.microsoft.com/en-us/PhotoDNA (sito web consultato il 10 maggio 2020).

[25] Il progetto Spotlight, sviluppato dalla Ong Thor, utilizza il sistema di Amazon Facial Rekognition, in Internet all’indirizzo web https://www.thorn.org/spotlight/ e https://aws.amazon.com/it/solutions/case-studies/thorn/.

[26] Cfr. J. Hofmann, How facial recognition is helping fight child sexual abuse, in Biometric Technology Today, Volume 2020, Issue 3, 2020.

[27] Cfr. S. van der Hof, I. Georgieva, B. Schermer & B.J. Koops, Sweetie 2.0: Using Artificial Intelligence to Fight Webcam Child Sex Tourism, T.M.C. Asser Press, The Hague, The Netherlands, 2019.

[28] Cfr. Legge 16 marzo 2006, n. 146, Ratifica ed esecuzione della Convenzione e dei Protocolli delle Nazioni Unite contro il crimine organizzato transnazionale, adottati dall’Assemblea generale il 15 novembre 2000 ed il 31 maggio 2001, pubblicata in G.U., Serie Generale n.85, l’11 aprile 2006.

[29] Cfr. B. Fragasso, L’estensione delle operazioni sotto copertura ai delitti contro la pubblica amministrazione: dalla giurisprudenza della Corte Edu, e dalle Corti Americane, un freno allo sdoganamento della provocazione poliziesca, in Diritto Penale Contemporaneo, 5 marzo 2019, in Internet all’indirizzo web https://archiviodpc.dirittopenaleuomo.org/d/6530-lestensione-delle-operazioni-sotto-copertura-ai-delitti-contro-la-pubblica-amministrazione-dalla-gi#_ftn51.


Autore:

 

it_IT
en_US it_IT