Skip to main content

La tutela della reputazione nella diffusione di contenuti generati con intelligenza artificiale – focus sul fenomeno Deepfake

di Francesca Gollin


La tutela dell’immagine personale e della riservatezza, che costituiscono diritti assoluti tutelati a livello costituzionale (artt. 2, 3, 13, 14 e 15 Cost.), è oggi esposta a nuove minacce legate alla manipolazione e riproduzione di contenuti digitali ottenuti tramite l’uso dell’intelligenza artificiale (IA). In particolare, l’evoluzione dei cosiddetti sistemi generativi ha reso possibile la creazione di contenuti audiovisivi falsi, ma estremamente realistici, capaci di alterare la percezione pubblica di una persona, compromettendone la reputazione, la dignità e l’identità.

Questo articolo si propone di descrivere brevemente i meccanismi di funzionamento dei tool di intelligenza artificiale, per poi focalizzare l’attenzione sul reato di deepfake e sulle nuove tutele normative introdotte in Italia con la Legge n. 132/2025, che rappresenta il primo intervento organico nazionale in materia di IA.

In cosa consiste l’intelligenza artificiale

Il Regolamento UE 2024/1689 (l’AI Act), descrive l’intelligenza artificiale come un sistema automatizzato capace di operare con vari livelli di autonomia e di generare output (come previsioni o contenuti) che influenzano ambienti fisici o virtuali

Nello specifico, i tool di intelligenza artificiale operano attraverso l’elaborazione di grandi quantità di dati (input) e l’applicazione di algoritmi, con l’obiettivo di generare risposte e previsioni (output) volti a identificare schemi, formulare previsioni e supportare processi decisionali.

L’obiettivo dell’IA è migliorare l’efficienza e supportare o sostituire l’intervento umano in determinate attività.

Il deepfake rappresenta un’applicazione dell’intelligenza artificiale per cui si raccolgono immagini/video o la voce di una persona e si utilizza il modello di IA per creare nuovi contenuti realistici, ad esempio un video in cui una persona dice o fa qualcosa, ovvero un’immagine modificata con l’uso del volto di una determinata persona.

Il Deepfake

Il Garante per la protezione dei dati personali definisce il Deepfake come un insieme di “foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce

Si rientra nell’ambito del Deepfake, quindi, quando un contenuto digitale (video, audio o immagine) è generato o manipolato mediante intelligenza artificiale per riprodurre in modo realistico persone, voci o situazioni mai avvenute, inducendo l’utente a credere nella loro autenticità.

Il Deepfake non nasce come un fenomeno dalle accezioni negative. In un’ottica positiva, il Deepfake si riferisce alla manipolazione di suoni e immagini a scopi commerciali o di supporto nei processi aziendali, come la creazione di una campagna pubblicitaria interattiva, con personalizzazione di contenuti pubblicitari con volti noti o testimonial virtuali, ovvero simulazioni realistiche e creazioni di ambienti digitali utili in ambito medico e formativo. I principali vantaggi derivanti dal Deepfake in ambito aziendalistico includono una riduzione dei costi e dei tempi di produzione, grazie alla manipolazione digitale.

Ancora, il Deepfake ha scopi utili quando usato per anonimizzare persone in video sensibili (es. testimoni o vittime) o per creare avatar parlanti per persone con disabilità comunicative.

Tuttavia, è noto come il Deepfake si presti ad utilizzi molto pericolosi volti a perpetrare frodi, disinformazione e violazioni della privacy.

Diverse sono le condotte dannose che possono essere realizzate attraverso l’utilizzo dell’intelligenza artificiale, tra cui l’uso non autorizzato del volto o della voce di una persona, la diffusione di fake news con contenuti visivi altamente credibili, la creazione di contenuti falsi idonei a danneggiare la reputazione di persone e aziende, la generazione di contenuti offensivi o umilianti con il volto di una persona, che possono sfociare nel fenomeno del cyberbullismo.

La Legge n. 132/2025 e i principi dell’AI Act

In tale contesto, e per contrastare questo tipo di utilizzo dei sistemi di intelligenza artificiale, è stata emanata la Legge n. 132/2025, recante la disciplina nazionale sull’intelligenza artificiale, allo scopo di adeguare il diritto penale e commerciale alle nuove forme di condotta illecita rese possibili dalle tecnologie digitali, in conformità con i principi del Regolamento europeo sull’intelligenza artificiale (AI Act).

La legge introduce un nuovo articolo 612-quater nel codice penale, rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, e collocato tra i delitti contro la libertà morale. L’obiettivo è la tutela della dignità, della reputazione e dell’identità personale delle vittime di manipolazioni digitali, con particolare riguardo al fenomeno dei deepfake e della disinformazione visiva.

La norma stabilisce che chiunque, senza il consenso dell’interessato, cede, pubblica o diffonde immagini, video o voci falsificati o alterati mediante IA, idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.

Il reato è punibile a querela della persona offesa, ma si procede d’ufficio se il fatto:

  • è connesso con un delitto perseguibile d’ufficio;
  • è commesso nei confronti di persona incapace (per età o infermità);
  • oppure è rivolto contro una pubblica autorità per ragioni connesse alle funzioni esercitate.

Va evidenziato che la norma, per quanto miri a proteggere l’identità digitale e contrastare la disinformazione, suscita perplessità tra i giuristi in quanto non è di facile prova né “l’idoneità a indurre in inganno”, né la prova del dolo (ovvero la coscienza e volontà della manipolazione del contenuto) in capo a colui che ha diffuso il contenuto.

Diversi sono i casi, infatti, in cui gli utilizzatori dei sistemi di IA sono ignari dei rischi che comporta il loro utilizzo e delle necessarie precauzioni da adottare, consistenti in particolare nell’ottenere il consenso esplicito delle persone ritratte prima di utilizzare o modificare le loro immagini, nel rispettare la normativa sulla protezione dei dati personali (GDPR), e nell’assicurarsi che l’uso delle immagini non leda la dignità, la reputazione o la privacy degli individui coinvolti.

Sul tema, è opportuno richiamare i principi di trasparenza e supervisione umana previsti nell’AI Act, che impongono che i sistemi di IA siano sottoposti a controllo umano. Questo significa che:

  • deve esserci una persona responsabile del contenuto diffuso;
  • l’output dell’IA non può essere pubblicato senza verifica;
  • in caso di danno, si può risalire al soggetto che ha omesso il controllo.

AI Act e Legge 132 vanno quindi di pari passo: da un lato, l’AI Act prevede un obbligo di dichiarazione in caso di generazione di contenuti digitali con l’IA, nonché l’esercizio di una supervisione umana adeguata. 

In caso di inosservanza di tali obblighi, il soggetto leso può agire in sede civile e regolamentare a tutela della propria reputazione e dignità personale.

Dall’altro lato, la Legge 132 potenzia l’applicazione dei principi europei riguardanti l’uso dell’intelligenza artificiale in ambito penalistico, in caso di divulgazione di contenuti falsi, diffusi senza consenso e idonei a creare un danno alla persona interessata.

Conclusione

La sfida del nostro tempo è trovare un equilibrio tra innovazione e protezione. Le potenzialità dell’intelligenza artificiale devono essere incanalate entro limiti etici e giuridici che garantiscano il rispetto dei diritti fondamentali. La personalità, la dignità e la reputazione non possono essere sacrificate in nome di interessi tecnologici ed economici.

La Legge 132/2025, unitamente all’AI Act, rappresenta un passo importante, ma sarà fondamentale accompagnarla con educazione digitale, formazione professionale e consapevolezza sociale, affinché l’IA sia davvero uno strumento al servizio dell’uomo, e non una minaccia alla sua identità.


Autrice:

Francesca Gollin

en_US