Fonte: Pixabay

Diffondere immagini generate da IA diventa reato: ecco cosa cambia con la nuova legge

Con la nuova legge italiana, un deepfake può diventare reato

Pubblicato:

Stefania Cicirello

Stefania Cicirello

Content Specialist

Content writer, video editor e fotografa, ha conseguito un Master in Digital & Social Media Marketing. Scrive articoli in ottica SEO e realizza contenuti per social media, con focus su Costume & Società, Moda e Bellezza.

Dal 10 ottobre 2025 l’Italia ha compiuto un passo decisivo verso la regolamentazione dell’intelligenza artificiale: diffondere immagini, video o audio generati artificialmente, senza il consenso delle persone ritratte e con l’intento di danneggiarle, è ufficialmente un reato penale. È quanto stabilisce la legge n. 132/2025, pubblicata sulla Gazzetta Ufficiale a fine settembre e appena entrata in vigore. Si tratta della prima legge nazionale italiana interamente dedicata all’IA, e segna un punto di svolta nel tentativo di tutelare i cittadini da una delle minacce più insidiose dell’era digitale: i deepfake.

Cosa prevede la nuova norma

La legge introduce un nuovo articolo nel codice penale, il 612-quater, che definisce il reato di “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”.
In sintesi, chiunque pubblichi, condivida o ceda contenuti falsificati mediante IA – immagini, video o registrazioni vocali – senza il consenso della persona ritratta e in modo tale da causarle un danno, rischia da uno a cinque anni di reclusione.

Il testo non menziona esplicitamente il termine “deepfake”, ma la descrizione è inequivocabile: si parla di qualsiasi contenuto “idoneo a indurre in inganno sulla propria genuinità”. In altre parole, ogni simulazione visiva o sonora che possa far credere al pubblico che si tratti di materiale autentico, quando invece è frutto di manipolazione digitale, rientra in questa categoria.

La legge prevede inoltre che il reato sia punibile a querela della persona offesa, ma in alcuni casi la procedura diventa d’ufficio: ad esempio, se la vittima è una persona vulnerabile (come un minore o un soggetto con disabilità), oppure se l’atto è diretto contro una pubblica autorità o collegato ad altri reati di maggiore gravità.

Un passo avanti nella tutela digitale

L’approvazione di questa legge arriva in un momento storico in cui l’intelligenza artificiale generativa è sempre più accessibile. Strumenti in grado di creare immagini iperrealistiche, voci sintetiche o video manipolati sono ormai alla portata di chiunque, e i rischi per la privacy e la reputazione delle persone si moltiplicano.

Negli ultimi anni, i cosiddetti deepfake – contenuti digitali che imitano alla perfezione volti e voci reali – sono stati spesso usati per diffondere disinformazione, manipolare l’opinione pubblica o, peggio, colpire la dignità individuale, in particolare delle donne. Uno degli episodi più gravi ha riguardato l’app “Clothoff”, recentemente bloccata dal Garante per la Privacy dopo aver permesso la creazione di immagini pornografiche di persone reali, anche minorenni, senza alcuna verifica o consenso.

La legge italiana rappresenta una risposta concreta alle nuove forme di violenza digitale, riconoscendo che i danni provocati da un contenuto falso possono essere reali quanto quelli fisici o verbali.

Perché questa legge è importante

Fino ad oggi, i casi di manipolazione digitale potevano essere perseguiti solo attraverso norme generiche, come la diffamazione o la violazione della privacy. Con la legge 132/2025, invece, si stabilisce un reato specifico, che riconosce la gravità del danno causato dalle tecnologie di sintesi e dalle falsificazioni digitali.

Non si tratta di un provvedimento volto a limitare la libertà creativa o l’uso legittimo dell’intelligenza artificiale, ma di un argine contro l’abuso, soprattutto quando vengono coinvolti volti reali e identità personali. Il principio è chiaro: la tecnologia può essere uno strumento straordinario, ma non deve mai trasformarsi in un’arma di manipolazione o umiliazione.

Con questa norma, l’Italia si colloca tra i primi Paesi europei ad aver introdotto una legge nazionale sull’IA, anticipando parte delle misure contenute nell’AI Act europeo, che entrerà in vigore nel 2026. È un segnale forte: il diritto si sta muovendo per recuperare terreno rispetto all’evoluzione tecnologica, con l’obiettivo di bilanciare innovazione e responsabilità.

più popolari su facebook nelle ultime 24 ore

vedi tutti