APPROFONDIMENTI

| Nov 19, 2025

Deepfake reato: cosa prevede la Legge 132/2025

Disposizioni contro la diffusione illecita di contenuti generati o alterati con l'intelligenza artificiale
di Simonetta Chiariello, Giornalista

Abstract

Da Obama in manette a Macron tra i manifestanti: le immagini false create con l’intelligenza artificiale hanno fatto il giro del web in pochi minuti, tra ironia e preoccupazione. Ma quello che fino a ieri era un fenomeno senza controllo, oggi in Italia è reato. A porre un freno, la Legge 132/2025 entrata in vigore il 10 ottobre.

Le hanno viste tutti e hanno fatto il giro del web in pochi minuti: da Obama in manette a Macron che prende parte a una protesta tra i manifestanti. Le foto false create con l’uso dell’intelligenza artificiale hanno fatto sorridere i democratici dopo la pubblicazione di alcuni scatti di Donald Trump che viene arrestato. Ma il fenomeno ora è un reato, almeno in Italia.

Secondo la definizione del Garante per la Protezione dei Dati Personali (Gpdp) i deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali – come immagini e audio – riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. «La materia di partenza sono sempre i veri volti, i veri corpi e le vere voci delle persone, trasformati però in “falsi” digitali».

Un deepfake, infatti, può generare un momento mai avvenuto con persone mai conosciute, costringendo l’interlocutore di cui si è rubata l’identità a dire e fare cose di cui non condivide opinione e valore. Una minaccia per la dignità della persona e per la sua riservatezza.

 

Il caso di Arianna

È recente il caso di Arianna, studentessa pugliese di 19 anni che la scorsa estate ha denunciato sui social di essere stata vittima di deepfake. Secondo la sua testimonianza uno o più soggetti – ancora ignoti – le avrebbero sottratto una foto personale e poi, manipolandola digitalmente, l’avrebbero trasformata in un’immagine a sfondo sessuale. Una foto contraffatta poi comparsa su volantini e manifesti affissi tra le strade della sua città e nei luoghi che frequentava abitualmente. Un caso di revenge porn nato dall’uso scorretto e – ora – illecito dell’intelligenza artificiale.

La Legge 132/2025, entrata in vigore lo scorso 10 ottobre, ha infatti introdotto un nuovo delitto nel Codice Penale all’art. 612-quater: “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”.

Il testo recita: «Chiunque cagiona un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni».

Secondo la normativa, ogni contenuto creato o modificato tramite strumenti di AI deve essere chiaramente segnalato come tale, in modo comprensibile e ben visibile, così da garantire maggiore trasparenza e limitare l’uso ingannevole di tecnologie in grado di alterare la realtà.

La legge introduce inoltre una nuova aggravante applicabile quando un reato viene commesso sfruttando sistemi di intelligenza artificiale: ciò significa che le pene diventano più pesanti se l’uso dell’algoritmo rende l’azione più subdola, difficile da riconoscere o tale da mettere maggiormente in difficoltà la vittima. Tale inasprimento riguarda anche i reati in ambito economico, come l’aggiotaggio, e politico, come le interferenze sui diritti politici dei cittadini.

 

Il potere manipolativo del deepfake

I deepfake possono coinvolgere figure politiche o personaggi influenti e vengono spesso utilizzati per manipolare l’opinione pubblica. Video manipolati con l’intelligenza artificiale possono essere diffusi tra gli elettori di un determinato leader politico, mostrandolo mentre compie azioni illegali o moralmente discutibili. L’obiettivo è danneggiarne la reputazione e orientare le scelte di voto o le convinzioni delle persone. In questo modo, i deepfake favoriscono la circolazione di notizie false e alimentano fenomeni di disinformazione.

In questo scenario, l’Italia ha deciso di anticipare la posizione di tanti Stati europei adottando una normativa nazionale che si ispira ai principi dell’AI Act, ponendo al centro valori come trasparenza, supervisione umana, tutela dei diritti fondamentali e responsabilità penale in caso di uso illecito dei sistemi di intelligenza artificiale.

Se per quanto riguarda imprese e organizzazioni introduce sistemi di audit e responsabilità interna, nei confronti dei cittadini la normativa introduce nuove tutele contro manipolazioni tecnologiche e usi distorti.

Come visto, infatti, assicura maggiore chiarezza su contenuti generati artificialmente, diritto a essere informati quando si interagisce con sistemi automatizzati e garanzie contro manipolazioni digitali.

Una normativa che non frena le nuove tecnologie, ma contribuisce a renderle modelli di sviluppo responsabile e rispettoso dei diritti umani.

Ultimi articoli

Contattaci per avere maggiori informazioni

    al trattamento dei miei Dati Personali per la finalità di Marketing di cui alla sua sezione 3.b.

    al trattamento dei miei Dati Personali per la finalità di Personalizzare i nostri servizi di cui alla sua sezione 3.g.

    al trattamento dei miei Dati Personali per la finalità di Comunicazione a terze parti di cui sua alla sezione 3.b e 3.f.

    Potrebbe interessarti:

    Esplora i nostri archivi

    il futuro

    È UN PROGETTO INTELLIGENTE

    Intelligenza umana e intelligenza artificiale generativa saranno i due asset del futuro dell’umanità. Il nostro modo di vivere, di lavorare, di relazionarci, di acquistare e di vendere cambierà radicalmente e saper maneggiare le nuove tecnologie farà la differenza in un mondo sempre più tecnologico e competitivo. Noi abbiamo gli strumenti per essere preparati a tutto questo.