Basta una foto pubblicata sui social, un software gratuito e pochi minuti di elaborazione per creare un’immagine falsa, ma perfettamente verosimile. È quanto accaduto alla giornalista Francesca Barra, che ha scoperto la circolazione online di immagini di sé nuda generate dall’intelligenza artificiale e caricate su un sito per adulti. Un episodio che ha scosso l’opinione pubblica, non solo per la brutalità del gesto ma per la consapevolezza che potrebbe accadere a chiunque. “Ho pensato ai miei figli e ho provato paura per ciò che avrebbero potuto leggere”, ha scritto sui social, denunciando pubblicamente la vicenda. La Polizia Postale ha avviato accertamenti, ma il messaggio di fondo è chiaro: la rete è un luogo dove la tecnologia può diventare un’arma, e difendersi è sempre più difficile.
Come nascono i deepfake
I deepfake nascono come un’evoluzione dell’intelligenza artificiale applicata all’immagine. Possono ricreare volti, voci e movimenti in modo realistico, partendo da foto reali o generandole da zero. Se usati in ambito artistico o cinematografico possono rappresentare una sperimentazione legittima, ma quando vengono impiegati per screditare, manipolare o umiliare, diventano una forma di violenza. Ancora più invasiva è la categoria dei deepnude, in cui l’algoritmo “spoglia” digitalmente i soggetti e li colloca in contesti sessualmente espliciti, diffondendo i materiali in rete senza il consenso delle persone ritratte. Le vittime, quasi sempre donne o ragazze, si trovano così esposte a un danno d’immagine devastante, con conseguenze psicologiche, professionali e familiari.
Contrastare la forma di abuso
Dal 2025 l’Italia ha introdotto una norma specifica per contrastare questa forma di abuso. La legge 132/2025, con l’articolo 612-quater del codice penale, punisce la “diffusione illecita di contenuti generati o alterati con sistemi di intelligenza artificiale”. Creare un deepfake non costituisce automaticamente un reato, ma diventa punibile nel momento in cui il materiale viene diffuso senza consenso, soprattutto se lede la dignità o la reputazione della persona ritratta. Le pene previste arrivano fino a cinque anni di reclusione, e in caso di minori la denuncia non richiede querela di parte. È un passo avanti importante, ma ancora insufficiente a fermare un fenomeno che corre più veloce della legge.
Come agire
Chi si accorge di essere vittima di una manipolazione digitale deve agire subito. Il primo passo è non cancellare le prove: screenshot, link e conversazioni possono rivelarsi determinanti per le indagini. È possibile presentare segnalazione alla Polizia Postale, anche attraverso il portale online, e rivolgersi a un avvocato per formalizzare la querela. Se il materiale è stato pubblicato su una piattaforma social, si può chiedere la rimozione immediata compilando i moduli ufficiali messi a disposizione da Meta, X, TikTok o Telegram. In parallelo, si può contattare il Garante per la Privacy, che in casi di revenge porn o deepnude può disporre un intervento d’urgenza per eliminare i contenuti e tutelare la vittima.
La prudenza prima di tutto
Difendersi in anticipo da questi attacchi, tuttavia, è complesso. Ogni fotografia resa pubblica online può essere potenzialmente riutilizzata, alterata o inserita in contesti falsi. La prudenza resta la prima barriera: limitare la condivisione di immagini personali, impostare la privacy dei profili social e ridurre la visibilità di informazioni sensibili può diminuire i rischi. Esistono anche strumenti di monitoraggio che permettono di ricevere notifiche quando il proprio nome appare in rete, come Google Alert o Talkwalker, ma non sempre sono sufficienti a individuare i contenuti diffusi nei circuiti più nascosti del web. La protezione reale, dunque, non può gravare solo sull’individuo: servono politiche più incisive e una responsabilità collettiva da parte di piattaforme e sviluppatori, chiamati a costruire sistemi di segnalazione e rimozione più rapidi e trasparenti.