Negli ultimi mesi, la parola deepfake è comparsa sempre più spesso nelle cronache internazionali.
La settimana scorsa, parlando dei suicidi in Corea, ho citato questo fenomeno vale la pena fare chiarezza, perché il deepfake non è solo una curiosità tecnologica: è una minaccia sempre più concreta, in Corea del Sud come in Italia.
Cos’è un deepfake, definizione, sviluppo e uso
Il termine nasce dalla crasi tra due parole inglesi: deep learning (apprendimento profondo, cioè l’intelligenza artificiale che “impara” da sola) e fake (falso).
Un deepfake è un contenuto digitale — immagine, video o audio — manipolato tramite intelligenza artificiale, in grado di combinare materiale reale e generato al computer per creare una scena che non è mai avvenuta, ma che sembra assolutamente autentica agli occhi di chi la guarda.
La tecnologia alla base dei deepfake nasce dagli sviluppi dell’intelligenza artificiale applicata alle immagini, in particolare alle reti neurali capaci di ricreare volti e movimenti umani con un alto grado di realismo.
Ma, contrariamente a quanto si tende a credere, le prime applicazioni concrete non furono artistiche né scientifiche.
Il fenomeno esplose nel 2017 su Reddit, quando un utente anonimo, con lo pseudonimo deepfakes, cominciò a diffondere video pornografici manipolati in cui i volti di attrici famose venivano sovrapposti a corpi altrui.
Da lì, la tecnologia si diffuse rapidamente, e già nel 2019 un report di Deeptrace Labs stimava che oltre il 95% dei deepfake online avesse un contenuto pornografico non consensuale.
Solo in seguito si sono moltiplicati gli esperimenti legittimi — nel doppiaggio, negli effetti speciali o nella preservazione digitale del patrimonio visivo — ma l’origine del fenomeno resta profondamente legata alla violenza di genere digitale.
Corea del Sud: l’epidemia dei deepfake sessuali
In Corea del Sud, il fenomeno ha assunto proporzioni drammatiche. Negli ultimi anni sono emersi migliaia di video deepfake a sfondo sessuale, diffusi senza consenso, spesso con protagoniste ragazze minorenni.
Ad agosto 2024 sono state scoperte chat su Telegram in cui studenti universitari e adolescenti condividevano immagini manipolate di ragazze, accompagnate con dati personali. Alcuni gruppi contavano migliaia di membri, rendendo difficile fermare la diffusione del materiale.

Il fenomeno non ha risparmiato nemmeno le celebrità. L’idol Bang Chan, leader del gruppo K-pop Stray Kids, ha denunciato la creazione di un deepfake che lo ritraeva in una situazione compromettente, spingendo così le autorità a intervenire.
La reazione della Corea del Sud
Sotto la pressione dell’opinione pubblica, il Parlamento sudcoreano ha approvato il 26 settembre 2024 una legge storica. E’ ora illegale non solo produrre e distribuire, ma anche guardare o possedere materiale deepfake di natura sessuale.
Una svolta importante, certo, ma non sufficiente. Secondo i dati più recenti della Korea Communications Standards Commission, i casi segnalati nel 2025 sono in continuo aumento, specialmente tra adolescenti. Le autorità hanno bloccato, limitato o cancellato migliaia di video deepfake, ma la facilità con cui queste immagini vengono generate e condivise rende la lotta impari.
In Corea, come nel resto del mondo, la legge insegue una tecnologia che corre troppo velocemente.
Italia: il caso “Mia Moglie” e il sito Phica.net
Anche in Italia, il tema dei deepfake e della violenza digitale è esploso di recente, con due casi che hanno profondamente scosso l’opinione pubblica.
Il primo riguarda il gruppo Facebook “Mia Moglie”, nato nel 2019 e arrivato a contare oltre 32.000 membri.
In questo spazio, uomini condividevano foto private di donne — mogli, compagne, colleghe o sconosciute — accompagnandole con commenti sessisti e degradanti. Dopo settimane di denunce, Meta ha chiuso il gruppo il 20 agosto 2025.
Pochi giorni dopo, è emerso un caso ancora più grave: il sito Phica.net (poi Phica.eu), attivo dal 2005, con centinaia di migliaia di utenti registrati. Ospitava foto rubate e manipolate, comprese immagini deepfake di figure pubbliche come Giorgia Meloni, Elly Schlein e Mara Carfagna.
Alcune vittime hanno raccontato di essere state costrette a pagare fino a 1.000 euro per far rimuovere le proprie immagini, in una forma di estorsione non solo economica ma emotiva.
Il sito è stato oscurato dopo l’intervento della Polizia Postale e del Garante della Privacy, ma — come sempre accade online — il danno resta: screenshot, copie e archivi continuano a circolare.
Un problema globale, non solo tecnologico
Che accada in Corea o in Italia, il messaggio è lo stesso: la violenza digitale contro le donne è un problema sistemico, che non riguarda solo la tecnologia ma la cultura che ci circonda — una cultura fatta di silenzi, complicità e normalizzazione dell’abuso.
Le leggi servono, ma non bastano. Abbiamo bisogno di educazione digitale, consapevolezza e responsabilità collettiva.
Non restiamo in silenzio: impariamo a riconoscere questi abusi, a denunciarli e a pretendere che chi li compie — e chi li ospita — ne risponda davvero.
I migliori contenuti in un clic!
📲 Seguimi su Instagram per aggiornamenti quotidiani!
📬 Vuoi essere sempre aggiornato? Iscriviti alla newsletter per non perderti i nuovi articoli e contenuti esclusivi. Entra anche tu a far parte del Pink Dragon Club!
💃 Seguimi su TikTok per tutte le News più interessanti!
🎧 Scopri il Podcast “Dentro le Storie”. Ascolta le recensioni, le mie riflessioni su tematiche di attualità, recensioni, temi sociali e tanto altro!
📘 Pagina Facebook Vale.into.drama: Scopri i nuovi articoli, i post più recenti e i contenuti più esclusivi legati a drama, Corea ed Estremo Oriente!
🫰 Gruppo Facebook Vale.into.drama: La Community: Cerchi consigli sui drama orientali? Entra nella nostra Community e condividi la tua passione con migliaia di altri fan.
👥 Unisciti al Canale Telegram per avere un contatto diretto con me e discutere insieme delle ultime novità.
🧵 Threads: Commenti rapidi sulle News dall’Asia. Seguimi su Threads!
Scopri le altre News dall’Asia



Lascia un commento