C’è un nuovo nome nell’elenco nero dei portali che alimentano la pornografia non consensuale: SocialMediaGirls.com. Dietro l’apparenza di un forum per adulti, si nasconde una rete di violazioni della privacy che coinvolge donne comuni e celebrità. Dopo il caso di Phica.eu, questo nuovo sito utilizza l’intelligenza artificiale per “spogliare” qualunque immagine femminile, trasformando fotografie normali in nudi iperrealistici senza alcun consenso.
A far esplodere il caso è stata la giornalista Francesca Barra, che ha raccontato pubblicamente la propria esperienza: “Mi sono ritrovata nuda su quel sito. È una violenza che marchia la dignità”. La sua denuncia ha spinto la polizia postale ad avviare accertamenti sui contenuti e sul funzionamento della piattaforma, che si presenta come un forum “privato” accessibile solo previa registrazione.
Nelle sezioni del sito compaiono nomi noti dello spettacolo e della cultura italiana: Chiara Ferragni, Anna Tatangelo, Cristina D’Avena, Maria De Filippi, Diletta Leotta, Benedetta Parodi, Selvaggia Lucarelli, Maria Elena Boschi, Annalisa, Andrea Delogu, Angelina Mango e molte altre. Immagini create digitalmente o rubate, spesso accompagnate da commenti sessisti, richieste di nuovi contenuti e conversazioni che sfociano nella violenza verbale.
Il cuore del problema è tecnologico. Sul sito viene pubblicizzata una app a pagamento, chiamata AI Undress Porn, capace di generare nudi realistici con pochi click. È sufficiente caricare una foto — anche presa dai social — per ottenere un’immagine completamente manipolata. Uno strumento che trasforma l’intelligenza artificiale in un’arma di violenza digitale, rendendo possibile la creazione di materiale pornografico falso e altamente credibile.
Ma il forum non si limita ai deepfake. Una parte dei contenuti proviene da telecamere di sorveglianza o dispositivi nascosti in luoghi pubblici, come bagni, camerini e ostelli. Un intreccio di voyeurismo, furto di dati e sfruttamento sessuale che agisce nell’ombra del web.
La scoperta di SocialMediaGirls.com solleva un interrogativo urgente: quante altre piattaforme simili esistono online, invisibili ai motori di ricerca e coperte da anonimato? Le leggi contro la pornografia non consensuale e i deepfake porn sono ancora frammentarie, e il ritmo dello sviluppo tecnologico rende difficile il controllo preventivo.
Organizzazioni, giornalisti e vittime chiedono una risposta immediata e coordinata: più strumenti legali, una maggiore responsabilità delle piattaforme e una cultura digitale che riconosca questa forma di abuso per ciò che è — una violenza sessuale a tutti gli effetti.



