UnlucidAI è la nuova minaccia digitale: così i pedofili denudano i bambini online

- Advertisement -
- Advertisement -

AgenPress. Una nuova realtà criminale si nasconde all’interno di reti digitali lontane da ogni supervisione, il nome è “UnlucidAI”, ed è la più recente scoperta resa nota dall’associazione Meter che da oltre trent’anni è in prima linea contro la pedocriminalità online. Secondo le indagini dell’organizzazione guidata dal prete anti pedofilia Fortunato Di Noto, questa piattaforma è in grado di “denudare” virtualmente immagini di minori, creando contenuti pedopornografici tramite intelligenza artificiale. Non si tratta di una tecnologia relegata al solo dark web: viene diffusa anche nel web ordinario, attraverso gruppi crittografati gestiti da pedocriminali. Questi ambienti ospitano comunità che scambiano contenuti illegali, aggirando i controlli tradizionali.

Meter ha già allertato le autorità competenti e lancia ora un appello ai media e alla società civile: “Questa non è una tecnologia di gioco né una deriva innocente dell’intelligenza artificiale — si tratta di uno strumento di abuso, che contribuisce alla produzione e diffusione di contenuti profondamente disumani”, afferma Don Fortunato Di Noto.

Già in passato applicazioni simili — come “Bikini Off”, segnalata nel 2023 — avevano suscitato scalpore e richieste di intervento normativo. Tuttavia, la novità inquietante di UnlucidAI è che viene impiegata per agire su immagini di minori, di neonati. Questo rappresenta una gravissima escalation che richiede una risposta efficace e coordinata.

Tecnologia criminale e IA generativa

L’Associazione Meter condanna la piattaforma definita dai pedopornografi “uno strumento per la creazione di contenuti privi di censura” che sfrutta l’intelligenza artificiale generativa per manipolare foto di bambini, ricostruendo digitalmente i loro corpi in modo falso ma verosimile, denudandoli.

Pur dichiarando nei propri termini d’uso il divieto di generare immagini che rappresentino abusi su minori, UnlucidAI non impedisce tecnicamente la creazione di tali contenuti. Gli utenti riescono così a produrre e condividere materiale pedopornografico sintetico, approfittando dell’assenza di blocchi efficaci e di controlli reali sulla generazione delle immagini.

L’indagine Meter: il 59,4% dei giovani teme il deepnude

Secondo un’indagine condotta da Meter (Dossier IA, conoscere per prevenire, 2025) su un campione di 989 ragazzi tra i 14 e i 18 anni, il 92% degli intervistati ha già utilizzato almeno una volta una chatbot. Tuttavia, accanto a questa diffusione dell’IA, emergono dati preoccupanti: il 65,7% dei giovani conosce il fenomeno dei deepnude, e il 59,4% esprime timori concreti per la creazione e la diffusione di questi contenuti.
Ancora più allarmante è il fatto che il 52,3% degli adolescenti dichiara di non riuscire a distinguere un video deepfake da uno reale. C’è però un segnale positivo: il 90,5% riconosce che la diffusione di contenuti falsificati rappresenta un pericolo serio e il 65,1% afferma che denuncerebbe senza esitazione chi li condivide.
Tra i principali timori: la perdita della privacy, i danni alla reputazione e la crescente difficoltà nel distinguere tra verità e manipolazione digitale.

Appello alle istituzioni e ai colossi del web

Meter chiede una mobilitazione immediata delle istituzioni italiane ed europee, oltre che un intervento diretto delle piattaforme di hosting, social network e motori di ricerca per individuare e bloccare ogni tentativo di diffusione di questo strumento criminale.

“Non si tratta solo di contrastare un servizio digitale — è una battaglia culturale, etica e giuridica. Chi sviluppa o distribuisce queste tecnologie è complice di reati gravissimi”, afferma il fondatore di Meter. “Siamo di fronte a un crimine senza contatto”.

- Advertisement -

Potrebbe Interessarti

- Advertisement -

Ultime Notizie

- Advertisement -