AgenPress. “L’UNICEF è sempre più allarmato dalle segnalazioni di un rapido aumento del volume di immagini sessualizzate generate dall’Intelligenza Artificiale che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate.
I deepfake – immagini, video o audio generati o manipolati con l’Intelligenza Artificiale (IA) in modo da sembrare reali – vengono sempre più utilizzati per produrre contenuti sessualizzati che coinvolgono bambini, anche attraverso la “nudificazione”, dove gli strumenti di IA vengono utilizzati per spogliare o alterare gli abiti nelle foto per creare immagini falsificate di nudo o sessualizzate.
Nuove evidenze confermano la portata di questa minaccia in rapida crescita: in uno studio condotto da UNICEF, ECPAT e INTERPOL* in 11 paesi, almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno. In alcuni paesi, ciò rappresenta 1 bambino su 25, l’equivalente di un bambino in una classe tipica.
I bambini stessi sono profondamente consapevoli di questo rischio. In alcuni dei paesi oggetto dello studio, fino a due terzi dei bambini hanno dichiarato di temere che l’intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale. I livelli di preoccupazione variano notevolmente da un paese all’altro, sottolineando l’urgente necessità di misure più incisive di sensibilizzazione, prevenzione e protezione.
Dobbiamo essere chiari. Le immagini sessualizzate di bambini generate o manipolate utilizzando strumenti di IA sono materiale che costituisce abuso sessuale su minorenni (CSAM). L’abuso tramite deepfake è un abuso, e non c’è nulla di falso nel danno che provoca.
Quando viene utilizzata l’immagine o l’identità di un bambino, quel bambino è direttamente vittimizzato. Anche senza una vittima identificabile, il materiale relativo ad abusi sessuali su minorenni generato dall’IA normalizza lo sfruttamento sessuale dei bambini, alimenta la domanda di contenuti abusivi e presenta sfide significative per le forze dell’ordine nell’identificare e proteggere i bambini che hanno bisogno di aiuto.
L’UNICEF accoglie con grande favore gli sforzi degli sviluppatori di IA che stanno implementando approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei loro sistemi. Tuttavia, il panorama rimane disomogeneo e troppi modelli di IA non vengono sviluppati con adeguate misure di sicurezza. I rischi possono essere aggravati quando gli strumenti di IA generativa sono integrati direttamente nelle piattaforme dei social media, dove le immagini manipolate si diffondono rapidamente.
L’UNICEF chiede con urgenza le seguenti azioni per affrontare la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall’IA:
Che tutti i Governi amplino le definizioni di materiale di abuso sessuale su minorenni (CSAM) per includere i contenuti generati dall’IA e criminalizzino la sua creazione, acquisizione, possesso e distribuzione.
Che gli sviluppatori di IA implementino approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei modelli di IA.
Le aziende digitali devono impedire la diffusione di materiale di abuso sessuale su minorenni generato dall’Intelligenza Artificiale, non limitarsi a rimuoverlo dopo che l’abuso è avvenuto, e rafforzare la moderazione dei contenuti investendo in tecnologie di rilevamento, in modo che tale materiale possa essere rimosso immediatamente, non giorni dopo la segnalazione da parte della vittima o di un suo rappresentante.
Il danno causato dall’abuso dei deepfake è reale e urgente. I bambini non possono aspettare che la legge si adegui”.