Dichiarazione dell’UNICEF sulle immagini sessualizzate di bambini generate dall’Intelligenza Artificiale

- Advertisement -
- Advertisement -
AgenPress. “L’UNICEF è sempre più allarmato dalle segnalazioni di un rapido aumento del volume di immagini sessualizzate generate dall’Intelligenza Artificiale che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate.
I deepfake – immagini, video o audio generati o manipolati con l’Intelligenza Artificiale (IA) in modo da sembrare reali – vengono sempre più utilizzati per produrre contenuti sessualizzati che coinvolgono bambini, anche attraverso la “nudificazione”, dove gli strumenti di IA vengono utilizzati per spogliare o alterare gli abiti nelle foto per creare immagini falsificate di nudo o sessualizzate.
Nuove evidenze confermano la portata di questa minaccia in rapida crescita: in uno studio condotto da UNICEF, ECPAT e INTERPOL* in 11 paesi, almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno. In alcuni paesi, ciò rappresenta 1 bambino su 25, l’equivalente di un bambino in una classe tipica.
I bambini stessi sono profondamente consapevoli di questo rischio. In alcuni dei paesi oggetto dello studio, fino a due terzi dei bambini hanno dichiarato di temere che l’intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale. I livelli di preoccupazione variano notevolmente da un paese all’altro, sottolineando l’urgente necessità di misure più incisive di sensibilizzazione, prevenzione e protezione.
Dobbiamo essere chiari. Le immagini sessualizzate di bambini generate o manipolate utilizzando strumenti di IA sono materiale che costituisce abuso sessuale su minorenni (CSAM). L’abuso tramite deepfake è un abuso, e non c’è nulla di falso nel danno che provoca.
Quando viene utilizzata l’immagine o l’identità di un bambino, quel bambino è direttamente vittimizzato. Anche senza una vittima identificabile, il materiale relativo ad abusi sessuali su minorenni generato dall’IA normalizza lo sfruttamento sessuale dei bambini, alimenta la domanda di contenuti abusivi e presenta sfide significative per le forze dell’ordine nell’identificare e proteggere i bambini che hanno bisogno di aiuto.
L’UNICEF accoglie con grande favore gli sforzi degli sviluppatori di IA che stanno implementando approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei loro sistemi. Tuttavia, il panorama rimane disomogeneo e troppi modelli di IA non vengono sviluppati con adeguate misure di sicurezza. I rischi possono essere aggravati quando gli strumenti di IA generativa sono integrati direttamente nelle piattaforme dei social media, dove le immagini manipolate si diffondono rapidamente.
  • L’UNICEF chiede con urgenza le seguenti azioni per affrontare la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall’IA:
  •        Che tutti i Governi amplino le definizioni di materiale di abuso sessuale su minorenni (CSAM) per includere i contenuti generati dall’IA e criminalizzino la sua creazione, acquisizione, possesso e distribuzione.
  •         Che gli sviluppatori di IA implementino approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei modelli di IA.
  •         Le aziende digitali devono impedire la diffusione di materiale di abuso sessuale su minorenni generato dall’Intelligenza Artificiale, non limitarsi a rimuoverlo dopo che l’abuso è avvenuto, e rafforzare la moderazione dei contenuti investendo in tecnologie di rilevamento, in modo che tale materiale possa essere rimosso immediatamente, non giorni dopo la segnalazione da parte della vittima o di un suo rappresentante.
Il danno causato dall’abuso dei deepfake è reale e urgente. I bambini non possono aspettare che la legge si adegui”.
- Advertisement -

Potrebbe Interessarti

- Advertisement -

Ultime Notizie

- Advertisement -