La pedopornografia online generata dall’IA

Il report 2023 dell’Internet Watch Foundation (IWF) rivela una crescita preoccupante di materiale pedopornografico generato dall’intelligenza artificiale (IA). Negli ultimi sei mesi, le segnalazioni hanno superato quelle dell’intero anno precedente, con immagini spesso ospitate su siti pubblici, rendendo difficile distinguere tra vittime reali e creazioni IA.

un volto che rappresenta la violenza

Tempo di lettura:

2 minuti


Internet Watch Foundation (IWF) è un’organizzazione Britannica senza scopo di lucro che si occupa da quasi trent’anni della protezione dei minori online, alla ricerca di abusi sessuali su minori, perpetrati online, e tentando di rimuovere qualsiasi traccia online dell’abuso.

Nell‘ ultimo report annuale, dal titolo “What has changed in  the AI CSAM landscape?” (“Cosa è cambiato nel panorama del Materiale di Abuso Sessuale su Minori generato dall’intelligenza artificiale?”) IWF ha riscontrato una significativa crescita nella produzione e fruizione online di questi materiali pedopornografici generati con l’ausilio dell’IA.

Negli ultimi sei mesi, l’IWF ha registrato un notevole aumento delle segnalazioni di materiale generato dall’intelligenza artificiale, superando già il totale delle segnalazioni dell’intero anno precedente. Quasi tutte le immagini sono state trovate su siti pubblici, evidenziando la crescente accessibilità di questi contenuti. Il direttore esecutivo ad interim dell’IWF, Derek Ray-Hill, ha sottolineato che la sofisticazione di queste immagini suggerisce che gli strumenti di IA siano stati addestrati su immagini e video di vittime reali. “Gli ultimi mesi dimostrano che questo problema non sta scomparendo e anzi sta peggiorando”, ha dichiarato Ray-Hill.

Un analista dell’IWF ha aggiunto che il fenomeno sta raggiungendo un “punto di svolta”, dove diventa sempre più difficile per le autorità determinare se un’immagine rappresenti un minore reale o una creazione generata dall’IA. Questo sta complicando le operazioni di controllo, rendendo difficile stabilire se ci sia una vittima reale bisognosa di aiuto.

Nel corso del semestre appena concluso, l’IWF ha agito su 74 segnalazioni di materiale generato dall’IA sufficientemente realistico da violare le leggi del Regno Unito. Le immagini includono non solo vittime reali, ma anche deepfake in cui pornografia per adulti è manipolata per farla sembrare materiale di abuso su minori. Inoltre, l’IA è utilizzata per “nudificare” immagini di bambini vestiti trovate online. La maggior parte dei server che ospitano questi contenuti si trovano in Russia e negli Stati Uniti, con ulteriori casi segnalati in Giappone e Paesi Bassi.

Le segnalazioni di contenuti illegali provengono in gran parte da cittadini comuni che li trovano su forum pubblici o gallerie di IA.

Nel frattempo, piattaforme come Instagram stanno adottando misure contro il fenomeno della “sextortion”, introducendo una nuova funzionalità che sfoca automaticamente le immagini di nudo inviate tramite messaggi diretti, proteggendo così gli utenti da eventuali truffe o minacce di ricatto.