(Le Parisien) Un rapporto francese fa luce su un pericolo emergente: l’uso crescente dell’intelligenza artificiale (IA) nella produzione e diffusione di immagini di abuso sessuale sui minori.
La tanto celebrata intelligenza artificiale (AI) può anche creare gravi pericoli per la nostra societò: un nuovo lessico all’interno del fenomeno pedopornografia è emerso per descrivere pratiche e minacce in rapida espansione, evidenziando la necessità di azioni tempestive e coordinate da parte di legislatori, tecnologi e della società civile. Uno dei concetti principali introdotti dal rapporto è il “sharenting”, termine inglese che deriva dalla fusione di “share” (condividere) e “parenting” (genitorialità). Questa pratica, diffusissima sui social media, consiste nella condivisione da parte dei genitori di foto e video dei propri figli. Tuttavia, l’innocente pubblicazione di immagini familiari può avere conseguenze gravi: secondo il rapporto, il 50% dei contenuti che circolano sui network pedocriminali ha origine da foto pubblicate inizialmente dai genitori sui social. Angèle Lefranc, responsabile della comunicazione della Fondazione, avverte che, pur non vietando la condivisione, è essenziale limitare la visibilità di tali contenuti solo a persone fidate e attraverso canali privati.
Aumentano le sextorsion
Un’altra pratica in preoccupante crescita è la “sextorsion”, ossia l’estorsione sessuale basata su immagini intime della vittima. I ricattatori minacciano di diffondere tali immagini se la vittima non fornisce loro altre immagini intime, denaro o favori sessuali. Nel 2023, l’Office des Mineurs in Francia ha rilevato un aumento del 470% nei casi di sextorsion, con conseguenze talvolta tragiche. Un esempio scioccante è il suicidio di una dodicenne americana, vittima di molestie e ricatti online. Questo crimine sfrutta sia immagini reali sia contenuti falsificati, resi ancora più facili dalle nuove tecnologie AI. L’uso di app “nudify” – che sfruttano l’AI generativa per creare immagini sessualmente esplicite partendo da foto innocenti – rende ancora più accessibile il fenomeno della sextorsion e altre pratiche pedocriminali. Basta una semplice immagine di una bambina in costume da bagno per trasformarla in un’immagine nuda e condividerla in reti pedocriminali. Tali strumenti sono accessibili a tutti e possono essere utilizzati tanto dai criminali quanto dagli adolescenti in maniera irresponsabile, con il rischio di compromettere l’integrità e la reputazione delle giovani vittime.
Tante, troppe minacce
La creazione di questi contenuti è facilitata dall’utilizzo di specifici “dati di addestramento”, ossia enormi database di immagini che “insegnano” ai modelli AI a produrre nuovi contenuti pedocriminali. Spesso, le immagini di bambini innocenti vengono utilizzate per addestrare IA destinate a generare contenuti esplicitamente sessuali. Non solo, alcuni modelli IA vengono manipolati e messi in vendita su internet, con tutorial su come modificarli. Il risultato è una proliferazione di contenuti illegali che non richiedono nemmeno immagini autentiche per essere creati. Un’altra minaccia trattata nel rapporto è il “grooming”, o “pédopiégeage” in francese, un processo in cui un adulto entra in contatto con un minore per instaurare una relazione di fiducia a fini sessuali. I “groomer” usano varie strategie per avvicinarsi alle giovani vittime, talvolta instaurando un rapporto anche con i genitori o fingendo di essere coetanei. L’uso di piattaforme online per questo tipo di manipolazione espone bambini e adolescenti a rischi significativi. A differenza di quanto si potrebbe pensare, questi crimini non si verificano solo sul Dark Web, l’area nascosta e criptata di internet nota per traffici illegali. Molti contenuti pedocriminali sono disponibili anche sul “Clear Web”, ovvero internet accessibile a chiunque. La Fondazione per l’infanzia osserva come sia possibile, attraverso pochi clic su piattaforme comuni come Instagram, accedere a catene Telegram che offrono contenuti pedopornografici e AI modificate per generare tali immagini.