Dossier

Ia e abusi online: quasi 3mila bambini vittime in 6 mesi

Card. Zuppi e mons. Baturi: “Serve una presa di coscienza operativa”

Intelligenza artificiale (Foto Giovanna Pasqualin-SIR)

Intelligenza artificiale nuova frontiera di pedofilia e pedopornografia. Quasi 3mila bambini “spogliati” su Signal in 6 mesi; 507 i gruppi segnalati. E l’adescamento avviene tramite chatbot. Lo denuncia il dossier di Meter presentato il 23 giugno nella sede Cei a Roma. Card. Zuppi e mons. Baturi: “No a calpestare valore e dignità della persona umana; serve una presa di coscienza operativa”

L’intelligenza artificiale generativa è la nuova frontiera della pedofilia e pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nei primi 6 mesi del 2025) e farli agire dentro situazioni di abuso grazie al deepfake.

La denuncia è contenuta nel primo dossier in assoluto su quest’emergenza realizzato dall’Associazione Meter Ets fondata e presieduta da don Fortunato Di Noto, intitolato Intelligenza artificiale. Conoscere per prevenire e presentato il 23 giugno a Roma in una conferenza stampa promossa dal Copercom (coordinamento di 29 associazioni impegnate nella comunicazione) e moderata dal suo presidente Stefano Di Battista presso la sede della Conferenza episcopale italiana.

“L’intelligenza artificiale, oggi, è anche uno strumento di abuso”, scrivono in un messaggio inviato all’incontro il cardinale presidente della Cei, Matteo Zuppi, e il segretario generale Giuseppe Baturi. “Le vittime sono minori esposti, spesso senza saperlo, a una rielaborazione delle proprie immagini che li priva della dignità, del controllo e del diritto alla propria corporeità”, si legge ancora nel messaggio. Dopo avere rinnovato gli appelli di Papa Francesco e di Papa Leone XIV a non calpestare il valore e la dignità della persona  umana, Zuppi e Baturi mettono in guardia dall’indifferenza e auspicano “una presa di coscienza operativa” che coinvolga legislatori, educatori, genitori, operatori dei media e sviluppatori di tecnologie perché il dossier di Meter “non è solo una denuncia: è una chiamata… alla coscienza, alla coerenza e alla scelta”. Il presidente della Camera dei deputati Lorenzo Fontana ricorda l’impegno del Parlamento contro l’abuso richiamando il disegno di legge n.1.146, all’esame delle Commissioni Attività produttive e Trasporti, che introduce nel Codice penale il nuovo reato di illecita diffusione di contenuti generati o manipolati con sistema di intelligenza artificiale.

L’IA che spoglia i bambini. Online esistono applicazioni e software che permettono di “spogliare i bambini o creare situazioni per nulla innocenti”, rivela don Fortunato Di Noto illustrando il dossier. Tutto  questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste: “La macchina virtuale  attraverso algoritmi di Generative Adversarial Networks (Gans) e di tecniche di image-to-image translation sovrappone ai vestiti un ‘corpo’ modellato pezzo per pezzo, dando pose maliziose e alterando il contesto dell’immagine. Ecco perché non ci stanchiamo di ripetere ai genitori: non condividete foto online dei vostri bambini”.

Chatbot e adescamento. Lo sviluppo dell’IA ha permesso ai pedofili il massimo risultato col minimo sforzo: è sufficiente reperire un chatbot, cioè un programma che interagisce con i minori, usa il loro linguaggio al fine di creare una relazione empatica ed indurli allo scambio di materiale intimo. In sostanza l’IA può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili.

Per ora imprendibili. I chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare. Secondo i dati raccolti dall’Osmocop (Osservatorio mondiale di contrasto alla pedofilia di Meter), il sistema di messaggistica più usato è Signal (80%), seguito da Telegram, Viber a pari merito con Whatsapp, e altre piattaforme (1% di cloud, forum, darknet).

Da inizio anno segnalati 507 gruppi Signal. Dopo aver monitorato Telegram, Signal e Viber, Meter ha in particolare denunciato Signal, app preferita da adescatori e pedofili dal momento che la crittografia end-to-end utilizzata la conferma come primo ed estremo baluardo della privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo modo è possibile produrre e smerciare materiale pedopornografico in maniera pressoché indisturbata: solo da inizio 2025, Meter ha segnalato 507 gruppi Signal con immagini sia originali che IA.

Il 92% dei ragazzi ha usato un chatbot. In collaborazione con il Servizio nazionale tutela dei minori della Cei, Meter ha realizzato uno studio pilota attraverso un questionario su deepfake e deepnude a 989 studenti degli Istituti secondari di secondo grado, fascia d’età 14-18. Dai risultati emerge che il 92,2% di essi ha interagito con un chatbot, e l’81% è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio. Il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la sua creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Tuttavia il 90,5% ritiene la diffusione di un deepfake e deepnude un serio pericolo che il 65,1% denuncerebbe senza indugio. Commentando i dati, la presidente del Servizio Cei Chiara Griffini sottolinea l’importanza di “radicare sempre più una cultura della prevenzione” e di dare vita ad “un’alleanza educativa, un vero e proprio patto tra famiglia, scuola, Chiesa e mondo dello sport”.

Norme di tutela inadeguate. “La contrapposizione tra diritto e privacy impedisce di arrivare ad un regolamento europeo condiviso”, sostiene Ivano Gabrielli, direttore Polizia postale e per la sicurezza cibernetica, secondo il quale occorre muoversi su un duplice piano: “lo sviluppo di una normativa europea” e di “capacità investigative su contesti internazionali di globalizzazione del crimine”. Le norme in materia di IA in vigore non riescono ad affrontare il problema e tenere il passo con l’evoluzione delle tecnologie, osserva Di Noto. Di qui l’urgenza che i legislatori “le aggiornino per includere specifiche violazioni legate all’uso distorto dell’IA”. Ma è cruciale la collaborazione tra governi e grandi aziende tech, in particolare quelle che gestiscono piattaforme di messaggistica e social network, per prevenire e bloccare la produzione di materiale pedopornografico e deepnude.

L’intelligenza artificiale, le biotecnologie, l’economia dei dati e i social media stanno trasformando profondamente la nostra percezione e la nostra esperienza della vita. […] La persona non è un sistema di algoritmi: è creatura, relazione, mistero”. A richiamare le parole di Papa Leone XIV ai vescovi italiani è in chiusura Vincenzo Corrado, direttore Ufficio nazionale comunicazioni sociali della Cei, secondo il quale “la parola da portare a casa è ‘insieme’”. “Il tema della responsabilità – chiarisce – non riguarda solo i gestori” ma “coinvolge tutti. In questo senso anche i fruitori, soprattutto coloro che hanno ruoli educativi, sono coinvolti nella traduzione concreta di quel senso critico e del limite che diventa argine e slancio per la comprensione di ciò che avviene intorno a noi”. Non un semplice contorno, conclude, “ma – come hanno ricordato il cardinale presidente e il segretario generale – coscienza, coerenza e scelta”.