IA, giochi e chat: le nuove strategie dei pedofili
Ascolta la versione audio dell'articolo
L’uso dell’intelligenza artificiale per “spogliare” i minori e normalizzare la pedofilia. I social e le app di messaggistica per adescare e condividere materiale pedopornografico. La crescita di fenomeni come la “pedomama” e gli abusi di minori su minori. Ecco l’ultimo rapporto annuale di Meter.
I pedofili ne sanno una più del diavolo. Fuor di metafora, questo significa che utilizzano mezzi sempre più sofisticati per adescare i minori, condividere materiale pedopornografico e sottrarsi alle forze dell’ordine. È quanto sottolinea Meter, l’associazione a tutela dei bambini fondata nel 1989 da don Fortunato Di Noto, nel suo ultimo rapporto annuale sulla pedofilia e la pedopornografia, contenente i dati per il 2025 e presentato ieri, 24 febbraio, a Roma.
Il rapporto nasce dal lavoro dell’Osservatorio mondiale contro la pedofilia (Osmocop), braccio tecnico di Meter, che anche nel 2025 ha scandagliato il web individuando ancora una volta una mole enorme di materiale illecito. Per l’esattezza, si tratta di 785.072 foto e 1.733.043 video pedopornografici, con «abusi reali» compiuti su bambini e adolescenti. Una specificazione, quella sugli «abusi reali», cioè fisici, non casuale, perché in tempo di intelligenza artificiale (IA) si evidenzia la nascita – già segnalata per il 2024 – e successiva crescita dei deepnude, cioè delle immagini manipolate attraverso programmi di IA allo scopo di rimuovere da una foto reale gli indumenti di una persona.
Nel 2025 Meter ha individuato ben 8.213 minori vittime di deepnude: un fatto che non deve essere sottovalutato nonostante qui manchi una violenza fisica diretta. «Dietro ogni immagine manipolata c’è sempre una vittima reale, il minore ritratto nella foto originale, che subisce una violazione della propria identità. Il suo volto – aggiunge il rapporto – viene prelevato e sessualizzato senza alcun consenso». E questo, unito alla circolazione della falsa immagine via Internet, provoca chiaramente dei traumi profondi che rischiano di indurre il minore a compiere gesti estremi, per il senso di vergogna. Inoltre, la creazione di immagini pedopornografiche false alimenta il mercato, stimolando la richiesta di nuovi contenuti illeciti. A questa evidente ricaduta negativa, ne è collegata un’altra ancora: la normalizzazione della pedofilia. Il che conferma come il mondo virtuale abbia delle conseguenze concrete su quello reale.
Ma quali sono i principali canali di adescamento dei minori e di diffusione della pedopornografia? Da un lato, ci sono aree meno accessibili di Internet come il Dark Web; dall’altro, social network e comuni applicazioni di messaggistica. Riguardo a questa seconda categoria, per il 2025 Meter ha segnalato 655 gruppi caratterizzati dall’adescamento tramite profili falsi e dalla condivisione di contenuti pedopornografici: più di due terzi di questi gruppi sono stati scovati su Signal (451, cioè il 69% del totale), che offre funzionalità di chat e chiamate con una forte crittografia. Questo elemento consente di tutelare la privacy degli utenti, ma inevitabilmente rende molto difficile identificare i criminali. Così, afferma il rapporto su Signal, «sebbene l’app stessa abbia una politica rigorosa contro l’abuso della sua piattaforma, […] è diventata un “rifugio sicuro” per i pedopornografi». Al secondo posto delle app di messaggistica più usate dai pedofili in base al monitoraggio di Meter, c’è Telegram (145 gruppi – 22%), seguita da Instagram (23 – 3,5%), Viber (14 – 2%), WhatsApp (12 – 2%) e altre piattaforme (10 – 1,5%).
Se guardiamo alla diffusione dei deepnude, Telegram è il canale più utilizzato, seguito da Signal. Responsabile della creazione del 14% (1.121) di queste false immagini di nudo è Grok, il programma di IA sviluppato da una delle società di Elon Musk. Molto diffuso è anche lo sfruttamento dei social come ponti verso pagine illecite: il fenomeno più ricorrente monitorato è l’uso dello spazio dei commenti su piattaforme come TikTok e X per inserire link a contenuti esterni.
Il rapporto spiega che esistono vari passaggi per accedere ai canali dov’è visionabile il materiale pedopornografico: l’accesso non avviene mai direttamente. Tutto il sistema è pensato per eludere il più possibile i controlli e, in caso di interventi di censura, consentire di spostare i contenuti e il gruppo di utenti da una stanza digitale all’altra. L’ultimo passaggio: «In molti casi, per ottenere il link definitivo dal gruppo, viene richiesto all’utente un “tributo” o una prova per scongiurare la presenza di infiltrati o inquirenti. L’utente è quindi obbligato a caricare a sua volta materiale inedito o a compiere azioni specifiche per sbloccare l’accesso, trasformandosi da semplice spettatore a complice attivo nella distribuzione del materiale pedopornografico». A proposito di denunce, nel 2025 sono stati 1.106 i protocolli inviati da Meter alle polizie. Nel complesso, dal 2008 ad oggi, sono 25 le operazioni di polizia condotte a seguito di segnalazioni dell’associazione.
Novità di questo rapporto annuale è l’attenzione riservata a una piattaforma di giochi online frequentata da milioni di minori: Roblox. L’associazione Meter ha svolto un’indagine su un campione di 467 bambini tra i 9 e gli 11 anni, scoprendo che «il 70% dichiara di incorrere in rischi online, nello specifico su Roblox. Dall’esposizione a contenuto sessuale non adeguato alla loro età (es. una coppia che fa sesso in pubblico), all’inseguimento e minacce all’interno del gioco (cyberbullismo) sino all’adescamento. In riferimento all’ultimo, il 45% del campione dichiara tentativi di adescamento e di questi solo il 10% ne ha consapevolezza e conosce il fenomeno». Cioè, accade spesso che i tentativi di adescamento vengano scambiati dai bambini per tentativi di furto della loro identità virtuale. Meter precisa che simili rischi «sono presenti in tutte le piattaforme di gioco online» e dà ai genitori una serie di consigli per prevenirli (p. 71 del rapporto).
Tra le perversioni che più sconvolgono, si conferma il fenomeno della “pedomama”, che sta a indicare gli abusi commessi da donne – a volte mamme, come presume Meter in base ai contesti visionati – nei confronti di un minore. L’associazione di don Di Noto ha riscontrato una crescita di questo fenomeno, con 320 foto e 11.240 video scoperti su Signal, Telegram e Viber. Sempre su Signal, sono stati scovati e denunciati 24 gruppi con foto e video di bambini (età media: 11 anni) abusati da cani. Il rapporto non ne fa cenno, ma di fronte a tanto squallore e sadismo – che richiama alla mente certi contenuti, perlopiù ignorati dai media, dei cosiddetti Epstein files (vedi qui) – è difficile escludere la presenza di elementi iniziatici e satanisti.
Altra triste conferma, con una tendenza rilevata in crescita: l’abuso di minori su minori, più spesso maschi verso altri maschi. E anche qui la tipologia di abusi è vasta, dalla divulgazione di video e foto (anche manipolati) senza consenso al ricatto sessuale.
Meter rinnova il suo appello a istituzioni e media perché diano il loro contributo per contrastare pedofilia e pedopornografia. E ricorda l’attività del suo centro di ascolto, a cui ogni anno si rivolgono minori con le più varie problematiche, per guarire dalle ferite subite.
Caso Epstein, una lezione sul Potere di questo mondo
Più che i milioni di documenti del finanziere pedofilo pubblicati nei giorni scorsi, dovrebbero far riflettere quelli che non sono stati diffusi perché riguardano pedopornografia, torture e morte. Il che lascia intendere che siamo probabilmente di fronte a élite che sfruttano debolezze e perversioni usandole anche come iniziazione.
La denuncia di Meter: i pedofili usano l'IA per spogliare i bambini
I pedofili si servono di programmi che sfruttano l’intelligenza artificiale per manipolare immagini di bambini e rappresentarli senza vestiti. L’altro pericolo: i chatbot per adescare i minori. Un dossier dell’associazione Meter denuncia il nuovo fenomeno.
Pedopornografia e IA: inquietante deriva da non sottovalutare
Nel consueto report annuale di Meter si registra un aumento del 220% rispetto al 2023 pari a 220 milioni di video pedopornografici. E si sta facendo largo una nuova inquietante deriva che sfrutta l'intelligenza artificiale. Che non deve essere sottovalutata perché costituisce un trampolino di lancio verso la pedofilia reale.

