×

LingQをより快適にするためCookieを使用しています。サイトの訪問により同意したと見なされます cookie policy.


image

Podcast in Italia, La pedofilia su Instagram

La pedofilia su Instagram

Ciao, sono Sara Poma.

Scusa se interrompo il tuo ascolto.

Volevo dirti che è appena uscito il mio nuovo podcast.

Si chiama Figlie e racconta di un viaggio nella memoria.

La memoria di una madre sparita nel nulla durante la dittatura argentina.

Puoi ascoltarlo ora solo su RaiPlaySound.

Cora

Vi sarà spesso capitato di scrollare per ore la sezione esplora di Instagram,

perdendovi tra foto di gatti, di torte decorate, di hotel 6 stelle e di foto di diletta leotta.

Il problema però è che, secondo quanto dimostrato qualche giorno fa da un'inchiesta del Wall Street Journal,

l'algoritmo che governa il sistema di raccomandazioni della piattaforma,

cioè il modo in cui ciascun utente può trovare contenuti più affini alle proprie preferenze

– a me per esempio vengono proposti solo video di gatti e di diete –

sta promuovendo una fitta rete di pedofili.

Ma come funziona esattamente?

Io sono Selvaggia Lucarelli e questo è Sottosopra, un podcast di Cora Media.

All'inizio del 2016 Instagram ha annunciato che avrebbe proposto contenuti ed argomenti

allineati il più possibile con gli interessi del singolo,

dando la precedenza almeno teoricamente ai contenuti condivisi dalle persone con cui si è interagito più spesso

e tenendo conto del tipo di immagini e video ai quali è stato dato un mi piace in passato

di lì appunto le proposte continue di gattini sulla mia pagina.

Vi sarete accorti come dicevo prima che se guardate un video di un tizio che addomestica tigri

da quel momento nel vostro feed appariranno sempre tigri che si fanno fare grattini sulla schiena

dall'emiro di qualche paese non identificato.

Questa è storia vera.

In altre parole la piattaforma punta a tenervi legati il più possibile al vostro smartphone

per farvi vedere quanta più pubblicità possibile tra uno scroll e l'altro

nutriendovi di ciò che può suscitare il vostro interesse.

C'è chi è interessato alla moda, al cinema, ai libri, agli animali.

Scrollate la mattina appena svegli sui mezzi che vi portano al lavoro per ore

prima di andare a dormire risucchiati da quello schermo luminoso che vi conosce sempre meglio

anche in maniera un po' inquietante proponendovi contenuti sempre più interessanti

che vi fanno sorridere, piangere o arrabbiare.

Io per dire al centesimo video di gatti ritrovati sul ciglio della strada

ho dovuto non guardare più il feed per due mesi per evitare di andare dallo psicanalista

per i primi accenni di depressione.

Ma nei meandri più bui della piattaforma, lì dove nessun utente comune ha mai osato addentrarsi

c'è anche chi utilizza proprio questo algoritmo per cercare e scambiare foto

e contenuti sessualmente espliciti di bambini e bambine.

E' proprio sfruttando il funzionamento del sistema di proposte dell'algoritmo

che secondo l'inchiesta del Wall Street Journal reti di pedofili riescono a mettersi in contatto

tra loro commissionando e vendendo contenuti di abusi sessuali su minori

favorendo lo scambio e la vendita di materiale illegale e appunto proprio l'adescamento di bambini.

Il 19enne avrebbe adescato il minore su Facebook spacciandosi per una donna.

Ci sarebbero stati tre incontri in un rudaro in un parco cittadino

e per tre volte sarebbero stati consumati i rapporti completi.

Ogni volta l'iceale gli avrebbe raccontato che la donna li avrebbe raggiunti subito dopo.

L'indagine ha infatti rivelato fino a che punto i sistemi di raccomandazione di Instagram

collegano i pedofili e li guidano verso i venditori di contenuti.

Intanto esistono proprio degli account a tema pedofilia pubblicizzati utilizzando hashtag molto espliciti

come pedowar, pedobite, hashtag che rimandano quindi all'immaginario pedopornografico

e che vengono utilizzati per pubblicare contenuti con veri e propri listini

tramite i quali gli utenti possono acquistare o commissionare video sessualmente espliciti con minori

in base ai propri gusti e preferenze, inclusi video e immagini di autolesionismo e sadomasochismo.

A un certo prezzo i bambini sono disponibili anche per incontri di persona.

Un tale, Matthew Fowler, quando non passava la giornata con gli amici, con la fidanzata

o a Cambridge dove studiava, la passava a torchiare e umiliare ragazzine con dei ricatti sottonomi falsi.

Con un sadismo senza limiti si fingeva una ragazzina con cui confidarsi

e una volta saputi tutti i punti deboli della sua vittima le diceva che se non gli avesse mandato foto e video molto umilianti

avrebbe diffuso il tutto a bulli, conoscenti e in generale a chiunque conoscesse anche lontanamente questa ragazzina.

Stiamo parlando di un qualcosa che gradualmente raggiungeva un livello di umiliazione atroce.

Ragazzine che se già erano state costrette a scattarsi delle foto in pose umilianti da uno sconosciuto

venivano costrette a fare la stessa cosa aggiungendo particolare.

Mangiare cibo per cani, leccare la polvere sui termosifoni della casa famiglia in cui si trovavano.

Un disastro.

Tutto questo materiale veniva postato su Heart2TheCore, votato ma non così spesso venduto.

È difficile credere a ciò che si può trovare sulla piattaforma seguendo questi hashtag che ho appena citato

considerando che molti utenti si sono ritrovati con il profilo oscurato per aver semplicemente condiviso un frame di un film horror

o per aver parlato di crimini e violenze in conflitti spesso ignorati dai mass media come quello israelo-palestinese.

Avete presente come dicevamo quando iniziate a seguire qualcuno su Instagram

e la piattaforma vi suggerisce profili affini che potrebbero interessarvi?

Quando i ricercatori hanno creato un account di prova ovviamente di stampo pedofilo

e hanno visualizzato i contenuti condivisi da queste reti

Instagram ha immediatamente suggerito loro di seguire altri account legati alla pedopornografia.

Spesso questi profili affermano di essere gestiti dai minori stessi, ne simulano il linguaggio infantile, usano pseudonimi apertamente sessuali.

Non sappiamo chi ci sia in realtà dietro lo schermo, in che condizioni siano quei bambini, dove si trovino, che tipo di abusi debbano subire, quanti contenuti siano costretti a produrre.

Come riporta il Wall Street Journal, seguire anche solo una manciata di queste raccomandazioni è stato sufficiente per inondare un account di prova con contenuti che sessualizzavano i bambini.

In risposta all'inchiesta molto dura, Meta ha affermato che avrebbe istituito una task force interna per affrontare le questioni sollevate dall'indagine.

Ma, conscia di quello che sta succedendo sulla piattaforma, l'azienda dovrebbe invece pensare a come difendere i minori con più forza e con più convinzione.

Tanto più che solo nel mese di gennaio ha rimosso oltre 490.000 account che violavano le sue politiche sulla sicurezza dei minori e negli ultimi due anni ha rimosso 27 reti di pedofili.

La società, che possiede anche Facebook e Whatsapp, ha affermato di aver bloccato anche migliaia di hashtag associati alla sessualizzazione dei bambini e di aver limitato questi termini dalle ricerche degli utenti.

Ad oggi, ad esempio, i termini di ricerca utilizzati per l'inchiesta non mostrano più alcun contenuto, ma a rimanere attivi sulla piattaforma ci sono altre decine di migliaia di account che promuovono la pedofilia in ogni modo,

dalle più innocue pagine di meme ad altri più insidiosi che, rivolgendosi direttamente ai minori, si trasformano in possibili canali di adescamento.

L'esperto Brian Levine ha sottolineato come pedofili utilizzino anche alcuni emoji come codice. Per esempio la pizza al formaggio, che è una scorciatoia per Children Pornography, quindi CP, Pornografia Infantile.

L'indagine ha inoltre rivelato che anche le pratiche di moderazione del sito spesso ignoravano o rifiutavano le segnalazioni di materiale pedopornografico.

Il Wall Street Journal racconta di episodi in cui gli utenti hanno segnalato post e account contenenti contenuti sospetti, incluso un account che pubblicizzava materiali di abusi su minori con la didascalia

questo adolescente è pronto per voi pervertiti e hanno ricevuto solo un messaggio automatico, ovvero a causa dell'elevato volume di segnalazioni che riceviamo il nostro team non è stato in grado di esaminare questo post.

Ma com'è possibile che l'azienda non sappia nulla? Com'è possibile che non facciano nulla per tutelare i minori?

Eppure una delle più note organizzazioni no profit che collabora con le forze dell'ordine statunitensi ha ricevuto 31,9 milioni di segnalazioni di pornografia infantile solo nel 2022.

Le piattaforme di proprietà di meta hanno rappresentato l'85% delle segnalazioni, 5 milioni di queste provenivano solo da Instagram.

Secondo i dati invece italiani del garante per la privacy, la pedopornografia nel nostro paese è un fenomeno in forte aumento proprio grazie ai social.

Si stima infatti che oltre il 50% dei contenuti trovati nel dark web siano stati postati dai genitori sui loro profili.

Oltre a perseguire le reti dei pedofili quindi è necessario lavorare sull'utilizzo informato delle piattaforme ad esempio prendendosi conto che i contenuti con i bambini sono quelli più apprezzati e condivisi.

E questo chi continua a condividere quotidianamente foto e video dei propri figli nella loro intimità sembra ignorarlo oppure ritenerlo poco importante.

Ma la vera domanda è che ruolo ha meta in tutto questo?

Finge di non sapere che il proprio algoritmo è indispensabile all'espansione di queste reti di pedofili e si mostra attenta e preoccupata solo quando messa alle strette da questo tipo di inchiesta?

Non lo so ma so per certo che tutto questo andrebbe arginato e che la sentinella migliore non dovrebbe chiamarsi Wall Street Journal ma Mark Zuckerberg.

Il Sottosopra è un podcast di Cora News prodotto da Cora Media.

È scritto da Selvaggia Lucarelli con la collaborazione di Serena Mazzini.

La cura editoriale è di Francesca Milano. La sigla e la supervisione del suono e della musica sono di Luca Micheli.

La post-produzione e il montaggio sono di Cosma Castellucci. Il producer è Alex Peverengo.

Le fonti dei contributi audio sono indicate nella sinossi.

Sottotitoli e revisione a cura di QTSS


La pedofilia su Instagram Pädophilie auf Instagram Pedophilia on Instagram Pedofilia en Instagram Pedofilia no Instagram Pedofili på Instagram

Ciao, sono Sara Poma.

Scusa se interrompo il tuo ascolto.

Volevo dirti che è appena uscito il mio nuovo podcast.

Si chiama Figlie e racconta di un viaggio nella memoria.

La memoria di una madre sparita nel nulla durante la dittatura argentina.

Puoi ascoltarlo ora solo su RaiPlaySound.

Cora

Vi sarà spesso capitato di scrollare per ore la sezione esplora di Instagram,

perdendovi tra foto di gatti, di torte decorate, di hotel 6 stelle e di foto di diletta leotta.

Il problema però è che, secondo quanto dimostrato qualche giorno fa da un'inchiesta del Wall Street Journal,

l'algoritmo che governa il sistema di raccomandazioni della piattaforma,

cioè il modo in cui ciascun utente può trovare contenuti più affini alle proprie preferenze

– a me per esempio vengono proposti solo video di gatti e di diete –

sta promuovendo una fitta rete di pedofili.

Ma come funziona esattamente?

Io sono Selvaggia Lucarelli e questo è Sottosopra, un podcast di Cora Media.

All'inizio del 2016 Instagram ha annunciato che avrebbe proposto contenuti ed argomenti

allineati il più possibile con gli interessi del singolo,

dando la precedenza almeno teoricamente ai contenuti condivisi dalle persone con cui si è interagito più spesso

e tenendo conto del tipo di immagini e video ai quali è stato dato un mi piace in passato

di lì appunto le proposte continue di gattini sulla mia pagina.

Vi sarete accorti come dicevo prima che se guardate un video di un tizio che addomestica tigri

da quel momento nel vostro feed appariranno sempre tigri che si fanno fare grattini sulla schiena

dall'emiro di qualche paese non identificato.

Questa è storia vera.

In altre parole la piattaforma punta a tenervi legati il più possibile al vostro smartphone

per farvi vedere quanta più pubblicità possibile tra uno scroll e l'altro

nutriendovi di ciò che può suscitare il vostro interesse.

C'è chi è interessato alla moda, al cinema, ai libri, agli animali.

Scrollate la mattina appena svegli sui mezzi che vi portano al lavoro per ore

prima di andare a dormire risucchiati da quello schermo luminoso che vi conosce sempre meglio

anche in maniera un po' inquietante proponendovi contenuti sempre più interessanti

che vi fanno sorridere, piangere o arrabbiare.

Io per dire al centesimo video di gatti ritrovati sul ciglio della strada

ho dovuto non guardare più il feed per due mesi per evitare di andare dallo psicanalista

per i primi accenni di depressione.

Ma nei meandri più bui della piattaforma, lì dove nessun utente comune ha mai osato addentrarsi

c'è anche chi utilizza proprio questo algoritmo per cercare e scambiare foto

e contenuti sessualmente espliciti di bambini e bambine.

E' proprio sfruttando il funzionamento del sistema di proposte dell'algoritmo

che secondo l'inchiesta del Wall Street Journal reti di pedofili riescono a mettersi in contatto

tra loro commissionando e vendendo contenuti di abusi sessuali su minori

favorendo lo scambio e la vendita di materiale illegale e appunto proprio l'adescamento di bambini.

Il 19enne avrebbe adescato il minore su Facebook spacciandosi per una donna.

Ci sarebbero stati tre incontri in un rudaro in un parco cittadino

e per tre volte sarebbero stati consumati i rapporti completi.

Ogni volta l'iceale gli avrebbe raccontato che la donna li avrebbe raggiunti subito dopo.

L'indagine ha infatti rivelato fino a che punto i sistemi di raccomandazione di Instagram

collegano i pedofili e li guidano verso i venditori di contenuti.

Intanto esistono proprio degli account a tema pedofilia pubblicizzati utilizzando hashtag molto espliciti

come pedowar, pedobite, hashtag che rimandano quindi all'immaginario pedopornografico

e che vengono utilizzati per pubblicare contenuti con veri e propri listini

tramite i quali gli utenti possono acquistare o commissionare video sessualmente espliciti con minori

in base ai propri gusti e preferenze, inclusi video e immagini di autolesionismo e sadomasochismo.

A un certo prezzo i bambini sono disponibili anche per incontri di persona.

Un tale, Matthew Fowler, quando non passava la giornata con gli amici, con la fidanzata

o a Cambridge dove studiava, la passava a torchiare e umiliare ragazzine con dei ricatti sottonomi falsi.

Con un sadismo senza limiti si fingeva una ragazzina con cui confidarsi

e una volta saputi tutti i punti deboli della sua vittima le diceva che se non gli avesse mandato foto e video molto umilianti

avrebbe diffuso il tutto a bulli, conoscenti e in generale a chiunque conoscesse anche lontanamente questa ragazzina.

Stiamo parlando di un qualcosa che gradualmente raggiungeva un livello di umiliazione atroce.

Ragazzine che se già erano state costrette a scattarsi delle foto in pose umilianti da uno sconosciuto

venivano costrette a fare la stessa cosa aggiungendo particolare.

Mangiare cibo per cani, leccare la polvere sui termosifoni della casa famiglia in cui si trovavano.

Un disastro.

Tutto questo materiale veniva postato su Heart2TheCore, votato ma non così spesso venduto.

È difficile credere a ciò che si può trovare sulla piattaforma seguendo questi hashtag che ho appena citato

considerando che molti utenti si sono ritrovati con il profilo oscurato per aver semplicemente condiviso un frame di un film horror

o per aver parlato di crimini e violenze in conflitti spesso ignorati dai mass media come quello israelo-palestinese.

Avete presente come dicevamo quando iniziate a seguire qualcuno su Instagram

e la piattaforma vi suggerisce profili affini che potrebbero interessarvi?

Quando i ricercatori hanno creato un account di prova ovviamente di stampo pedofilo

e hanno visualizzato i contenuti condivisi da queste reti

Instagram ha immediatamente suggerito loro di seguire altri account legati alla pedopornografia.

Spesso questi profili affermano di essere gestiti dai minori stessi, ne simulano il linguaggio infantile, usano pseudonimi apertamente sessuali.

Non sappiamo chi ci sia in realtà dietro lo schermo, in che condizioni siano quei bambini, dove si trovino, che tipo di abusi debbano subire, quanti contenuti siano costretti a produrre.

Come riporta il Wall Street Journal, seguire anche solo una manciata di queste raccomandazioni è stato sufficiente per inondare un account di prova con contenuti che sessualizzavano i bambini.

In risposta all'inchiesta molto dura, Meta ha affermato che avrebbe istituito una task force interna per affrontare le questioni sollevate dall'indagine.

Ma, conscia di quello che sta succedendo sulla piattaforma, l'azienda dovrebbe invece pensare a come difendere i minori con più forza e con più convinzione.

Tanto più che solo nel mese di gennaio ha rimosso oltre 490.000 account che violavano le sue politiche sulla sicurezza dei minori e negli ultimi due anni ha rimosso 27 reti di pedofili.

La società, che possiede anche Facebook e Whatsapp, ha affermato di aver bloccato anche migliaia di hashtag associati alla sessualizzazione dei bambini e di aver limitato questi termini dalle ricerche degli utenti.

Ad oggi, ad esempio, i termini di ricerca utilizzati per l'inchiesta non mostrano più alcun contenuto, ma a rimanere attivi sulla piattaforma ci sono altre decine di migliaia di account che promuovono la pedofilia in ogni modo,

dalle più innocue pagine di meme ad altri più insidiosi che, rivolgendosi direttamente ai minori, si trasformano in possibili canali di adescamento.

L'esperto Brian Levine ha sottolineato come pedofili utilizzino anche alcuni emoji come codice. Per esempio la pizza al formaggio, che è una scorciatoia per Children Pornography, quindi CP, Pornografia Infantile.

L'indagine ha inoltre rivelato che anche le pratiche di moderazione del sito spesso ignoravano o rifiutavano le segnalazioni di materiale pedopornografico.

Il Wall Street Journal racconta di episodi in cui gli utenti hanno segnalato post e account contenenti contenuti sospetti, incluso un account che pubblicizzava materiali di abusi su minori con la didascalia

questo adolescente è pronto per voi pervertiti e hanno ricevuto solo un messaggio automatico, ovvero a causa dell'elevato volume di segnalazioni che riceviamo il nostro team non è stato in grado di esaminare questo post.

Ma com'è possibile che l'azienda non sappia nulla? Com'è possibile che non facciano nulla per tutelare i minori?

Eppure una delle più note organizzazioni no profit che collabora con le forze dell'ordine statunitensi ha ricevuto 31,9 milioni di segnalazioni di pornografia infantile solo nel 2022.

Le piattaforme di proprietà di meta hanno rappresentato l'85% delle segnalazioni, 5 milioni di queste provenivano solo da Instagram.

Secondo i dati invece italiani del garante per la privacy, la pedopornografia nel nostro paese è un fenomeno in forte aumento proprio grazie ai social.

Si stima infatti che oltre il 50% dei contenuti trovati nel dark web siano stati postati dai genitori sui loro profili.

Oltre a perseguire le reti dei pedofili quindi è necessario lavorare sull'utilizzo informato delle piattaforme ad esempio prendendosi conto che i contenuti con i bambini sono quelli più apprezzati e condivisi.

E questo chi continua a condividere quotidianamente foto e video dei propri figli nella loro intimità sembra ignorarlo oppure ritenerlo poco importante.

Ma la vera domanda è che ruolo ha meta in tutto questo?

Finge di non sapere che il proprio algoritmo è indispensabile all'espansione di queste reti di pedofili e si mostra attenta e preoccupata solo quando messa alle strette da questo tipo di inchiesta?

Non lo so ma so per certo che tutto questo andrebbe arginato e che la sentinella migliore non dovrebbe chiamarsi Wall Street Journal ma Mark Zuckerberg.

Il Sottosopra è un podcast di Cora News prodotto da Cora Media.

È scritto da Selvaggia Lucarelli con la collaborazione di Serena Mazzini.

La cura editoriale è di Francesca Milano. La sigla e la supervisione del suono e della musica sono di Luca Micheli.

La post-produzione e il montaggio sono di Cosma Castellucci. Il producer è Alex Peverengo.

Le fonti dei contributi audio sono indicate nella sinossi.

Sottotitoli e revisione a cura di QTSS