(2024) Questo chatbot mira ad allontanare le persone dal materiale sugli abusi sui minori
In rete ci sono enormi volumi di foto e video di abusi sessuali su minori: ogni anno vengono rimossi dal web milioni di pezzi. Queste immagini illegali si trovano su siti di social media, servizi di hosting di immagini, forum del dark web e siti web di pornografia legale. Ora un nuovo strumento su uno dei più grandi siti web di pornografia sta cercando di interrompere le persone che cercano materiale pedopornografico e di reindirizzarle a un servizio che le aiuti.
Da marzo di quest'anno, ogni volta che qualcuno ha cercato una parola o una frase che potrebbe essere correlata a materiale pedopornografico (noto anche come CSAM) sul sito web britannico di Pornhub, è apparso un chatbot che ha interrotto il tentativo di ricerca, chiedendogli se volesse ottenere aiuto per il comportamento che sta mostrando. Nei primi 30 giorni di prova del sistema, gli utenti hanno attivato il chatbot 173.904 volte.
"L'entità del problema è così grande che dobbiamo cercare di evitare che si verifichi", afferma Susie Hargreaves, direttore generale della Internet Watch Foundation (IWF), un'organizzazione no-profit con sede nel Regno Unito che si occupa di rimuovere i contenuti pedopornografici dal web. L'IWF è una delle due organizzazioni che hanno sviluppato il chatbot utilizzato su Pornhub. "Vogliamo che il risultato sia che le persone non cerchino abusi sessuali su minori. Si fermano e controllano il proprio comportamento", dice Hargreaves.
Il chatbot appare quando qualcuno cerca su Pornhub uno dei 28.000 termini che ha identificato e che ritiene possano avere collegamenti con persone che cercano CSAM. Le ricerche possono includere milioni di potenziali combinazioni di parole chiave. Il popup, che è stato progettato dall'associazione di beneficenza contro gli abusi sui minori Lucy Faithfull Foundation insieme all'IWF, porrà alle persone una serie di domande e spiegherà che ciò che stanno cercando potrebbe essere illegale. Il chatbot dice di essere gestito dalla Lucy Faithfull Foundation e di offrire un supporto "confidenziale e non giudicante". Le persone che cliccano su una richiesta di aiuto ricevono informazioni sul sito web dell'organizzazione, sulla linea telefonica e sul servizio di posta elettronica.
"Ci siamo resi conto che il percorso dell'utente deve essere il più semplice possibile", afferma Dan Sexton, responsabile tecnologico dell'IWF. Sexton spiega che il chatbot è stato sviluppato per più di 18 mesi e ha coinvolto diversi gruppi durante la sua progettazione. L'obiettivo è quello di "deviare" o "disturbare" qualcuno che potrebbe essere alla ricerca di materiale pedopornografico e di farlo con pochi clic.
La chiave del successo del sistema sta nel cuore della sua premessa: questo tipo di stimolo comportamentale impedisce alle persone di cercare CSAM? I risultati possono essere difficili da misurare, dicono i partecipanti al progetto del chatbot. Se qualcuno chiude il browser dopo aver visto il chatbot, ad esempio, questo potrebbe essere considerato un successo, ma è impossibile sapere cosa ha fatto dopo. Tuttavia, una spinta comportamentale non è senza precedenti negli sforzi per ridurre i danni online, e ci sono alcuni dati con cui è possibile misurare i risultati. È possibile vedere quanto tempo le persone interagiscono con il chatbot e il numero di clic effettuati per ottenere aiuto. Prima che Pornhub iniziasse a sperimentare il chatbot, indicava già alle persone il sito web della Lucy Faithfull Foundation tramite una pagina statica quando cercavano uno dei suoi 28.000 termini.
L'uso del chatbot è più diretto e forse più coinvolgente, afferma Donald Findlater, direttore della Fondazione Lucy Faithfull. Dopo che il chatbot è apparso più di 170.000 volte a marzo, 158 persone hanno cliccato sul sito web della linea di assistenza. Anche se il numero è "modesto", dice Findlater, queste persone hanno fatto un passo importante. "Hanno superato molti ostacoli per farlo", dice Findlater. "Tutto ciò che impedisce alle persone di iniziare il viaggio è una misura del successo", aggiunge Hargreaves dell'IWF. "Sappiamo che le persone lo usano. Sappiamo che fanno riferimento, che accedono ai servizi".
Pornhub ha una reputazione a rischio per quanto riguarda la moderazione dei video sul suo sito web, e i rapporti hanno dettagliato senza il loro consenso. Nel dicembre 2024, dal suo sito web e ha iniziato a richiedere alle persone . L'anno scorso, sono stati rimossi da Pornhub.
"Il chatbot IWF è un ulteriore livello di protezione per garantire che gli utenti siano informati del fatto che non troveranno materiale illegale sulla nostra piattaforma e che vengano indirizzati a Stop It Now per aiutarli a cambiare il loro comportamento", ha dichiarato un portavoce di Pornhub, aggiungendo di avere "tolleranza zero" per il materiale illegale e di aver . Le persone coinvolte nel progetto del chatbot affermano che Pornhub si è offerto volontariamente di partecipare, non è stato pagato per farlo e che il sistema funzionerà sul sito web britannico di Pornhub per il prossimo anno prima di essere valutato da accademici esterni.
John Perrino, analista politico presso lo Stanford Internet Observatory che non è collegato al progetto, afferma che negli ultimi anni si è assistito a un aumento della costruzione di nuovi strumenti che utilizzano "" per combattere i danni online. "È una collaborazione interessante, in linea con la politica e la percezione pubblica, per aiutare gli utenti e indirizzarli verso risorse e abitudini sane", afferma Perrino. Aggiunge che non ha mai visto uno strumento del genere sviluppato per un sito web pornografico.
Esistono già alcune prove che questo tipo di intervento tecnico può fare la differenza nel distogliere le persone da potenziale materiale pedopornografico e ridurre il numero di ricerche di CSAM online. Ad esempio, Google ha collaborato con la Lucy Faithfull Foundation per introdurre messaggi di avvertimento quando le persone cercano termini che potrebbero essere collegati al CSAM. Nel 2018 Google ha dichiarato che il numero di ricerche di materiale relativo ad abusi sessuali su minori è diminuito di "tredici volte" grazie agli avvertimenti. I motori di ricerca che hanno adottato misure di blocco contro i termini legati agli abusi sessuali su minori hanno visto diminuire drasticamente il numero di ricerche rispetto a quelli che non hanno adottato misure. Una serie di annunci pubblicitari progettati per indirizzare le persone in cerca di CSAM verso linee di aiuto in Germania 240.000 clic sul sito web e più di 20 milioni di impressioni in un periodo di tre anni. Uno studio che ha esaminato i messaggi pop-up di avvertimento sui siti web dedicati al gioco d'azzardo ha riscontrato che i nudges hanno avuto un "impatto limitato".
Le persone coinvolte nel chatbot sottolineano che non lo considerano l'unico modo per impedire alle persone di trovare materiale pedopornografico online. "La soluzione non è un proiettile magico che fermerà la domanda di abusi sessuali su minori su Internet. Viene impiegata in un ambiente particolare", afferma Sexton. Tuttavia, se il sistema avrà successo, potrebbe essere esteso ad altri siti web o servizi online.
"Ci sono altri luoghi in cui cercheranno, sia su vari siti di social media, sia su varie piattaforme di gioco", dice Findlater. Tuttavia, se ciò dovesse accadere, bisognerebbe valutare i fattori scatenanti che ne causano la comparsa e ricostruire il sistema per il sito web specifico in cui si trova. I termini di ricerca utilizzati da Pornhub, ad esempio, non funzionerebbero in una ricerca su Google. "Non possiamo trasferire una serie di avvisi in un altro contesto", afferma Findlater.