La lotta del papà di Molly e la decisione di Instagram: via le immagini di suicidio
Dopo la morte della ragazza che ha trovato «ispirazione» in Rete
N el 2017, a 14 anni, Molly Russell si è tolta la vita dopo aver guardato su Instagram centinaia di foto e video che avevano come tema depressione, autolesionismo e suicidio. E più ne guardava, più un algoritmo comune a tutti i social network e ai motori di ricerca le proponeva siti correlati. Ian, il padre di Molly, ha chiamato in causa i social. E sulla Bbc ha accusato Instagram di essere co-responsabile della morte della figlia.
Da quelle denunce ha preso avvio in Gran Bretagna una campagna sostenuta da governo, organizzazioni religiose e per i diritti civili. Obiettivo: più controlli e la rimozione dei contenuti che possono richiamare pratiche estreme sui social. Lo scorso febbraio Instagram, dal 2012 di proprietà di Facebook, aveva accettato di rimuovere le foto più controverse. La mossa a molti è apparsa parziale e non risolutiva. Se viene fatta una ricerca con hashtag come #suicidio, #depressione e simili (in varie lingue), sul network appare tuttora una schermata che chiede all’utente se vuole ricevere assistenza se sta «vivendo una situazione difficile» o invece se è proprio sicuro di voler accedere alle immagini: in pratica richiede un’approvazione esplicita supplementare, come fa Fb per i contenuti «sensibili». Ma c’è il tasto «Vedi i post comunque», che consente senza nessun ulteriore filtro, per esempio una verifica dell’età, di scaricare immagini molto esplicite che, come dice l’avviso, «spesso incoraggiano comportamenti che possono causare dolore o condurre anche alla morte».
«Nei social che Molly frequentava ho trovato un disegno disperato: una ragazzina bendata che abbracciava un orsacchiotto di peluche e la scritta “Questo mondo è così crudele e io non voglio vederlo più”», ha raccontato Ian, 56 anni. «Alcuni disegni sono di persone che cercano di uscire dalla depressione, ma altri sono istigazioni al suicidio: immagini spesso in bianco e nero, A 14 anni Molly Russell si è tolta la vita nel 2017 dopo aver guardato su Instagram centinaia di foto e video che parlavano di suicidio di autolesionismo. Ecco perché dico che Instagram ha aiutato mia figlia ad uccidersi». Il padre di Molly ha ampliato la sua lotta agli Usa, dove ha incontrato famiglie che hanno vissuto la stessa esperienza. Il giro nella Silicon Valley, dove hanno sede le principali società hi-tech, ha lasciato il segno. Instagram ha annunciato che rimuoverà disegni e meme che richiamano autolesionismo, disordini alimentari e suicidio.
Nel Regno Unito sono 200 i giovani in età scolare che si tolgono la vita ogni anno, prima causa di morte per quella fascia di età. Per le associazioni come Papyrus, che si battono per la prevenzione al suicidio nei giovani, la noncuranza da parte dei social può configurarsi come complicità nell’istigazione al suicidio. Instagram ha assicurato maggiori controlli anche sull’algoritmo che recepisce cosa si sta cercando per proporre siti correlati. Adam Mosseri, responsabile del colosso digitale, ha reso noto che «tra aprile e giugno sono stati rimossi più di 834 mila contenuti legati a suicidio e depressione, di cui oltre il 77% non erano stati segnalati». Però non è dato sapere secondo quali criteri. E infatti è già partito l’hashtag #youcantcensormyskin di chi chiede che non vengano rimosse le foto di ferite non-autoindotte. L’oms segnala che sono circa 800 mila le persone che ogni anno nel mondo si tolgono la vita, tra loro molti giovani. In Italia episodi di autolesionismo sono stati riscontrati nel 20% dei ragazzi, anche tra i 10-11enni, secondo un’analisi dell’ospedale Bambino Gesù di Roma. «Sono problemi complessi che nessuna singola azienda o governo può risolvere», ha detto Mosseri. «Sappiamo che il lavoro non è finito». Genitori
● Ian, il padre di Molly, ha accusato Instagram di essere coresponsabile della morte della figlia. Dalla sua denuncia ha preso avvio una campagna sostenuta da governi e organizzazioni per i diritti civili
● Instagram, social network che permette di condividere immagini, ha annunciato che dopo le foto farà rimuovere anche disegni e meme su autolesionismo, suicidio e disordini alimentari