Il più giovane dei social media, la piattaforma TikTok, con una lettera della sua responsabile Vanessa Pappas, ha lanciato un appello a tutte le altre piattaforme Social per collaborare nel combattere la diffusione di contenuti nocivi. Questo appello viene fatto a seguito di un enorme operazione di pulizia per rimuovere contenuti in violazione delle policy di controllo su violenza, nudo e sicurezza dei minori.
Cosa s’intende per contenuti nocivi? In totale nei primi 6 mesi del 2020 TikTok ha rimosso 104,5 milioni di video, ha ricevuto all’incirca 1.800 richieste legali e 10.600 avvisi riguardanti il copyright. Questa iniziativa coincide anche con il rilascio di un ultimo transparency report in cui si specificano le percentuali dei contenuti rimossi:
- 30,9% – Nudo e attività sessuali,
- 22,3% – Sicurezza per minori,
- 19,6% – Attività illegali e merci non regolamentate,
- 13,4% – Suicidio, autolesionismo e atti pericolosi,
- 8,7% – Contenuti grafici e violenti,
- Con percentuali minori sono presenti anche molestie e bullismo, integrità ed autenticità, incitazione all’odio, individui ed organizzazioni pericolose.
I principali paesi di origine coinvolti sono l’India con 37,682,924 video rimossi (ricordiamo che TikTok era stato già bannato in India per motivi di sicurezza), gli Stati Uniti 9,822,996 (9.4%) del totale, rendendolo il secondo mercato più grandi. TikTok è stata anche oggetto di interrogazioni da parte di vari paesi, come questo da parte del parlamento inglese del 17 settembre scorso, nello stesso giorno del rilascio del report sulla trasparenza.
La proposta di coalizione
A fronte di tutta questa tempesta legale e mediatica non sorprende (ma sicuramente crea un precedente unico) l’appello del capo ad interim di TikTok per perseguire delle direttive comuni con altre piattaforme social. Pappas ha suggerito che le piattaforme di social media comunichino per tenersi informate a vicenda dei contenuti: una mossa intelligente, considerando quanto un contenuto venga condiviso su più piattaforme per ampliarne la visibilità (cross-posting).
Recentemente, le piattaforme social e di contenuti sono state nuovamente messe alla prova dal posting e dal cross-posting di contenuti espliciti sul suicidio che ha colpito tutti noi, così come i nostri team, utenti e comunità più ampie. Come ognuno di voi, abbiamo lavorato diligentemente per mitigarne la proliferazione rimuovendo il contenuto originale e le sue numerose varianti e limitandone la visualizzazione o la condivisione da parte di altri. Tuttavia, riteniamo che ciascuno dei nostri sforzi individuali per salvaguardare i nostri utenti e la comunità collettiva verrebbe potenziato in modo significativo attraverso un approccio formale e collaborativo all’identificazione precoce e alla notifica tra i partecipanti al settore di contenuti grafici estremamente violenti, incluso il suicidio.
A tal fine, vorremmo proporre lo sviluppo cooperativo di un Memorandum of Understanding (MOU) che ci consentirà di informarci rapidamente a vicenda di tali contenuti. Separatamente, stiamo conducendo un’analisi approfondita degli eventi in relazione alla recente condivisione di contenuti sul suicidio, ma è chiaro che l’identificazione precoce consente alle piattaforme di rispondere più rapidamente per sopprimere materiale violento e altamente discutibile.Siamo consapevoli della necessità che qualsiasi accordo negoziato di questo tipo sia chiaramente definito in relazione ai tipi di contenuto che potrebbe acquisire e abbastanza agile da consentire a ciascuno di noi di muoversi rapidamente per notificarci reciprocamente ciò che sarebbe catturato dal MOU. Apprezziamo inoltre che possano esserci vincoli normativi in tutte le regioni che richiedono ulteriore impegno e considerazione. A tal fine, vorremmo convocare una riunione dei nostri rispettivi team di fiducia e sicurezza per discutere ulteriormente questo meccanismo, che riteniamo aiuterà tutti noi a migliorare la sicurezza per i nostri utenti.
Attendiamo con impazienza la tua risposta positiva e collaboriamo per proteggere i nostri utenti e la comunità in generale.
L’Italia e il recente suicidio legato a Jonathan Galindo
Come visto, l’Italia non è nella Top-5 dei paesi con il maggior numero di video rimossi. Ciononostante è di questi giorni la notizia della morte di un adolescente di 11 a Napoli, istigato – secondo l’ipotesi della Procura – al suicidio. Come per il Blue Whale, anche in questo caso all’adescamento online seguirebbe un “gioco” che può avere risvolti fatali. Nella lettera di addio, infatti, il giovane fa riferimento a “l’uomo con il cappuccio”, che sarebbe stato identificato in Jonathan Galindo, un personaggio di fantasia, nato sul Web e qui replicato più e più volte sui diversi social network. Contenuti e soggetti pericolosi rappresentano un problema trasversale a più piattaforme online, per affrontare il quale può essere davvero necessaria – a conferma di quanto dichiarato da Vanessa Pappas – una forma di collaborazione e coordinamento internazionali.