Exposta a material que pode tê-la influenciado negativamente, a adolescente Molly Russell foi diagnosticada com depressão e seu quadro se agravou com o passar do tempo. Após automutilação, a jovem faleceu. Andrew Walker, legista do Tribunal de Justiça do Norte de Londres, em Londres (Inglaterra), concluiu que a morte foi causada por “efeitos negativos do conteúdo online”.
Instagram recebe multa de € 405 milhões por falha em privacidade de crianças TikTok deve remover vídeos impróprios para menores, determina Justiça
A afirmação chamou a atenção de autoridades e empresas de mídias sociais do mundo todo. Walker diz que não é seguro classificar a morte de Molly como suicídio, mas que a adolescente “morreu em decorrência de um ato de automutilação enquanto sofria de depressão e dos efeitos negativos do conteúdo online”.
Uma perícia na conta de Molly no Instagram aponta que ela guardou, compartilhou ou curtiu 16.300 publicações nocivas no período de seis meses antes da sua morte. Entre elas, 2,1 mil tratavam sobre depressão, automutilação ou suicídio.
Família faz alertas
Desde a morte da adolescente, em 2017, a família dela tem buscado alertar pais e responsáveis sobre os perigos das redes sociais para os adolescentes. “Molly era atenciosa, doce, carinhosa, curiosa, altruísta e bonita, embora algumas palavras não sejam suficientes para definir nossa garota maravilhosa”, diz Ian Russell, em comunicado oficial.
Russell conta que conversou com um executivo sênior da
Para ele, é hora de mudar a cultura corporativa tóxica da Meta. “Se esse ‘conteúdo sugador de vida’ fosse seguro, minha filha Molly provavelmente ainda estaria viva. Em vez de sermos uma família de quatro pessoas enlutadas, haveria cinco de nós ansiosos por uma vida cheia de propósito e promessa que estava por vir”, argumenta.
Em audiência, o advogado da família, Oliver Sanders, chamou Elizabeth Lagone, diretora de políticas de saúde e bem-estar da Meta, para questionar por que a plataforma permite que crianças a usem quando podem ter acesso a tanto “conteúdo potencialmente nocivo”. Ela pediu desculpas e concordou que as imagens violam as regras.
Depois de ser considerada culpada pela ocorrência, a Meta emitiu comunidade oficial. “Continuaremos nosso trabalho com os principais especialistas independentes do mundo para ajudar a garantir que as mudanças que fazemos ofereçam a melhor proteção e suporte possível para os adolescentes”, informa.
Para a Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC) do Reino Unido, as empresas de tecnologia devem ser responsabilizadas quando não priorizam a segurança das crianças. O Instagram tem buscado minimizar impactos negativos: há 20 dias, lançou no Brasil a