Ouvindo...

TikTok deve remover vídeos impróprios para menores, determina Justiça

Companhia tem 72 horas para cumprir medida, sob risco de multa diária de R$ 1 mil

Justiça determina remoção de conteúdos impróprios para menores

Conteúdos considerados impróprios para menores de 18 anos devem ser suspensos do TikTok, de acordo com determinação do Ministério da Justiça e Segurança Pública (MJSP) publicada nesta sexta-feira (24) no Diário Oficial da União (DOU). A ByteDance – responsável pelo app – deve interromper em até 72 horas a veiculação de material relacionado a uso de drogas, sexualização, jogos de azar e violência para o público juvenil.

A medida deve ser aplicada de forma integral e permanente para o acesso irrestrito (que permite ver o conteúdo da plataforma sem precisar criar uma conta no aplicativo). No acesso restrito, em que é preciso fazer login, o material deve ser filtrado para menores de 18 anos. A suspensão deve ser mantida até que a plataforma comprove que aprimorou o sistema que impede a criação de contas por menores de 13 anos e limita o acesso a conteúdo impróprio por menores de 16 anos.

Além da suspensão da veiculação de conteúdos, a empresa deve informar as medidas tomadas ao Ministério Público Federal de São Paulo, ao Ministério da Mulher, da Família e dos Direitos Humanos e à Agência Nacional de Proteção de Dados (ANPD). Se não cumprir a determinação no prazo estipulado, o TikTok pode receber multa diária de R$ 1 mil.

Recentemente, o app foi alvo de uma ação na Justiça com a alegação de que viola o Estatuto da Criança e do Adolescente (ECA) ao expor o público infanto-juvenil a vídeos com conteúdos sensíveis e que não condizem com a idade desses usuários. O processo corre em segredo de justiça e ressalta que o TikTok não tem política de proteção a crianças e adolescentes, e que seu sistema de verificação de identidade é ineficaz.

O que diz o TikTok

Em contato com a reportagem da Itatiaia, o TikTok informa que ainda não foi notificado oficialmente sobre a determinação, mas que remove conteúdos em desacordo com as Diretrizes da Comunidade — entre eles os citados na ação — e não permite menores de 13 anos no aplicativo. “A segurança da comunidade do TikTok é nossa maior prioridade e temos políticas, processos e tecnologias robustas para ajudar a proteger todos os usuários, principalmente os mais jovens”, diz nota oficial.

Segundo a plataforma, para garantir um ambiente seguro para todos, a política deixa claro quais conteúdos não são permitidos, como violência e material explícito, e que eles são removidos assim que identificados. “Fazemos parceria com especialistas e organizações de segurança para apoiar esse trabalho e dialogamos com líderes do setor para promover medidas de segurança dos jovens no TikTok. Entre elas, definir contas de usuários com menos de 16 anos como privadas por padrão e permitir que os pais vinculem suas contas às de seus filhos por meio da Sincronização Familiar.”