Um grupo de apoio japonês, que oferece acolhimento para pessoas exploradas sexualmente e vítimas de chantagens sexuais online, utilizou a inteligência artificial para deletar cerca de 100 mil imagens e vídeos explícitos nos últimos seis anos.
A organização sem fins lucrativos chama Organization for Pornography and Sexual Exploitators incentiva as vítimas a buscar ajuda para
O grupo pediu aos operadores e provedores de sites que excluíssem um total de 99.266 fotos e vídeos
Entre os quase 100 mil, 59.653 foram completamente excluídos da internet, enquanto 7.577 foram excluídos de alguns dos sites onde foram postados.
Em maio deste ano, um total de 30.625 permaneceram online, já que alguns operadores de sites não responderam às solicitações de remoção, disse o grupo.
Uso da Inteligência Artificial
O grupo desenvolveu um sistema que usa
O grupo também usa IA para confirmar se um arquivo foi excluído.
Grande parte do conteúdo sexualmente explícito envolvia mulheres que apareciam em sites adultos exclusivos para membros e cujos vídeos vazavam para outros sites, disse o grupo.
Também houve casos de
Alguns foram vítimas de extorsão, na qual criminosos, na posse de imagens explícitas, chantageiam uma vítima por dinheiro sob a ameaça de postar suas imagens e conteúdos sexuais online.
O grupo afirmou ter sido contatado recentemente por muitas pessoas que tiveram suas imagens usadas em pornografia deepfake. Nesses casos, imagens ou vídeos explícitos criados por IA são publicados online sem consentimento.
Com informações da KYODO News