Ouvindo...

Deputada denuncia que reconhecimento facial de São Paulo é racista

Erika Hilton destaca que o uso da tecnologia pode levar à prisão injusta de pessoas negras

Tecnologia é criticada em todo o mundo pela baixa confiabilidade

Um sistema de monitoramento por câmeras de reconhecimento facial proposto em edital lançando pela Prefeitura de São Paulo pode fortalecer e aumentar a discriminação racial. A tecnologia por trás do Smart Sampa identifica suspeitos a partir de determinadas características, como a cor da pele.

Leia mais:

Por isso, a deputada federal eleita Erika Hilton manifestou sua oposição à ideia nas redes sociais. Outros ativistas, como o advogado especializado em tecnologia Ronaldo Lemos e a Coalizão Direitos na Rede, apontam como tecnologias desse tipo cometem erros, acusam inocentes, aumentam a desigualdade e se tornam ferramentas de perseguição.

Erika lembra que, em 2019, pessoas negras foram 90,3% dos presos por reconhecimento facial no Brasil e 83% dos presos injustamente por reconhecimento fotográfico. Ela destaca, ainda, que o reconhecimento facial feito de forma automática usa uma base de dados desatualizada e racista.

Assim como no reconhecimento fotográfico, aponta Erika, que tem falsos positivos constantemente em razão do racismo, o mesmo pode acontecer no reconhecimento facial. ”E isso leva à prisão injusta de pessoas negras. É o racismo institucionalizado que a gente já conhece. Numa velocidade maior.”

Já Lemos aponta que, fora do Brasil, o uso de tecnologia de reconhecimento facial tem sido criticado e há propostas para que ele não seja usado. “O sistema Smart Sampa (...) quer detectar pessoas por meio da cor da pele, o que é ilegal e inconstitucional, além de um acinte”, diz no Twitter.

A Coalizão Direitos na Rede, por sua vez, diz que o sistema cria “um cenário para que a população, como um todo, seja vigiada e monitorada, o que é ainda mais alarmante quando se considera o superencarceramento da população negra e o ‘perfil’ das pessoas que são submetidas à violência policial no país”. “(...) É necessário pensar quais corpos sofrerão as consequências mais graves do monitoramento dos espaços comuns da cidade”, diz a entidade em noa de repúdio.

As tecnologias e os sistemas de inteligência artificial são acusados de discriminação e de não serem neutros. Como são elaborados a partir da perspectiva humana, podem reproduzir comportamentos discriminatórios da sociedade de diversas formas. Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Redes Digitais” (Edições Sesc, 2022), mostra o alto índice de erros relacionados a pessoas pretas e trans.

Além do reconhecimento facial, o Google Fotos já categorizou fotos de negros como gorilas. Isso sem contar os filtros embelezadores para selfies: é comum que eles clareiem a pele e afinem o nariz do retratado.

O que diz o edital

Com investimento estimado de R$ 70 milhões por ano, a proposta da Prefeitura de São Paulo é integrar mais de 20 mil câmeras até 2024 e modernizar o monitoramento na capital. O edital informa que as câmeras devem permitir o rastreio de “um suspeito, monitorando todos os movimentos e atividades (...). A pesquisa deve ser feita por diferentes tipos de características como cor, face e outras”.

Além de analisar rostos, a intenção é que o sistema detecte movimentos e aponte atividades consideradas suspeitas, bem como indivíduos procurados, objetos perdidos e outros. O pesquisador Luan Cruz, do Programa de Telecomunicações de Direitos Digitais do Instituto Brasileiro de Defesa do Consumidor (Idec), diz que a iniciativa ignora falhas já conhecidas da tecnologia.

Segundo ele, as câmeras não reconhecem e não funcionam 100%. “Elas podem reconhecer erroneamente uma pessoa. Justamente pessoas e mulheres negras são as que sofrem mais erro de reconhecimento”, comenta.