Imagine ser descartado pelo algoritmo? Isso mesmo. Você leu certo. Muitos profissionais estão perdendo oportunidades no mercado e não é por falta de talento.
Uma coisa é fato: os algoritmos são alimentados com dados históricos.
E, quando esses dados carregam as marcas das desigualdades estruturais da sociedade, a inteligência artificial acaba por reproduzir e, muitas vezes, intensificar os mesmos preconceitos.
Pense o seguinte caso:
Ana Maria, 46 anos, mais de 15 anos de experiência na gestão de equipes. Candidata-se a uma vaga em uma grande empresa de tecnologia. Nenhuma resposta.
Incomodada, entra em contato com o RH. Descobre então que o sistema de triagem automática eliminava currículos com mais de 15 anos de experiência, sob a justificativa de que profissionais assim poderiam não se adaptar a culturas mais ágeis ou exigiriam salários elevados.
Na prática, o algoritmo privilegiava candidatos mais jovens.
Esse caso mostra como uma tecnologia criada para ampliar oportunidades pode, em vez disso, restringir vidas.
E os dados confirmam essa tendência:
- Um estudo da Universidade de Washington analisou mais de 500 currículos em diferentes processos seletivos. O resultado: pessoas brancas foram favorecidas em 85% dos casos em relação a pessoas negras.
- No mesmo levantamento, nomes masculinos tiveram 52% mais chances de serem selecionados, contra apenas 11% para nomes femininos.
- Investigações do Intercept Brasil também revelaram vieses algorítmicos em recrutamento, discriminando mulheres e profissionais mais velhos.
E qual a raiz do problema? Os sistemas são treinados com dados que refletem nossas desigualdades históricas.
O cenário agrava-se pela falta de transparência dessas plataformas, que descartam candidaturas em massa sem qualquer explicação. Quando questionados, muitos gestores de RH admitem não ter como verificar se houve discriminação; porque a urgência por preencher as vagas costuma prevalecer.
Existe ainda outro ponto crítico: a própria composição das equipes que desenvolvem essas tecnologias. No Brasil, as pesquisas mostram que a maioria dos profissionais da área são homens brancos, jovens, de classes média e alta, formados em instituições tradicionais. A ausência de diversidade nesses times influencia desde a construção dos bancos de dados até as decisões incorporadas nos sistemas.
Ou seja: os preconceitos que já permeiam nossa sociedade acabam sendo espelhados e até ampliados pela inteligência artificial.
Precisamos compreender, e rápido, que a inteligência artificial não é neutra. Ela avança em ritmo acelerado e precisamos tomar consciência para usá-la de forma ética.
Se não houver uma ação clara e responsável, avanços conquistados em diversidade e inclusão podem ser comprometidos.
É urgente auditar, regular e desenhar tecnologias com sensibilidade para a diversidade e a inclusão. Só assim a inteligência artificial poderá cumprir seu verdadeiro potencial: não o de reforçar desigualdades, mas o de construir caminhos mais justos, humanos e inclusivos.
Gostaria de trocar mais ideias sobre esse tema? Me chama nas redes, vai ser um prazer conversar com você.
Sou Ingrid Haas, Palestrante, Mentora, Escritora e PhD em Direito. Professora na USP, Facilitadora de Comunicação Integrativa e Não Violenta, Diversidade, Inclusão e Gestão de Conflitos.
Ajudo empresas, equipes e pessoas a enfrentar os desafios de comunicação em ambientes diversos e multiculturais.
Formada em Letras, Direito. Com Mestrado e Doutorado em Direito.
Me acompanhe nas redes sociais para mais reflexões sobre comunicação, bem-estar e cultura organizacional.