Belo Horizonte
Itatiaia

Inteligência artificial falha e criança morre no Japão

Sistema apontou que taxa de proteção necessária para menina de 4 anos era de 39%, mas dados são apenas referenciais  

Por
Sistema de inteligência artificial deve ser usado apenas como referência
Sistema de inteligência artificial deve ser usado apenas como referência  • Gerd Altmann/Pixabay

Um sistema de inteligência artificial implantado na cidade de Tsu, província de Mie, próximo de Nagoia, no Japão, foi responsável pela falta de atendimento que levou uma menina de 4 anos à morte. As recomendações feitas pela ferramenta indicavam que a taxa de proteção necessária  para o caso era de 39%. 

Leia também:

A mãe da criança, então, foi procurada e mostrou-se disposta a ouvir conselhos de um especialista em orientação pedagógica. Ambas se reuniram com funcionários do centro de consulta infantil em fevereiro de 2022, depois que testemunhas denunciaram a presença de hematomas no corpo da menor. 

Com a recomendação da ferramenta, as autoridades optaram por não colocar a menina sob custódia temporária e apenas manter o acompanhamento do caso, com visitas ocasionais à família. Para a inteligência artificial, que considerou, entre outros dados, o fato de a mãe mostrar disposição de cooperar, os hematomas não eram causados por abuso.

Mesmo quando a criança deixou de ir à escola por períodos longos, o sistema não identificou a necessidade de que uma visita fosse feita. Assim, o centro de consulta infantil não verificou a situação da menina por um ano. Agora, a mãe está sob custódia por suspeita de ter causado a lesão corporal que levou à morte da menor.

Apenas para referência

O sistema foi adotado em 2020 depois de ser treinado com dados de 6 mil a 13 mil registros de violência contra crianças. Ao implantá-lo, o intuito das autoridades locais era de que o programa ajudasse a reduzir a carga de trabalho imposta aos centros de consulta infantil, que atuam na proteção à criança no Japão.

Segundo Katsuyuki Ichimi, governador da província de Mie, os números da inteligência artificial são apenas para referência. “Não estamos em posição de tirar uma conclusão se o método de utilização desses dados foi 100% bom desta vez”, aponta. Ele destaca que é necessário que os responsáveis pela vítima sejam julgados.