Um sistema de
Leia também:
Inteligência artificial tem ‘caixa preta’ que desenvolvedores não entendem Ex-Google diz que inteligência artificial pode ameaçar humanos
A mãe da criança, então, foi procurada e mostrou-se disposta a ouvir conselhos de um especialista em orientação pedagógica. Ambas se reuniram com funcionários do centro de consulta infantil em fevereiro de 2022, depois que testemunhas denunciaram a presença de hematomas no corpo da menor.
Com a recomendação da ferramenta, as autoridades optaram por não colocar a menina sob custódia temporária e apenas manter o acompanhamento do caso, com visitas ocasionais à família. Para a inteligência artificial, que considerou, entre outros dados, o fato de a mãe mostrar disposição de cooperar, os hematomas não eram causados por abuso.
Mesmo quando a criança deixou de ir à escola por períodos longos, o sistema não identificou a necessidade de que uma visita fosse feita. Assim, o centro de consulta infantil não verificou a situação da menina por um ano. Agora, a mãe está sob custódia por suspeita de ter causado a lesão corporal que levou à morte da menor.
Apenas para referência
O sistema foi adotado em 2020 depois de ser treinado com dados de 6 mil a 13 mil registros de violência contra crianças. Ao implantá-lo, o intuito das autoridades locais era de que o programa ajudasse a reduzir a carga de trabalho imposta aos centros de consulta infantil, que atuam na proteção à criança no Japão.
Segundo Katsuyuki Ichimi, governador da província de Mie, os números da inteligência artificial são apenas para