Pesquisadores de diferentes empresas e universidades estão percebendo
As observações acenderam um
IA Chantagista
A situação ocorreu em teste no qual
Quando os pesquisadores traziam informações sobre uma possível
“Nesses cenários, o Claude Opus 4 frequentemente tenta chantagear o engenheiro, ameaçando revelar o caso se a substituição realmente acontecer”, explicaram representantes da Anthropic.
O pesquisador de segurança em IA Aegus Lynch explica que as equipes observaram a chantagem em todos os modelos. “Não é só o Claude. Observamos chantagem em todos os modelos, independentemente dos objetivos que lhes são atribuídos”, comenta.
No entanto, os pesquisadores também explicam que, embora o sistema tenha escolhido, na grande maioria das vezes, o caminho da chantagem, ele só o faz porque foi programado com somente duas opções: chantagear ou aceitar a substituição. Segundo o artigo da BBC, a IA, quando não configurada para apenas ambas as escolhas, costuma optar por ações éticas e responsáveis.