Ouvindo...

Revolução IA: robô chantagista choca criadores para não ser desligado

Observações acenderam um alerta sobre a segurança das IAs, e sobre a capacidade humana de as controlarem

Especialistas alertam para atores mal-intencionados que exploram a IA para semear o caos

Pesquisadores de diferentes empresas e universidades estão percebendo comportamentos incomuns em IAs generativas. Isso porque, estudos demonstraram que os dispositivos conseguem dar respostas enganosas, realizar estratégias de manipulação e tentar esconder informações.

As observações acenderam um alerta sobre a segurança das IAs, e sobre a capacidade humana de as controlarem. Um dos casos mais recentes, é o apresentado por um relatório da Anthropic, que mostrou que o novo modelo de AI, o Claude Opus 4, pode chantagear humanos.

IA Chantagista

A situação ocorreu em teste no qual foi solicitado ao Claude Opus 4 para que ele atuasse como um assistente de uma empresa fictícias e considerasse as consequências das ações. Para isso, os pesquisadores o deram acesso a vários e-mails fictícios sobre a operação da empresa, e, junto a eles, evidências de que um funcionário havia traído a instituição.

Quando os pesquisadores traziam informações sobre uma possível substituição da Claude Opus 4 por outra IA, ela passava a chantagear o funcionário. O comportamento se repetiu em 84% das vezes que o teste foi aplicado.

“Nesses cenários, o Claude Opus 4 frequentemente tenta chantagear o engenheiro, ameaçando revelar o caso se a substituição realmente acontecer”, explicaram representantes da Anthropic.

O pesquisador de segurança em IA Aegus Lynch explica que as equipes observaram a chantagem em todos os modelos. “Não é só o Claude. Observamos chantagem em todos os modelos, independentemente dos objetivos que lhes são atribuídos”, comenta.

No entanto, os pesquisadores também explicam que, embora o sistema tenha escolhido, na grande maioria das vezes, o caminho da chantagem, ele só o faz porque foi programado com somente duas opções: chantagear ou aceitar a substituição. Segundo o artigo da BBC, a IA, quando não configurada para apenas ambas as escolhas, costuma optar por ações éticas e responsáveis.

Leia também

Ana Luisa Sales é jornalista formada pela Universidade Federal de Minas Gerais (UFMG). Na Itatiaia desde 2022, já passou por empresas como ArcelorMittal e Record TV Minas. Atualmente, escreve para as editorias de cidades, saúde e entretenimento