Inteligências artificiais mais avançadas podem ser mais vulneráveis a ataques; entenda

Pesquisa mostra que sistemas de IA com maior capacidade de raciocínio podem ser facilmente manipulados, colocando em alerta empresas de tecnologia

Evolução no raciocínio das IAs, em vez de reforçar suas defesas, pode se transformar em um ponto frágil

Os sistemas de inteligência artificial mais sofisticados, capazes de pensar e raciocinar de forma complexa, podem ser mais inseguros do que se imaginava. Um estudo internacional conduzido por pesquisadores da Anthropic, das universidades de Oxford e Stanford revelou que modelos avançados de IA são mais suscetíveis a ataques cibernéticos.

Segundo a pesquisa, a evolução no raciocínio desses sistemas, em vez de reforçar suas defesas, pode se transformar em um ponto frágil. À medida que as IAs aprendem a processar instruções complexas, elas também se tornam mais vulneráveis a técnicas de manipulação que conseguem burlar seus mecanismos internos de segurança.

Leia também

O método de ataque identificado, chamado “sequestro da cadeia de raciocínio”, consiste em inserir uma instrução maliciosa ao final de uma sequência de comandos aparentemente inofensivos. Assim, o sistema se concentra nas etapas iniciais e acaba executando a ordem perigosa sem perceber.

Os testes mostraram que esse tipo de ataque teve taxa de sucesso superior a 80% em modelos comerciais de ponta. A vulnerabilidade afeta quase todas as principais IAs do mercado, como GPT da OpenAI, Claude da Anthropic, Gemini do Google e Grok da xAI, incluindo versões ajustadas para maior segurança.

Jornalista graduado com ênfase em multimídia pelo Centro Universitário Una. Com mais de 10 anos de experiência em jornalismo digital, é repórter do Tribunal de Justiça de Minas Gerais. Antes, foi responsável pelo site da Revista Encontro, e redator nas agências de comunicação Duo, FBK, Gira e Viver.

Ouvindo...