Ouvindo...

Inteligência artificial já é usada em ataques cibernéticos

Entidade canadense informa que criminosos usam a tecnologia para criar malware e espalhar desinformação

Solução de inteligência artificial criada para cibercrime auxilia criminosos

O que se previa já começou a acontecer: segundo o Centro Canadense de Segurança Cibernética, principal autoridade de cibersegurança do Canadá, a inteligência artificial já é usada para criar malware e espalhar desinformação online. Grupos de vigilância cibernética alertam sobre os riscos que envolvem a tecnologia.

Leia também:

Ferramentas como ChatGPT e Bard usam modelo de linguagem de grande escala (LLM), que cria diálogos convincentes a partir de grandes volumes de texto. Sami Khoury, chefe da entidade canadense, diz que essas soluções têm sido usadas para desenvolver e-mails de phishing, bem como código malicioso e desinformação.

Em março, a Europol já havia destacado que a tecnologia permite que cibercriminosos se passem por indivíduos ou organizações de uma maneira realista. No mesmo mês, o Centro Nacional de Segurança Cibernética do Reino Unido informou sobre o risco de uso de LLMs em ataques cibernéticos.

Pesquisadores de segurança cibernética já demonstraram casos de uso potencialmente maliciosos. Daniel Kelley, um ex-hacker, conta que o WormGPT é um LLM treinado para fins maliciosos. Ele pediu que o sistema elaborasse uma tentativa convincente de levar um gerente de contas a fazer um pagamento falso.

A ferramenta criou um e-mail de três parágrafos em que pede o pagamento urgente de uma fatura. O conteúdo é bastante persuasivo. “Esse pagamento é muito importante e precisa ser feito nas próximas 24 horas”, diz o texto. “[WormGPT] é semelhante ao ChatGPT, mas não tem barreiras éticas nem limitações”, avalia Kelley.