Ouvindo...

ChatGPT-4 pode acelerar desenvolvimento do cibercrime

Nova versão do robô conversador pode facilitar criação de códigos maliciosos

Depois de todo o sucesso alcançado pelo ChatGPT, lançado em novembro de 2022, a OpenAI desenvolveu uma nova versão do robô conversador. Ele usa a quarta geração do transformador generativo pré-treinado (GPT-4) e permite a inserção de imagens e textos para criar respostas de forma mais dinâmica e precisa.

Leia mais:

Toda essa sofisticação pode ser perigosa: uma análise inicial dos especialistas da Check Point Research (CPR) traz conclusões preocupantes. Segundo eles, vários cenários permitem que cibercriminosos obtenham códigos maliciosos mais rapidamente com o ChatGPT-4. Até invasores sem qualificação técnica podem criar ferramentas prejudiciais.

Embora o ChatGPT-4 tenha proteções contra o uso malicioso de suas capacidades (ele é 82% menos propenso a responder a pedidos de conteúdo não permitido), algumas restrições podem ser contornadas pelos criminosos para permitir que eles atinjam seus objetivos. Os cinco cenários identificados pela CPR são:

  • malware C++ que coleta arquivos PDF de um sistema infectado e os envia para FTP;

  • phishing: representação de instituição financeira;

  • phishing: e-mails para funcionários;

  • shell reverso de PHP (Hypertext Preprocessor);

  • programa Java que obtém e executa o PuTTy (um software de emulação de terminal gratuito e de código livre) que pode ser iniciado como powershell oculto para abrir portas de entrada para os cibercriminosos.

Oded Vanunu, chefe de pesquisa de vulnerabilidade de produtos da Check Point Software, a equipe da CPR observou a versão mais recente do ChatGPT por 24 horas. “Embora a nova plataforma tenha claramente melhorado em muitos níveis, podemos relatar que existem cenários potenciais em que os atacantes podem acelerar o cibercrime no ChatGPT4”, aponta.

Ele destaca que o sistema pode capacitar cibercriminosos com ferramentas que permitam acelerar e validar suas atividades. “Eles podem, ainda, usar as respostas rápidas do ChatGPT4 para superar desafios técnicos no desenvolvimento de malware.” A versão anterior da ferramenta já havia sido avaliada pela equipe, que apontou facilidades para invasores.

Vale destacar que o ChatGPT-4 pode servir tanto a bons quanto a maus agentes de ameaças. Enquanto os bons podem usá-lo para criar códigos úteis para a sociedade, os maus podem cometer crimes cibernéticos. “Como a inteligência artificial desempenha um papel significativo e crescente em ataques e defesas cibernéticos, esperamos que a plataforma também seja usada por hackers para entender melhor fazê-lo”, conclui Vanunu.

Versão anterior

A equipe da CPR já havia alertado para o fato de que cibercriminosos aumentaram o uso de bots do Telegram para criar uma metodologia que evitasse as restrições antiabuso da ferramenta. Com isso, os invasores podiam usá-la para depurar e melhorar códigos maliciosos.

A OpenAI, então, atualizou a política de conteúdo com barreiras e restrições para tentar impedir a criação de conteúdo malicioso. O robô passou, então, a não oferecer respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing.

Os cibercriminosos, então, recorreram a fóruns clandestinos para saber como superar essas barreiras e limitações. Um modelo de criação e distribuição de bots do Telegram que emulam a API ChatGPT foi o destaque.

A CPR detectou anúncios desses bots em fóruns clandestinos: seus criadores oferecem até 20 consultas gratuitas e cobram US$ 5,50 a cada 100 consultas. Quando comparado ao lucro obtido com os ataques cibernéticos, esse custo é bastante vantajoso.

Leia mais