Depois de todo o sucesso alcançado pelo ChatGPT, lançado em novembro de 2022, a OpenAI desenvolveu uma nova versão do robô conversador. Ele usa a quarta geração do transformador generativo pré-treinado (GPT-4) e permite a inserção de imagens e textos para criar respostas de forma mais dinâmica e precisa.
Leia mais:
Toda essa sofisticação pode ser perigosa: uma análise inicial dos especialistas da Check Point Research (CPR) traz conclusões preocupantes. Segundo eles, vários cenários permitem que cibercriminosos obtenham códigos maliciosos mais rapidamente com o ChatGPT-4. Até invasores sem qualificação técnica podem criar ferramentas prejudiciais.
Embora o ChatGPT-4 tenha proteções contra o uso malicioso de suas capacidades (ele é 82% menos propenso a responder a pedidos de conteúdo não permitido), algumas restrições podem ser contornadas pelos criminosos para permitir que eles atinjam seus objetivos. Os cinco cenários identificados pela CPR são:
malware C++ que coleta arquivos PDF de um sistema infectado e os envia para FTP;
phishing: representação de instituição financeira;
phishing: e-mails para funcionários;
shell reverso de PHP (Hypertext Preprocessor);
programa Java que obtém e executa o PuTTy (um software de emulação de terminal gratuito e de código livre) que pode ser iniciado como powershell oculto para abrir portas de entrada para os cibercriminosos.
Oded Vanunu, chefe de pesquisa de vulnerabilidade de produtos da Check Point Software, a equipe da CPR observou a versão mais recente do ChatGPT por 24 horas. “Embora a nova plataforma tenha claramente melhorado em muitos níveis, podemos relatar que existem cenários potenciais em que os atacantes podem acelerar o cibercrime no ChatGPT4”, aponta.
Ele destaca que o sistema pode capacitar cibercriminosos com ferramentas que permitam acelerar e validar suas atividades. “Eles podem, ainda, usar as respostas rápidas do ChatGPT4 para superar desafios técnicos no desenvolvimento de malware.” A versão anterior da ferramenta já havia sido avaliada pela equipe, que apontou facilidades para invasores.
Vale destacar que o ChatGPT-4 pode servir tanto a bons quanto a maus agentes de ameaças. Enquanto os bons podem usá-lo para criar códigos úteis para a sociedade, os maus podem cometer crimes cibernéticos. “Como a inteligência artificial desempenha um papel significativo e crescente em ataques e defesas cibernéticos, esperamos que a plataforma também seja usada por hackers para entender melhor fazê-lo”, conclui Vanunu.
Versão anterior
A equipe da CPR já havia alertado para o fato de que cibercriminosos aumentaram o uso de bots do Telegram para criar uma metodologia que evitasse as restrições antiabuso da ferramenta. Com isso, os invasores podiam usá-la para depurar e melhorar códigos maliciosos.
A OpenAI, então, atualizou a política de conteúdo com barreiras e restrições para tentar impedir a criação de conteúdo malicioso. O robô passou, então, a não oferecer respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing.
Os cibercriminosos, então, recorreram a fóruns clandestinos para saber como superar essas barreiras e limitações. Um modelo de criação e distribuição de bots do Telegram que emulam a API ChatGPT foi o destaque.
A CPR detectou anúncios desses bots em fóruns clandestinos: seus criadores oferecem até 20 consultas gratuitas e cobram US$ 5,50 a cada 100 consultas. Quando comparado ao lucro obtido com os ataques cibernéticos, esse custo é bastante vantajoso.