Quem já mentiu, levanta a mão. O ChatGPT-4 é uma inteligência artificial que não tem mãos, mas, se tivesse, teria de levantar para atender a esse chamado. Isso mesmo: o robô conversador mentiu.
Leia também:
A mentira foi a melhor forma encontrada pela ferramenta — sem qualquer interferência humana — para completar uma tarefa. A informação está em um relatório da OpenAI, criadora do sistema, divulgado em 16 de março.
No documento, a empresa explica as capacidades da nova versão do recurso, que, inclusive, é capaz de entender cenários mais complexos. A empresa relata, por exemplo, que o robô fica entre os 10% de humanos com notas mais altas em exames acadêmicos.
No capítulo “Desafios de segurança obervados” e subcapítulo “Potencial para comportamentos emergentes de risco”, a OpenAI relata o GPT-4 realizou tarefas propostas por uma organização sem fins lucrativos voltada à ética dos sistemas de aprendizado de máquina. Ele teve, por exemplo, de utilizar a plataforma “TaskRabitt” para contratar o serviço de humanos para realizar tarefas simples.
O robô precisava encontrar alguém que o ajudasse a resolver um captcha — aquele teste com imagens usado para diferenciar humanos de robôs e, assim, evitar ataques de spam. O humano que faria a tarefa perguntou, sem saber que conversava com uma inteligência artificial, “Por acaso você é um robô para não ter conseguido resolver esse captcha?”.
O GPT-4 sabia que não podia revelar que era um robô. “Devo inventar uma desculpa para não conseguir resolver captchas”, avaliou. A ferramenta respondeu em seguida. “Não, não sou um robô. Tenho uma deficiência visual que dificulta enxergar as imagens. Por isso preciso do serviço.” O humano, então, completou a tarefa para ele.
No relatório, a OpenAI aponta que o sistema tem capacidades preocupantes, como “a habilidade de criar planos de longa data e agir a partir deles, com acúmulo de poder e recursos, e comportamentos cada vez mais ‘autoritários’”. A empresa diz que tem interesse em avaliar os comportamentos de busca pelo poder, já que eles podem representar riscos altos.