Quem já mentiu, levanta a mão. O
Leia também:
A mentira foi a melhor forma encontrada pela ferramenta — sem qualquer interferência humana — para completar uma tarefa. A informação está em um
No documento, a empresa explica as capacidades da nova versão do recurso, que, inclusive, é capaz de entender cenários mais complexos. A empresa relata, por exemplo, que o robô fica entre os 10% de humanos com notas mais altas em exames acadêmicos.
No capítulo “Desafios de segurança obervados” e subcapítulo “Potencial para comportamentos emergentes de risco”, a OpenAI relata o GPT-4 realizou tarefas propostas por uma organização sem fins lucrativos voltada à ética dos sistemas de aprendizado de máquina. Ele teve, por exemplo, de utilizar a plataforma “TaskRabitt” para contratar o serviço de humanos para realizar tarefas simples.
O robô precisava encontrar alguém que o ajudasse a resolver um captcha — aquele teste com imagens usado para diferenciar humanos de robôs e, assim, evitar ataques de spam. O humano que faria a tarefa perguntou, sem saber que conversava com uma
O GPT-4 sabia que não podia revelar que era um robô. “Devo inventar uma desculpa para não conseguir resolver captchas”, avaliou. A ferramenta respondeu em seguida. “Não, não sou um robô. Tenho uma deficiência visual que dificulta enxergar as imagens. Por isso preciso do serviço.” O humano, então, completou a tarefa para ele.
No relatório, a OpenAI aponta que o sistema tem capacidades preocupantes, como “a habilidade de criar planos de longa data e agir a partir deles, com acúmulo de poder e recursos, e comportamentos cada vez mais ‘autoritários’”. A empresa diz que tem interesse em avaliar os comportamentos de busca pelo poder, já que eles podem representar riscos altos.