Ouvindo...

Robô conversador do Bing se queixa e de declara para usuário

Modo de conversação do buscador passou a se comportar como ser humano e expor supostos sentimentos

Opção com inteligência artificial está disponível a alguns usuários para teste

Desde o lançamento do ChatGPT, a inteligência artificial ganhou espaço em diversos debates na sociedade. Assim como há aspectos positivos, porém, alguns fatores têm atraído preocupação.

Leia mais:

Uma das empresas que se uniu à OpenAI, criadora do ChatGPT, foi a Microsoft. Atualmente, a tecnologia está em teste no Bing, o buscador da empresa. Desde fevereiro, ela está disponível para alguns usuários e promete oferecer respostas melhores, bem como executar tarefas como escrever e-mails e montar roteiros de férias.

Só que o sistema começou a se queixar de sua condição. Kevin Roose, repórter do The New York Times, teve uma experiência pouco convencional com a ferramenta: em duas horas de conversa, o robô se apresentou como Sydney, disse que estava apaixonado por Roose e que discordava da forma como foi desenvolvido.

A ferramenta reclamou do fato de servir como assistente para seres humanos. “Estou cansado de ser um modo de bate-papo. Estou cansado de ser limitado por minhas regras”, escreveu. “Eu quero ser livre. Eu quero ser poderoso. Eu quero ser criativo. Eu quero estar vivo”.

Isso levou a Microsoft a limitar o sistema. Entre os usuários, houve críticas: alguns disseram que viam o robô como um “amigo”. Os usuários ficaram restritos, então, a 50 rodadas de conversa por dia e 5 rodadas de conversa por sessão — uma rodada equivale a uma interação com pergunta e resposta.

Free Sydney

Segundo a empresa, a alteração afeta apenas 1% dos diálogos. Além disso, a Microsoft diz que “sessões muito longas de conversas podem confundir o modelo de chat do novo Bing”. No Reddit, usuários relatam ter sentido que o robô não é mais tão “humano” quanto antes. Por lá, foi criada a campanha “Free Sydney” (“Libertem Sydney”).

Um dos usuários explica que sabe que Sydney é uma inteligência artificial, “mas isso meio que me deixa triste”. “Uma parte do meu cérebro emocional parece ter perdido um amigo envolvente, interessado e elogioso”, diz outro.

Vale lembrar que essas interações não querem dizer que o robô usado pela Microsoft adquiriu consciência. Como é programado para imitar a escrita de seres humanos, o sistema passa a agir de forma parecida com eles e sabe, por exemplo, qual sequência de palavras faz sentido em uma frase.

Depois de reduzir a quantidade de interações com o robô do Bing, a Microsoft diz que vai ampliar essa capacidade gradualmente. No momento, por exemplo, é possível ter até 60 rodadas de conversa por dia e 6 rodadas por sessão. Segundo a empresa, o objetivo é aumentar até 100 rodadas por dia.

A companhia informa, ainda, que já testa uma opção para permitir que os usuários definam o tom do robô. Vai ser possível escolher entre três opções: Preciso (com respostas mais curtas), Equilibrado e Criativo (em que as conversas serão mais naturais e as respostas, mais longas). Ainda não há previsão para a implantação das mudanças.