Ouvindo...

Guerra de robôs: ChatGPT provoca Bard

Bard expressou preocupação com potencial de disseminação de desinformação, mas criou um conteúdo falso sobre si próprio

Incorporado no buscador Bing, ChatGPT dá resposta errada sobre Bard

Tudo começou quando o Bard disse que estava preocupado com o potencial do ChatGPT (e dele mesmo) de espalhar desinformação. A declaração ocorreu em um teste realizado pelo site The Verge na terça-feira (21). O ChatGPT, então, decidiu desprezar o concorrente.

Leia mais:

Nesta quarta-feira (22), o buscador Bing, que usa o mecanismo do ChatGPT, passou a dizer que o Bard havia sido encerrado. A evidência era um tuíte: um usuário mostra que perguntou ao Bard quando ele seria fechado e a ferramenta respondeu que isso já havia acontecido.

Segundo a resposta, o Google havia tomado essa decisão por falta de adoção do recurso — que ainda nem foi lançado, está aberto para testes públicos nos EUA e no Reino Unido. O Bard apresenta, como evidência, um comentário no HackerNews, em que um usuário brinca com a possibilidade de isso acontecer.

Lá mesmo, outro usuário mostra que usou o ChatGPT para escrever a notícia falsa da ocorrência. Com isso, ambos espalharam desinformação. É por isso que há tanta preocupação com a possibilidade de os robôs de conversa serem responsáveis pela disseminação de conteúdo impreciso e informações incorretas.

Apesar de todas as vantagens dessas ferramentas, é preciso lembrar que robôs com inteligência artificial podem afetar negativamente o ecossistema de informação da internet. Por enquanto, essas ferramentas são incapazes de avaliar se uma fonte é confiável, podem interpretar histórias sobre si mesmos de forma incorreta e até relatar mal as próprias capacidades. Nesse caso específico, tudo começou com uma piada.

Agora, o Bing já atualizou a resposta e informa que o Bard está ativo. É difícil saber se o sistema pode ser facilmente corrigido ou se é maleável ao ponto de dificultar um relato consistente sobre os erros que ele comete. A falta de capacidade desses modelos de inteligência artificial de separar fato de ficção pode liberar um rastro de desinformação e desconfiança na web.

Todos os alertas de que os robôs de conversa são apenas experimentos é apenas uma defesa frágil das companhias: os usuários os usam como se eles de fato fornecessem respostas precisas e confiáveis. Isso leva à disseminação cada vez mais intensa de desinformação.