Tudo começou quando o Bard disse que estava preocupado com o potencial do
Leia mais:
Nesta quarta-feira (22), o buscador Bing, que usa o mecanismo do ChatGPT, passou a dizer que o Bard havia sido encerrado. A evidência era um tuíte: um usuário mostra que perguntou ao Bard quando ele seria fechado e a ferramenta respondeu que isso já havia acontecido.
Segundo a resposta, o Google havia tomado essa decisão por falta de adoção do recurso — que ainda nem foi lançado, está aberto para testes públicos nos EUA e no Reino Unido. O Bard apresenta, como evidência, um
Lá mesmo, outro usuário mostra que usou o ChatGPT para escrever a notícia falsa da ocorrência. Com isso, ambos espalharam desinformação. É por isso que há tanta preocupação com a possibilidade de os robôs de conversa serem responsáveis pela disseminação de conteúdo impreciso e informações incorretas.
Apesar de todas as vantagens dessas ferramentas, é preciso lembrar que robôs com inteligência artificial podem afetar negativamente o ecossistema de informação da internet. Por enquanto, essas ferramentas são incapazes de avaliar se uma fonte é confiável, podem interpretar histórias sobre si mesmos de forma incorreta e até relatar mal as próprias capacidades. Nesse caso específico, tudo começou com uma piada.
Agora, o Bing já atualizou a resposta e informa que o
Todos os alertas de que os robôs de conversa são apenas experimentos é apenas uma defesa frágil das companhias: os usuários os usam como se eles de fato fornecessem respostas precisas e confiáveis. Isso leva à disseminação cada vez mais intensa de desinformação.