Se dependesse de dois funcionários do Google que revisam produtos de inteligência artificial, o Bard não teria sido lançado. Eles tentaram impedir, em março deste ano, que a empresa apresentasse o robô conversador concorrente do ChatGPT. Eles contam que o sistema produzia declarações imprecisas e perigosas durante os testes.
Leia também:
Na Microsoft, houve um movimento semelhante dez meses antes: especialistas em ética tentaram evitar um lançamento semelhante. Eles escreveram em vários documentos que a tecnologia poderia inundar grupos do Facebook com desinformação, degradar pensamento crítico e corroer a base factual da sociedade moderna.
Ambos chegaram ao mercado poucos meses após o ChatGPT, da OpenAI, se tornar extremamente popular — atualmente, ele tem cerca de 100 milhões de usuários. Microsoft e Google decidiram assumir riscos maiores em relação a suas próprias diretrizes éticas, que buscam garantir que suas tecnologias não causem distúrbios sociais.
Recentemente, especialistas do segmento pediram uma pausa de seis meses no desenvolvimento da tecnologia. Uma carta aberta, que debate “profundos riscos para a sociedade e a humanidade”, foi assinada por empresários como Elon Musk e Steve Wozniak, cofundador da Apple, bem como por estudiosos do tema.
Paralelamente, a União Europeia propôs legislação para regular a inteligência artificial e a Itália suspendeu o ChatGPT temporariamente. Nos EUA, o presidente Joe Biden questionou a segurança da tecnologia e aqui no Brasil juristas levaram um projeto para ser discutido no Congresso Nacional.