Com o uso cada vez mais frequente de ferramentas de inteligência artificial, o Google emitiu recomendações aos funcionários. E elas valem até para usuários comuns dessas soluções: é o caso, por exemplo, de não inserir dados confidenciais nos chatbots. Um aviso de privacidade da companhia oferece a mesma orientação em relação ao Bard.
Leia também:
Segundo a empresa, a regra é parte de uma “uma política de longa data” sobre proteção de dados. O Google lembra, ainda, que a configuração padrão tanto no Bard quanto no ChatGPT é manter o histórico de conversas.
Além disso, os engenheiros de software da organização devem evitar usar códigos de programação criados por chatbots. A empresa ressalta que, embora esse material ajude os programadores, os robôs de inteligência artificial podem oferecer sugestões com erros de código — a recomendação vale, inclusive, para o Bard, criado pelo próprio Google.
Uma pesquisa do site Fishbowl com quase 12 mil entrevistados aponta que cerca de 43% dos profissionais americanos usavam ChatGPT ou outras ferramentas de inteligência artificial em janeiro — muitas vezes sem avisar a empresa em que trabalham. A expectativa é que o segmento valha trilhões de dólares nos próximos anos.