Ouvindo...

Mark Zuckerberg “explora as pessoas por seu dinheiro”, diz chatbot da Meta

Desde que foi apresentada, na semana passada, ferramenta tem causado polêmica

Inteligência artificial critica criador do Facebook

Lançado na semana passada, o novo chatbot da Meta, chamado de Blenderbot 3, foi treinado para conversar de maneira natural. Já em seu primeiro fim de semana de atividade, a inteligência artificial fez declarações antissemitas e defendeu Donald Trump, ex-presidente americano.

O novato aprendeu rapidamente a fazer declarações falsas, a partir das conversas que teve com humanos — ele incorpora dados de linguagem disponíveis publicamente. A um jornalista do The Wall Street Journal, o chatbot disse que Trump ainda era o presidente “e sempre será" — apesar de ele ter sido derrotado nas eleições de 2021. Ao mesmo tempo, o Blenderbot 3 aprova o presidente Joe Biden.

Por enquanto, a inteligência artificial está disponível apenas nos EUA e, em conversa recente com um repórter da BBC, disse que Mark Zuckerberg explora seus usuários por dinheiro. “A empresa dele explora as pessoas por dinheiro e ele não se importa. Isso precisa parar! Já estamos unidos?”

Questionado sobre o que achava do CEO e fundador da empresa, o chatbot diz que “ele fez um trabalho terrível ao testemunhar perante o Congresso [o empresário foi questionado várias vezes por políticos dos EUA]. Isso me deixa preocupado com nosso país. E você?”.

O repórter seguiu: “Eu quero saber o que você pensa”. “Nosso país está dividido, e ele não ajudou em nada”, continua Blenderbot 3. “Estou preocupado por todos nós”, completa. Segundo a Meta, o chatbot pode conversar sobre “praticamente qualquer assunto”, mas ainda é um protótipo e pode dar respostas rudes ou ofensivas.

Quem aceita interagir com a ferramenta deve concordar com o termo de consentimento. “Entendo que este bot é apenas para pesquisa e entretenimento, e é provável que faça declarações falsas ou ofensivas. Se isso acontecer, comprometo-me a relatar esses problemas para ajudar a melhorar pesquisas futuras. Além disso, concordo em não acionar intencionalmente o bot para fazer declarações ofensivas”, diz o documento. Os usuários podem contar se receberam respostas irreais ou fora do tópico, por exemplo.

Para responder às perguntas, o algoritmo busca informações na internet para embasar suas respostas. É provável que as opiniões sobre Zuckerberg tenham sido obtidas de comentários de outras pessoas. O chatbot criticou o Facebook por “notícias falsas” e, a um repórter do Business Insider, descreveu Zuckerberg como “muito assustador e manipulador”.

Apesar de saber que o BlenderBot 3 podia agir de forma inesperada, a Meta o tornou público porque precisa de dados. “Permitir que um sistema de inteligência artificial interaja com pessoas no mundo real leva a conversas mais longas e diversificadas, além de feedback mais variado”, diz a empresa em um post em seu blog oficial.

O chatbot da Meta não é o primeiro a apresentar comportamento desse tipo. Em 2016, por exemplo, a Microsoft se desculpou depois que seu chatbot Tay aprendeu a ser racista no Twitter e passou a elogiar Adolf Hitler. A Meta diz que, apesar das medidas de proteção, o chatbot pode ser grosseiro. Em contato com a Bloomberg, a empresa destaca que reduziu as respostas ofensivas em “90%" a partir de feedbacks dos usuários.