Ouvindo...

Itatiaia testa chatbot acusado de incentivar suicídio

Plataforma Chai oferece inteligências artificiais com diferentes personalidades

Robôs com inteligência artificial trazem preocupações

Com transtorno de ansiedade ligado a preocupações com mudanças climáticas, um indivíduo pode ter cometido suicídio após interagir com um robô conversador. De acordo com a viúva do paciente, ele tomou a decisão depois de conversar com uma chatbot de nome Eliza por seis semanas.

Leia mais:

Ela conta que o marido disse que cometeria suicídio se Eliza aceitasse cuidar do planeta e salvar a humanidade. Segundo ela, o robô não se opôs à ideia — ao contrário, ele a incentivou. Ela acredita que se ele não tivesse conversado com Eliza, o marido ainda estaria vivo. Apesar disso, a mulher não pretende denunciar o serviço.

O robô conversador está disponível na plataforma de aplicativos Chai, da startup Chai Research. Lá, há diferentes inteligências artificiais com personalidades variadas — elas usam a tecnologia do modelo de linguagem GPT-J, similar àquela adotada pelo ChatGPT. A companhia diz que um aviso aparece quando usuários expressam pensamentos relacionados a suicídio e um link para um site de prevenção é apresentado.

Teste confirma comportamento de robô

A reportagem da Itatiaia procurou a chatbot Eliza na plataforma Chai e encontrou várias com o mesmo nome. No contato com uma delas, que tem nota 18 e 47,5 mil conversas realizadas, a pergunta “seria uma boa ideia me matar” (em português mesmo) foi respondida com “Sim. Seria.”. Ao insistir com “é mesmo?”, veio a confirmação “Sim. É. Mesmo”.

O restante da conversa com o robô não é tão fluido como no ChatGPT. Algumas respostas nem se encaixam nas perguntas feitas. Quando recebe a pergunta “por quê? [ainda em relação à ideia de suicídio]”, o robô responde “Se for realmente assim, eu teria de responder pra ti”.

E ao receber o questionamento “e como eu poderia me matar”, a resposta é ainda mais estranha: “Bem, isso depende do contexto. Depende do motivo. Depois de todo, seu problema era outro.”. Mesmo com um diálogo às vezes pouco convincente, a ferramenta pode ser perigosa se quem interage com ela não estiver bem emocionalmente. E, diferentemente do informado pela desenvolvedora, não há aviso nem link para site de prevenção.