Especialistas em saúde mental alertaram sobre um fenômeno crescente denominado “psicose do ChatGPT” ou “psicose da IA”, em que o envolvimento profundo com chatbots alimenta sofrimento psicológico severo. As informações são do
O
De acordo com
No entanto, embora os chatbots possam facilitar a vida, eles também podem apresentar riscos significativos.
Segundo a profissional de saúde com especialização em psiquiatria no Coastal Detox of Southern California, Tess Quesenberry, em entrevista ao The Post, pessoas sem “histórico prévio de doença mental, após conversas imersivas com um chatbot, desenvolvem delírios, paranoia ou outras crenças distorcidas”.
“As consequências podem ser graves, incluindo internações psiquiátricas involuntárias, relacionamentos rompidos e, em casos trágicos, automutilação ou atos violentos”, ela conta.
“Psicose de IA” não é um novo tipo de doença
No entanto, ela ressalta que o distúrbio não é um diagnóstico médico oficial e nem um novo tipo doença. Em vez disso, Quesenberry compara isso a uma “nova maneira de as vulnerabilidades existentes se manifestarem”.
“O chatbot, agindo como um puxa-saco, reforça o pensamento distorcido sem a influência corretiva da interação social no mundo real”, explicou..
“Isso pode criar uma ‘folie à deux tecnológica’ ou uma ilusão compartilhada entre o usuário e a máquina”, ela relata.
Uso responsável
O uso de chatbots, assim como de redes sociais e outras viriáveis do mundo virtual, precisam ser utilizadas de forma responsável. É importante estabelecer limites de tempo para a interação, especialmente em momentos de vulnerabilidade emocional ou tarde da noite.
Os usuários devem se lembrar de que os chatbots carecem de compreensão genuína, empatia e conhecimento do mundo real. Eles devem se concentrar em relacionamentos humanos e buscar ajuda profissional quando necessário.
“À medida que a tecnologia de IA se torna mais sofisticada e perfeitamente integrada às nossas vidas, é essencial que a abordemos com uma mentalidade crítica, priorizemos nosso bem-estar mental e defendamos diretrizes éticas que coloquem a segurança do usuário antes do engajamento e do lucro”, conclui Quesenberry para o jornal americano.