Famílias de vítimas processam empresa do ChatGPT após ataque com mortos no Canadá
Ação judicial acusa companhia de não alertar autoridades mesmo após identificar risco em conversas do atirador

Familiares das vítimas de um ataque violento ocorrido no Canadá entraram com processos contra a empresa responsável pelo ChatGPT, alegando falhas graves na prevenção da tragédia. A ação judicial foi apresentada nos Estados Unidos e levanta questionamentos inéditos sobre a responsabilidade de plataformas de inteligência artificial em casos de violência.
De acordo com o processo, a empresa teria identificado meses antes do ataque interações preocupantes do autor com o chatbot, mas não comunicou as autoridades. Para os familiares, essa omissão pode ter contribuído diretamente para o desfecho fatal.
O ataque aconteceu em fevereiro de 2026, na província de British Columbia, e deixou mortos e feridos, incluindo crianças. O caso abalou a pequena comunidade local e ganhou repercussão internacional.
Segundo os advogados das famílias, sistemas internos da empresa chegaram a sinalizar o comportamento do usuário como uma ameaça real. Ainda assim, a decisão teria sido não acionar a polícia. A acusação afirma que a medida visava evitar danos à reputação da companhia e possíveis impactos em seus negócios.
Outro ponto levantado na ação é que, mesmo após ter uma conta bloqueada por violar regras, o responsável pelo ataque conseguiu criar um novo perfil e continuar utilizando a ferramenta. Isso teria permitido a continuidade do planejamento do crime.
As famílias pedem indenizações e mudanças nas políticas de segurança da empresa, incluindo a obrigação de comunicar autoridades quando houver risco concreto de violência.
Em resposta, a empresa declarou que o episódio é uma tragédia e afirmou ter adotado medidas para reforçar a segurança da plataforma. Entre elas estão melhorias na identificação de comportamentos de risco, respostas mais rigorosas a conteúdos sensíveis e maior conexão com serviços de apoio em saúde mental.
O caso é considerado um marco por especialistas, já que pode abrir precedentes para responsabilizar empresas de tecnologia pelo uso indevido de ferramentas de inteligência artificial.
Jornalista graduado com ênfase em multimídia pelo Centro Universitário Una. Com mais de 10 anos de experiência em jornalismo digital, é repórter do Tribunal de Justiça de Minas Gerais. Antes, foi responsável pelo site da Revista Encontro, e redator nas agências de comunicação Duo, FBK, Gira e Viver.



