Carregando agora

Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá em 2026

Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá em 2026

Nesta segunda-feira, famílias das vítimas do violento tiroteio ocorrido em Tumbler Ridge, no Canadá, em 2026, ingressaram com uma ação judicial contra a OpenAI e seu CEO, Sam Altman. A denúncia alega que a empresa foi negligente ao não agir após sinais de ameaça de ataque, que teriam sido detectados por seus sistemas de inteligência artificial. A ação, apresentada nos Estados Unidos, busca responsabilizar as empresas por sua suposta omissão durante o episódio que resultou na morte de oito pessoas, incluindo crianças e adolescentes.

De acordo com a fonte da notícia, as famílias afirmam que a OpenAI tinha mecanismos que poderiam identificar comportamentos potencialmente perigosos, especialmente considerando as ameaças negligenciadas pelo próprio atacante. Elas argumentam que, apesar de sinais claros, a inteligência artificial não foi configurada para alertar ou agir, contribuindo assim para a tragédia. O processo levanta uma discussão importante sobre a responsabilidade de empresas desenvolvedoras de tecnologia avançada na prevenção de atos violentos.

Especialistas em tecnologia e direito divergem quanto às implicações do caso, pontuando que a responsabilização de empresas de IA ainda é um tema controverso no âmbito jurídico internacional. Os advogados das famílias alegam que a negligência na gestão do sistema de segurança da OpenAI agravou a tragédia, e querem que a companhia seja responsabilizada pelos danos. Os tribunais norte-americanos deverão analisar se a ausência de ações por parte da empresa constitui uma falha grave que contribuiu para o resultado fatal.

A OpenAI ainda não comentou oficialmente o processo, mas o incidente reforça o debate global sobre o uso responsável de inteligência artificial e a necessidade de regulamentações mais rígidas. Especialistas alertam que o caso pode estabelecer precedentes importantes na responsabilização de empresas tecnológicas por eventos envolvendo suas criações, sobretudo quando há sinais de ameaça não acionados. O desfecho dessa ação pode impactar significativamente a regulamentação do uso da inteligência artificial em situações de risco.


Fonte: g1.globo.com – Sendo uma reprodução que se faz necessária para fins de divulgação, informamos que todo crédito pelo conteúdo original pertence ao autor e ao veículo g1.globo.com. Esta publicação é feita com base na criação de terceiros, por isso creditamos a fonte original.

Publicar comentário

YOU MAY HAVE MISSED