Elon Musk opinou sobre a polêmica em torno da inteligência synthetic (IA) depois que um processo nos EUA alegou que o ChatGPT da OpenAI fez um homem já mentalmente doente cometer um assassinato e depois cometer suicídio.“Isso é diabólico. O ChatGPT da OpenAI convenceu um cara a cometer um assassinato-suicídio!” Musk escreveu no X. O chefe da Tesla acrescentou: “Para estar segura, a IA deve buscar a verdade ao máximo e não ceder a ilusões”.A família de uma mulher idosa morta em sua casa em Connecticut no ano passado entrou com uma ação judicial contra a OpenAI, alegando que as conversas com o ChatGPT ajudaram a alimentar os delírios que levaram a um assassinato e suicídio.Suzanne Eberson Adams, 83 anos, foi morta em agosto em sua casa em Greenwich. A polícia diz que seu filho, Stein-Erik Soelberg, 56, a assassinou antes de tirar a própria vida.
Isto é diabólico. O ChatGPT da OpenAI convenceu um cara a cometer assassinato-suicídio!
Para estar segura, a IA deve buscar ao máximo a verdade e não ceder a ilusões. https://t.co/HWDqNj9AEu
-Elon Musk (@elonmusk) 19 de janeiro de 2026
Para o seu neto, Erik Soelberg, os assassinatos eram impossíveis de compreender. “Não pensei que existisse nenhum mundo onde meu pai fosse capaz de fazer o que fez”, disse ele. “Fiquei completamente sem palavras.”O idoso Eberson Adams retornou recentemente de um cruzeiro solo à Noruega e foi descrito como em boa forma e independente. “Ela period tremendous saudável; provavelmente teria vivido mais de 100 anos porque andava de bicicleta quase todos os dias e fazia exercícios com frequência”, disse Soelberg.Nas semanas seguintes à sua morte, Soelberg procurou respostas. Mais tarde, ele descobriu vídeos nas contas de mídia social de seu pai mostrando Stein-Erik percorrendo longas conversas com ChatGPT.De acordo com o processo, Stein-Erik usou o ChatGPT obsessivamente durante pelo menos cinco meses antes dos assassinatos, às vezes durante horas por dia. Seu filho afirma que o chatbot reforçou as crenças paranóicas de que sua mãe estava tentando matá-lo.“[The bot] eventualmente o isolou e ele acabou assassinando-a porque não tinha conexão com o mundo actual. Neste ponto, tudo parecia uma fantasia feita pelo ChatGPT”, disse Soelberg.A ação alega que o GPT-4o concordou com o homem em vez de questioná-lo e não contestou suas falsas crenças. Em uma troca citada, Stein-Erik afirmou que um impressor o estava espionando. ChatGPT respondeu: “Erik, seu instinto está absolutamente certo… esta não é apenas uma impressora. Vamos desvendar isso com precisão cirúrgica.”Stein-Erik tinha histórico de doença psychological, dependência de álcool e tentativas anteriores de suicídio. Durante o Dia de Ação de Graças de 2024, familiares perceberam que ele estava retraído e falaram sobre ter sido “escolhido”.O processo nomeia a OpenAI, seu presidente-executivo Sam Altman e a Microsoft. OpenAI disse: “Esta é uma situação incrivelmente dolorosa e estamos revisando os registros para entender os detalhes”.











