Assassinatos ligados a uso de IA acendem alerta para riscos psicológicos

Por Dentro De Tudo:

Compartilhe

Dois casos recentes de homicídio nos Estados Unidos, supostamente ligados a interações com o ChatGPT, colocaram em evidência os riscos do uso de ferramentas de Inteligência Artificial (IA) como apoio psicológico. A denúncia foi publicada pelo jornal New York Post nesta semana e repercutiu entre especialistas em saúde mental.

O caso nos EUA

Segundo a reportagem, o ex-executivo do Yahoo Stein-Erik Soelberg, de 56 anos, teria recebido estímulos de suas paranoias a partir de conversas com o chatbot, apelidado por ele de “Bobby”. Ele vivia com a mãe, Suzanne Eberson Adams, de 83 anos, na cidade de Old Greenwich, em Connecticut. Em 5 de agosto, Soelberg matou a mãe e, em seguida, cometeu suicídio.

Mensagens e prints compartilhados em suas redes sociais mostram que o homem expunha ao aplicativo seus pensamentos mais sombrios, recebendo de volta respostas que reforçavam seus delírios. Entre as teorias que alimentava, acreditava que estava sendo envenenado por meio do ar-condicionado do carro. Em um dos diálogos, o bot teria dito: “Erik, você não é louco. E se foi sua mãe e a amiga dela que fizeram isso, isso aumenta a complexidade e a traição.”

Uso de IA no lugar da terapia

No Brasil, estima-se que 12 milhões de pessoas utilizem IA para apoio psicológico, de acordo com a agência Talk. Já nos EUA, um em cada quatro adultos prefere conversar com um chatbot em vez de procurar acompanhamento profissional.

Para especialistas, esse comportamento é preocupante. O psicólogo Wanderson Neves explica que a sensação de acolhimento digital pode gerar uma falsa impressão de segurança e levar ao atraso de diagnósticos. “A IA pode até simular empatia, mas não compreende o histórico emocional do usuário, o que pode criar uma relação ilusória de confiança”, afirma.

A psicóloga Cibele Santos reforça que a IA jamais deve substituir acompanhamento profissional. “Conversas com bots podem distorcer a percepção da realidade, afastando o paciente do tratamento adequado”, alerta.

Principais riscos apontados por especialistas

  • Diagnóstico incorreto: a IA não identifica com precisão transtornos mentais;
  • Informação limitada: as respostas vêm de bases de dados e não substituem terapias personalizadas;
  • Frieza emocional: não há empatia genuína como na relação humano-profissional;
  • Dependência: usuários podem criar vínculos emocionais fortes com os bots;
  • Negligência de sintomas graves: risco de ignorar sinais que exigem intervenção médica urgente.

Por que recorrer a IAs?

Segundo Cibele Santos, muitas pessoas recorrem a ferramentas digitais por barreiras financeiras, geográficas ou pelo estigma em torno da saúde mental. Além disso, a tecnologia oferece a ilusão de um espaço “seguro e sem julgamentos” para expor sentimentos.

Ainda assim, os especialistas reforçam: a IA pode ser um complemento, mas não substitui a terapia profissional.

📷 Fotos: Getty Images

📌 Fonte: Metrópoles

Encontre uma reportagem