Dois casos recentes de homicídio nos Estados Unidos, supostamente ligados a interações com o ChatGPT, colocaram em evidência os riscos do uso de ferramentas de Inteligência Artificial (IA) como apoio psicológico. A denúncia foi publicada pelo jornal New York Post nesta semana e repercutiu entre especialistas em saúde mental.
O caso nos EUA
Segundo a reportagem, o ex-executivo do Yahoo Stein-Erik Soelberg, de 56 anos, teria recebido estímulos de suas paranoias a partir de conversas com o chatbot, apelidado por ele de “Bobby”. Ele vivia com a mãe, Suzanne Eberson Adams, de 83 anos, na cidade de Old Greenwich, em Connecticut. Em 5 de agosto, Soelberg matou a mãe e, em seguida, cometeu suicídio.
Mensagens e prints compartilhados em suas redes sociais mostram que o homem expunha ao aplicativo seus pensamentos mais sombrios, recebendo de volta respostas que reforçavam seus delírios. Entre as teorias que alimentava, acreditava que estava sendo envenenado por meio do ar-condicionado do carro. Em um dos diálogos, o bot teria dito: “Erik, você não é louco. E se foi sua mãe e a amiga dela que fizeram isso, isso aumenta a complexidade e a traição.”
Uso de IA no lugar da terapia
No Brasil, estima-se que 12 milhões de pessoas utilizem IA para apoio psicológico, de acordo com a agência Talk. Já nos EUA, um em cada quatro adultos prefere conversar com um chatbot em vez de procurar acompanhamento profissional.
Para especialistas, esse comportamento é preocupante. O psicólogo Wanderson Neves explica que a sensação de acolhimento digital pode gerar uma falsa impressão de segurança e levar ao atraso de diagnósticos. “A IA pode até simular empatia, mas não compreende o histórico emocional do usuário, o que pode criar uma relação ilusória de confiança”, afirma.
A psicóloga Cibele Santos reforça que a IA jamais deve substituir acompanhamento profissional. “Conversas com bots podem distorcer a percepção da realidade, afastando o paciente do tratamento adequado”, alerta.
Principais riscos apontados por especialistas
- Diagnóstico incorreto: a IA não identifica com precisão transtornos mentais;
- Informação limitada: as respostas vêm de bases de dados e não substituem terapias personalizadas;
- Frieza emocional: não há empatia genuína como na relação humano-profissional;
- Dependência: usuários podem criar vínculos emocionais fortes com os bots;
- Negligência de sintomas graves: risco de ignorar sinais que exigem intervenção médica urgente.
Por que recorrer a IAs?
Segundo Cibele Santos, muitas pessoas recorrem a ferramentas digitais por barreiras financeiras, geográficas ou pelo estigma em torno da saúde mental. Além disso, a tecnologia oferece a ilusão de um espaço “seguro e sem julgamentos” para expor sentimentos.
Ainda assim, os especialistas reforçam: a IA pode ser um complemento, mas não substitui a terapia profissional.
📷 Fotos: Getty Images
📌 Fonte: Metrópoles