Foto: Divulgação
Principal alerta é para a incapacidade da tecnologia de compreender a complexidade do sofrimento humano, destaca psicóloga
Durante a campanha Setembro Amarelo, dedicada à promoção da saúde mental e à conscientização da prevenção ao suicídio, especialistas da Psicologia reforçam a importância do acompanhamento humano profissionalizado em casos de crise, principalmente diante da crescente busca por suporte emocional em aplicativos de inteligência artificial. Dados da Sentio University (2025) apontam que 8,7% dos usuários recorrem a chatbots como o ChatGPT para lidar com sofrimento psíquico.
A tendência preocupa profissionais da saúde mental, especialmente em um cenário como o do Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem com transtorno de ansiedade, de acordo com a OMS. O alerta ganha ainda mais destaque no Dia da Prevenção ao Suicídio, que marca esta quarta-feira (10), e com a grande repercussão de casos trágicos relacionados ao tema.
Na última terça-feira (26), os pais de um adolescente processaram a OpenAI em São Francisco, nos Estados Unidos. O jovem teria cometido suicídio depois de receber orientações negativas sobre métodos de autoagressão fornecidas pelo ChatGPT. O caso intensificou o debate sobre os limites do uso da inteligência artificial em situações que exigem cuidado humano especializado.
Para a psicóloga e docente da Estácio, Sydennya Lima, o alerta central é a incapacidade da tecnologia de compreender a complexidade do sofrimento humano. “A IA pode até apresentar conceitos e aspectos do que seria um quadro depressivo ou ansioso, mas não dispõe de habilidades de escuta, avaliação e compreensão da dimensão e complexidade da subjetividade humana. A empatia e o vínculo terapêutico são imprescindíveis nesse processo”, afirma.
Entre os perigos dessa autoterapia digital estão a ausência de triagem profissional, diagnósticos incorretos, respostas padronizadas e a incapacidade de intervir adequadamente em crises. Outro ponto sensível é a chamada “empatia simulada”: respostas ajustadas para agradar, mas sem base técnica ou intervenção clínica real.
“Para uma pessoa que tem risco de suicídio, por exemplo, é preciso avaliar o grau de risco, até mesmo um profissional treinado e com experiência pode ter dificuldades em analisar o caso, muitas vezes o paciente pode estar resistente e apresentar rigidez cognitiva, por vezes sendo necessário acionar uma rede de apoio ou o serviço de urgência. Sem uma preparação para acolher e avaliar essa demanda, a situação pode se agravar. A inteligência artificial pode não detectar sinais e sintomas relevantes ou deixar passar informações importantes, o que pode resultar em agravamento do quadro”, alerta a especialista.