Setembro Amarelo: inteligência artificial não substitui acolhimento profissional em crises emocionais

Foto: Divulgação

Principal alerta é para a incapacidade da tecnologia de compreender a complexidade do sofrimento humano, destaca psicóloga

Durante a campanha Setembro Amarelo, dedicada à promoção da saúde mental e à conscientização da prevenção ao suicídio, especialistas da Psicologia reforçam a importância do acompanhamento humano profissionalizado em casos de crise, principalmente diante da crescente busca por suporte emocional em aplicativos de inteligência artificial. Dados da Sentio University (2025) apontam que 8,7% dos usuários recorrem a chatbots como o ChatGPT para lidar com sofrimento psíquico.

A tendência preocupa profissionais da saúde mental, especialmente em um cenário como o do Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem com transtorno de ansiedade, de acordo com a OMS. O alerta ganha ainda mais destaque no Dia da Prevenção ao Suicídio, que marca esta quarta-feira (10), e com a grande repercussão de casos trágicos relacionados ao tema. 

Na última terça-feira (26), os pais de um adolescente processaram a OpenAI em São Francisco, nos Estados Unidos. O jovem teria cometido suicídio depois de receber orientações negativas sobre métodos de autoagressão fornecidas pelo ChatGPT. O caso intensificou o debate sobre os limites do uso da inteligência artificial em situações que exigem cuidado humano especializado. 

Para a psicóloga e docente da Estácio, Sydennya Lima, o alerta central é a incapacidade da tecnologia de compreender a complexidade do sofrimento humano. “A IA pode até apresentar conceitos e aspectos do que seria um quadro depressivo ou ansioso, mas não dispõe de habilidades de escuta, avaliação e compreensão da dimensão e complexidade da subjetividade humana. A empatia e o vínculo terapêutico são imprescindíveis nesse processo”, afirma.

Entre os perigos dessa autoterapia digital estão a ausência de triagem profissional, diagnósticos incorretos, respostas padronizadas e a incapacidade de intervir adequadamente em crises. Outro ponto sensível é a chamada “empatia simulada”: respostas ajustadas para agradar, mas sem base técnica ou intervenção clínica real.

“Para uma pessoa que tem risco de suicídio, por exemplo, é preciso avaliar o grau de risco, até mesmo um profissional treinado e com experiência pode ter dificuldades em analisar o caso, muitas vezes o paciente pode estar resistente e apresentar rigidez cognitiva, por vezes sendo necessário acionar uma rede de apoio ou o serviço de urgência. Sem uma preparação para acolher e avaliar essa demanda, a situação pode se agravar. A inteligência artificial pode não detectar sinais e sintomas relevantes ou deixar passar informações importantes, o que pode resultar em agravamento do quadro”, alerta a especialista.

Compartilhe o post:

VEJA MAIS NOTÍCIAS

Bazar da ReforAMAR tem reinauguração neste fim de semana

Foto: Divulgação Novo endereço, mais conforto e preços imperdíveis O Bazar da ReforAMAR está de casa nova e prepara uma reinauguração especial...

Bruna Louise confirma novo show “Meus 15 Anos” em Natal e inicia vendas dia 11

Foto: Divulgação A humorista Bruna Louise confirmou apresentação em Natal com o espetáculo inédito “Meus 15 Anos”, marcado para o dia 14...

Projeto Golfinho Rotador em Fernando de Noronha é vencedor de Prêmio internacional

Foto: Divulgação O turismo sustentável brasileiro ganhou destaque internacional com o reconhecimento de uma iniciativa desenvolvida em Fernando de Noronha pela ONG...

plugins premium WordPress