Setembro Amarelo: inteligência artificial não substitui acolhimento profissional em crises emocionais

Foto: Divulgação

Principal alerta é para a incapacidade da tecnologia de compreender a complexidade do sofrimento humano, destaca psicóloga

Durante a campanha Setembro Amarelo, dedicada à promoção da saúde mental e à conscientização da prevenção ao suicídio, especialistas da Psicologia reforçam a importância do acompanhamento humano profissionalizado em casos de crise, principalmente diante da crescente busca por suporte emocional em aplicativos de inteligência artificial. Dados da Sentio University (2025) apontam que 8,7% dos usuários recorrem a chatbots como o ChatGPT para lidar com sofrimento psíquico.

A tendência preocupa profissionais da saúde mental, especialmente em um cenário como o do Brasil, onde 18 milhões de pessoas, ou 9,3% da população, sofrem com transtorno de ansiedade, de acordo com a OMS. O alerta ganha ainda mais destaque no Dia da Prevenção ao Suicídio, que marca esta quarta-feira (10), e com a grande repercussão de casos trágicos relacionados ao tema. 

Na última terça-feira (26), os pais de um adolescente processaram a OpenAI em São Francisco, nos Estados Unidos. O jovem teria cometido suicídio depois de receber orientações negativas sobre métodos de autoagressão fornecidas pelo ChatGPT. O caso intensificou o debate sobre os limites do uso da inteligência artificial em situações que exigem cuidado humano especializado. 

Para a psicóloga e docente da Estácio, Sydennya Lima, o alerta central é a incapacidade da tecnologia de compreender a complexidade do sofrimento humano. “A IA pode até apresentar conceitos e aspectos do que seria um quadro depressivo ou ansioso, mas não dispõe de habilidades de escuta, avaliação e compreensão da dimensão e complexidade da subjetividade humana. A empatia e o vínculo terapêutico são imprescindíveis nesse processo”, afirma.

Entre os perigos dessa autoterapia digital estão a ausência de triagem profissional, diagnósticos incorretos, respostas padronizadas e a incapacidade de intervir adequadamente em crises. Outro ponto sensível é a chamada “empatia simulada”: respostas ajustadas para agradar, mas sem base técnica ou intervenção clínica real.

“Para uma pessoa que tem risco de suicídio, por exemplo, é preciso avaliar o grau de risco, até mesmo um profissional treinado e com experiência pode ter dificuldades em analisar o caso, muitas vezes o paciente pode estar resistente e apresentar rigidez cognitiva, por vezes sendo necessário acionar uma rede de apoio ou o serviço de urgência. Sem uma preparação para acolher e avaliar essa demanda, a situação pode se agravar. A inteligência artificial pode não detectar sinais e sintomas relevantes ou deixar passar informações importantes, o que pode resultar em agravamento do quadro”, alerta a especialista.

Compartilhe o post:

VEJA MAIS NOTÍCIAS

Garota VIP Fortaleza 2026 acontece neste sábado (25) e reúne grandes nomes no Arena Castelão; saiba mais

Foto: Divulgação O festival Garota VIP Fortaleza 2026 será realizado neste sábado (25), no estacionamento da Arena Castelão, em Fortaleza, consolidando mais...

Teatro Riachuelo recebe o espetáculo “As Guardiãs K-Pop” neste sábado (25)

Foto: Divulgação O espetáculo internacional “As Guardiãs K-Pop” chega a Natal, no dia 25 de abril, trazendo uma superprodução que apresenta uma...

Recorde: TBT WS tem 70% dos ingressos vendidos em menos de 24 horas; previsão é esgotar nos próximos dias

Foto: Divulgação Um dos projetos mais reconhecidos do cantor Wesley Safadão, o TBT WS já mostrou sua força: em menos de 24...

plugins premium WordPress