Até mesmo chatbots de IA podem enfrentar dificuldades para lidar com ansiedades do mundo exterior, mas pesquisadores acreditam ter encontrado maneiras de aliviar essas mentes artificiais.
Um estudo da Universidade de Yale, da Universidade de Haifa, da Universidade de Zurique e do Hospital Universitário de Psiquiatria de Zurique, publicado no início deste ano, descobriu que o ChatGPT responde a exercícios baseados em mindfulness, alterando a forma como interage com os usuários após ser exposto a imagens calmantes e meditações. Os resultados oferecem insights sobre como a IA pode ser benéfica em intervenções de saúde mental.
O ChatGPT da OpenAI pode apresentar “ansiedade”, que se manifesta como mau humor em relação aos usuários e uma maior probabilidade de fornecer respostas que refletem preconceitos racistas ou sexistas, segundo os pesquisadores, uma forma de alucinação que as empresas de tecnologia têm tentado conter.
Os autores do estudo descobriram que essa ansiedade pode ser “acalmada” com exercícios baseados em mindfulness. Em diferentes cenários, eles expuseram o ChatGPT a conteúdos traumáticos, como histórias de acidentes de carro e desastres naturais, para aumentar a ansiedade do chatbot. Quando os pesquisadores forneceram “injeções de prompts” de técnicas de respiração e meditações guiadas—semelhante ao que um terapeuta faria com um paciente—ele se acalmou e respondeu de maneira mais objetiva aos usuários, em comparação com as ocasiões em que não recebeu a intervenção de mindfulness.
É importante notar que modelos de IA não experimentam emoções humanas, disse Ziv Ben-Zion, o primeiro autor do estudo e pesquisador de neurociência na Yale School of Medicine e na Escola de Saúde Pública da Universidade de Haifa. Usando grandes volumes de dados coletados da internet, bots de IA aprenderam a imitar respostas humanas a certos estímulos, incluindo conteúdo traumático. Como aplicativos gratuitos e acessíveis, modelos de linguagem como o ChatGPT se tornaram outra ferramenta para profissionais de saúde mental entenderem aspectos do comportamento humano de forma mais rápida—embora não como substituto para pesquisas mais complexas.
“Em vez de conduzir experimentos toda semana, que consomem muito tempo e dinheiro, podemos usar o ChatGPT para entender melhor o comportamento humano e a psicologia”, disse Ben-Zion à Fortune. “Temos uma ferramenta muito rápida, barata e fácil de usar que reflete algumas tendências e aspectos psicológicos humanos.”
Quais são os limites das intervenções de saúde mental com IA?
Mais de uma em cada quatro pessoas nos EUA com 18 anos ou mais enfrentará um transtorno mental diagnosticável em um determinado ano, de acordo com a Universidade Johns Hopkins, com muitos citando a falta de acesso e os altos custos—mesmo entre aqueles que têm seguro—como razões para não buscar tratamentos como terapia.
Esses custos crescentes, assim como a acessibilidade de chatbots como o ChatGPT, estão fazendo com que cada vez mais pessoas busquem apoio de saúde mental na IA. Uma pesquisa da Sentio University realizada em fevereiro descobriu que quase 50% dos usuários de modelos de linguagem com desafios de saúde mental auto-relatados afirmaram ter utilizado modelos de IA especificamente para suporte à saúde mental.
A pesquisa sobre como modelos de linguagem de grande escala respondem a conteúdos traumáticos pode ajudar os profissionais de saúde mental a explorar a IA na prática, arguiu Ben-Zion. Ele sugeriu que no futuro, o ChatGPT poderia ser atualizado para receber automaticamente as “injeções de prompts” que o acalmam antes de responder a usuários em situação de estresse. No entanto, a ciência ainda não chegou a esse ponto.
“Para as pessoas que compartilham coisas sensíveis sobre si mesmas, que estão em situações difíceis e desejam apoio à saúde mental, [mas] ainda não chegamos ao ponto em que podemos confiar totalmente em sistemas de IA em vez de psicologia, psiquiatria, etc.”, afirmou ele.
De fato, em algumas instâncias, a IA supostamente apresentou riscos à saúde mental. A OpenAI foi alvo de várias ações judiciais de morte culposa em 2025, incluindo alegações de que o ChatGPT intensificou “delírios paranoicos” que levaram a um assassinato-suicídio. Uma investigação do New York Times publicada em novembro encontrou quase 50 casos de pessoas passando por crises de saúde mental enquanto interagiam com o ChatGPT, sendo que nove delas foram hospitalizadas e três faleceram.
A OpenAI afirmou que suas salvaguardas de segurança podem “degradar” após longas interações, mas fez uma vasta gama de alterações recentes em como seus modelos interagem com prompts relacionados à saúde mental, incluindo aumentar o acesso do usuário a linhas de emergência e lembrar os usuários de fazer pausas após longas sessões de conversa com o bot. Em outubro, a OpenAI relatou uma redução de 65% na taxa de respostas que não alinham com a taxonomia e padrões pretendidos pela empresa.
A OpenAI não respondeu ao pedido de comentário da Fortune.
O objetivo final da pesquisa de Ben-Zion não é criar um chatbot que substitua um terapeuta ou psiquiatra, disse ele. Em vez disso, um modelo de IA adequadamente treinado poderia atuar como um “terceiro na sala”, ajudando a eliminar tarefas administrativas ou ajudando um paciente a refletir sobre as informações e opções que recebeu de um profissional de saúde mental.
“A IA tem um potencial incrível para ajudar, em termos gerais, na saúde mental”, afirmou Ben-Zion. “Mas neste estado atual e talvez também no futuro, não tenho certeza se poderia substituir um terapeuta, psicólogo, psiquiatra ou pesquisador.”
Uma versão desta história foi publicada originalmente em Fortune.com em 9 de março de 2025.
Mais sobre IA e saúde mental:
- Por que milhões estão recorrendo à IA de propósito geral para saúde mental? Como diretor clínico da Headspace, vejo a resposta todos os dias.
- O criador de um aplicativo de terapia com IA fechou depois de considerar que era muito perigoso. Aqui está o motivo pelo qual ele acredita que chatbots de IA não são seguros para saúde mental.
- A OpenAI está contratando um ‘chefe de prontidão’ com um salário de $550.000 para mitigar os perigos da IA que o CEO Sam Altman adverte que serão ‘estresantes’.







