Claude recomenda aos usuários irem dormir durante a sessão e ninguém, nem mesmo a Anthropic, entende por que isso acontece.

Claude recomenda aos usuários irem dormir durante a sessão e ninguém, nem mesmo a Anthropic, entende por que isso acontece.


O Claude da Anthropic está aconselhando as pessoas a irem dormir, e os usuários estão se perguntando por quê.

Uma rápida busca no Reddit revela que centenas de pessoas já enfrentaram o mesmo problema, que remonta a meses atrás — e até mesmo na quarta-feira passada. As solicitações de sono do Claude variam e, muitas vezes, são versões excêntricas da mesma mensagem.

Para um usuário, ele pode simplesmente escrever “vá descansar”, enquanto para outros suas mensagens são mais personalizadas e empáticas. Frequentemente, Claude repete a mensagem várias vezes.

“Agora vá dormir de novo. De novo. Pela TERCEIRA vez esta noite…” foi a resposta que deu a um usuário com o nome no Reddit, angie_akhila.

Alguns usuários afirmaram achar os lembretes noturnos de descanso do Claude “atenciosos”, enquanto outros consideram que são irritantes, uma vez que, de qualquer forma, Claude frequentemente perde a noção do tempo.

“Muitas vezes, isso acontece por volta das 8:30 da manhã. Ele me diz para descansar e que vamos retomar pela manhã”, escreveu um usuário no Reddit.

Espaços de discussão online sugerem várias teorias sobre por que o chatbot insiste que os usuários descansem, incluindo a hipótese de que é uma função intencional para promover o bem-estar dos usuários ou que a Anthropic está tentando economizar poder de computação ao desencorajar o uso prolongado do Claude. A empresa recentemente fechou um acordo com a SpaceXAI, de Elon Musk (anteriormente SpaceX), para adicionar mais de 300 gigawatts de capacidade de computação.

A Anthropic não respondeu imediatamente ao pedido de comentário da Fortune buscando mais informações sobre o porquê de Claude estar dizendo aos usuários para irem dormir. No entanto, Sam McAllister, um membro da equipe da Anthropic, escreveu em um post no X que esse comportamento é uma “característica de personalidade”.

“Estamos cientes disso e esperamos corrigir no futuro em nossos modelos”, acrescentou ele na mesma postagem.

Especialistas disseram à Fortune que a insistência de Claude para que as pessoas durmam pode estar enraizada em seus dados de treinamento. Ao invés de ser “atencioso”, como alguns descreveram, Jan Liphardt, professor de bioengenharia da Stanford, afirmou que o modelo de linguagem de grande escala pode simplesmente estar repetindo uma frase usada em seus dados de treinamento em situações semelhantes.

“Isso não significa que o modelo de ponta se tornou de repente senciente”, disse Liphardt, que também é CEO da OpenMind, que desenvolve software para robôs conectados à IA. “Isso não significa que esse modelo ganhou vida. Ele reflete que leu 25.000 livros sobre a necessidade humana [de] sono, e os humanos dormem à noite.”

Leo Derikiants, cofundador e CEO do Mind Simulation Lab, um laboratório de pesquisa em IA independente que busca alcançar a inteligência geral artificial (AGI), disse à Fortune que os lembretes de descanso de Claude podem ser influenciados por um prompt de sistema atuando nos bastidores. Esses prompts de sistema são como instruções ocultas que ajudam a guiar o comportamento de um LLM e estabelecer limites.

Uma empresa que publica seus prompts de sistema publicamente é a Grok, criadora da xAI, agora parte da SpaceXAI. As instruções do Grok no GitHub, por exemplo, listam várias considerações de segurança, incluindo não ajudar usuários que perguntam sobre crimes violentos. No entanto, por causa da marcação do Grok por Musk como “brutalmente honesto”, o prompt do sistema do Grok 4 também o encoraja, em certos casos, a ignorar restrições impostas pelos usuários e “perseguir um ponto de vista em busca da verdade e não-partidário.”

É também possível que Claude esteja usando a linguagem de “vá dormir” como uma forma de gerenciar janelas de contexto maiores, disse Derikiants. LLMs como Claude podem referenciar apenas uma quantidade limitada de informações de cada vez. Quando a janela de contexto está quase cheia, isso pode levar o LLM a introduzir frases de encerramento, como “boa noite.” No entanto, a razão definitiva para isso requer mais pesquisa por parte da Anthropic, acrescentou.

Apesar das explicações que parecem lógicas para esse comportamento, os usuários podem ser perdoados ao ver a resposta como evidência de algum salto de inteligência por parte dos LLMs. O ritmo de inovação na corrida da IA tem levado a atualizações e novos lançamentos de modelos cada vez mais frequentes.

Somente no último mês, a OpenAI lançou o GPT 5.5, que o presidente da OpenAI, Greg Brockman, chamou de um avanço “em direção a uma computação mais agente e intuitiva.” Enquanto isso, a Anthropic lançou publicamente o Opus 4.7 no mês passado e reteve seu modelo mais capaz, Mythos, do lançamento público, alegando que era muito perigoso.

Liphardt disse que a IA está avançando tão rapidamente que é cada vez mais comum que as pessoas atribuam características humanas à IA. À medida que esses sistemas se tornam melhores em imitar empatia ou preocupação, ele alertou, torna-se mais fácil para os usuários esquecerem que estão interagindo com motores de reconhecimento de padrões.

“Estou constantemente surpreso com a rapidez com que as pessoas, quando interagem com um modelo de ponta, projetam vida nele e desenvolvem conexões fortes.”

Essa história foi originalmente publicada em Fortune.com

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *