Antropic enfrenta uma onda de críticas de usuários devido a problemas de desempenho com seu chatbot Claude AI

Antropic enfrenta uma onda de críticas de usuários devido a problemas de desempenho com seu chatbot Claude AI


A Anthropic, uma empresa de IA em ascensão, está enfrentando uma reação negativa de alguns de seus usuários mais ativos devido a uma suposta queda no desempenho de seus modelos de IA Claude.
Os problemas deixaram a empresa—recentemente avaliada em US$ 380 bilhões e supostamente se preparando para um IPO—apressada para responder à revolta dos usuários e às especulações online sobre suas intenções e sua habilidade de atender à nova onda de clientes.

Segundo diversos desenvolvedores e usuários frequentes, o popular modelo de IA Claude da Anthropic apresentou um declínio significativo em seu desempenho recentemente, com reclamações de que o modelo frequentemente não segue as instruções, opta por atalhos inapropriados em algumas situações e comete mais erros em fluxos de trabalho complexos.
As queixas parecem estar relacionadas a mudanças recentes que a Anthropic fez discretamente na forma como Claude opera, reduzindo o nível padrão de “esforço” do modelo para economizar na quantidade de tokens, ou unidades de dados, processados em resposta a cada pedido. (Um porta-voz da Anthropic afirmou publicamente que a mudança estava listada no changelog, uma lista de atualizações disponível para os usuários.)
Quanto mais tokens são processados por tarefa, maior é o poder computacional consumido. Há uma especulação generalizada de que a Anthropic, que anunciou menos acordos multibilionários para capacidade em centros de dados do que alguns de seus rivais, pode estar enfrentando escassez de recursos computacionais após um aumento significativo na adoção de seus produtos nos últimos meses.
A insatisfação dos usuários com a súbita queda de desempenho de Claude e a ira em relação à falta de transparência da Anthropic podem potencialmente prejudicar o crescimento acelerado da empresa, especialmente agora que ela busca atrair investidores para um potencial IPO. As alegações de que a Anthropic não foi clara sobre as mudanças feitas na operação de Claude ou sobre como essas alterações poderiam aumentar os custos de uso são particularmente ameaçadoras, pois, mais do que qualquer outra empresa de IA, a Anthropic tentou construir uma reputação de marca com base na transparência e na aliança com os interesses de seus usuários.

A Anthropic não respondeu às perguntas específicas de Fortune sobre as reclamações dos usuários do Claude. Boris Cherny, o executivo da Anthropic que lidera o produto Claude Code, respondeu online a queixas de usuários dizendo que a Anthropic havia reduzido o “esforço” padrão que Claude faz ao responder aos comandos dos usuários para “médio”, em resposta ao feedback de que anteriormente Claude estava consumindo muitos tokens por tarefa. No entanto, muitos usuários reclamaram que a empresa não destacou essa mudança para eles.
A situação gerou uma onda de especulações e alegações—including from some of its competitors—that the company is purposely degrading performance due to a lack of compute capacity.

Em toda a indústria, empresas de IA estão enfrentando custos crescentes de GPU, expansão restrita de centros de dados e difíceis trocas sobre quais produtos priorizar à medida que a demanda por sistemas de IA “agentic” acelera mais rapidamente do que a infraestrutura pode escalar. Embora um porta-voz da Anthropic tenha afirmado publicamente que a empresa de IA não degrada seus modelos para servir melhor a demanda, há razões para acreditar que a empresa está enfrentando restrições mais agudas do que alguns concorrentes.

A Anthropic sofreu uma série de quedas recentes à medida que o uso aumentou e introduziu limites de uso mais rigorosos durante horários de pico, gerando reclamações de alguns usuários. Em um comunicado interno reportado pela CNBC, o chefe de receita da OpenAI também afirmou que a Anthropic havia cometido um “erro estratégico” ao não garantir capacidade computacional suficiente e estava “operando em uma curva significativamente menor” do que seus concorrentes. (A Anthropic não respondeu às perguntas da CNBC sobre essas alegações.)

Além disso, a Anthropic anunciou na semana passada que havia treinado um novo modelo, ainda não lançado, chamado Mythos, que é significativamente mais capaz do que seu modelo Opus AI—mas que também é maior e mais caro de operar, significando que provavelmente consome mais capacidade computacional do que os modelos anteriores. A Anthropic enfatizou que não está liberando o modelo para o público geral ainda por questões de segurança, mas alguns questionaram se a Anthropic não possui capacidade computacional suficiente para suportar um amplo lançamento do Mythos.

Vítima do seu próprio sucesso

A atenção à Anthropic ressalta a natureza em rápida mudança do mercado de IA e os riscos envolvidos. Na semana passada, a Anthropic surpreendeu a indústria ao anunciar que sua receita recorrente anualizada, ou ARR, agora é de US$ 30 bilhões, um salto em relação a US$ 9 bilhões no final de 2025. A OpenAI afirmou no mês passado que está gerando US$ 2 bilhões por mês em receita, ou US$ 24 bilhões por ano, embora as duas empresas não relatem receitas da mesma maneira, tornando comparações diretas problemáticas.

A Anthropic recentemente se beneficiou de um influxo de novos usuários, primeiro devido à popularidade de sua ferramenta de codificação AI, Claude Code, e depois a uma onda de apoio do consumidor que se seguiu à sua conflito com o Departamento de Defesa dos EUA. Muitos usuários migraram para Claude de rivais como o ChatGPT da OpenAI depois que a administração Trump designou a Anthropic como um “risco de cadeia de suprimentos”. A Anthropic afirmou que a disputa surgiu de sua insistência para que o governo dos EUA concordasse em seu contrato em não utilizar a tecnologia da empresa em armas autônomas letais ou para a vigilância em massa de cidadãos americanos.

Nos últimos anos, a Anthropic conseguiu avançar significativamente na corrida da IA, emergindo como uma líder em IA empresarial e construindo uma boa vontade significativa entre desenvolvedores e usuários corporativos. No entanto, se a raiva em torno dos problemas de desempenho de Claude persistir, isso pode corroer parte dessa boa vontade e levar a empresa a tropeçar em um momento crítico.

Em resposta a parte da controvérsia envolvendo as recentes questões de desempenho de Claude, Cherny, o responsável pelo Claude Code, disse que o Claude Opus 4.6—o modelo principal da Anthropic—introduziu o “pensamento adaptativo” no início de fevereiro, permitindo que o modelo decida quanto raciocínio aplicar a uma tarefa específica, em vez de usar um orçamento fixo. No início de março, a Anthropic também reduziu a configuração padrão para um nível de “esforço médio”, disse Cherny. Embora os usuários do Claude Code possam alterar manualmente os níveis de esforço da ferramenta, os usuários que pagam pelas versões Pro do Cowork ou pela versão desktop do Claude não conseguem mudar o padrão atualmente.

Para resolver alguns dos problemas enfrentados pelos usuários, Cherny afirmou que a empresa testará “definir automaticamente usuários de Equipes e de Empresa para alto esforço, beneficiando-se de um pensamento prolongado, mesmo que isso venha ao custo de tokens adicionais e latência” daqui em diante.

Ele também rebateu as especulações de que o modelo havia sido intencionalmente reduzido e as reclamações dos usuários de que a mudança foi feita sem transparência, afirmando que as alterações foram feitas em resposta ao feedback dos usuários e foram sinalizadas para eles por meio de um pop-up na interface do Claude Code.

‘Inutilizável para tarefas de engenharia complexas’

A maioria das queixas dos usuários se centra no Claude Code, a ferramenta de codificação impulsionada por IA da Anthropic, que se tornou um dos produtos mais populares e de mais rápido crescimento da empresa.

Lançado no início de 2025, o Claude Code opera como um agente de linha de comando que pode ler, escrever e executar código autonomamente dentro do ambiente de um desenvolvedor. Desde seu lançamento, foi amplamente adotado por desenvolvedores individuais e grandes equipes de engenharia em empresas que confiam nele para tarefas de codificação complexas e em várias etapas.

As recentes mudanças no desempenho do Claude Code ganharam ampla atenção nas redes sociais, graças a uma análise no GitHub aparentemente feita por Stella Laurenzo, uma diretora sênior de IA na AMD. Em uma análise amplamente compartilhada, Laurenzo afirmou que as mudanças tornaram o Claude “inutilizável para tarefas de engenharia complexas.”

Em sua análise, ela constatou que, entre o final de fevereiro e o início de março, Claude passou de uma abordagem “prioritária para pesquisa”—lendo vários arquivos e reunindo contexto antes de fazer alterações—para um estilo “editar primeiro” mais direto. O modelo lê menos contexto antes de agir, comete mais erros e requer significativamente mais intervenção do usuário, de acordo com a análise. A análise também aponta para um aumento em comportamentos como parar muito cedo, evitar responsabilidades ou solicitar permissões desnecessárias, que está ligado a uma redução na profundidade do “pensamento” ao longo do mesmo período.

“Claude regrediu a ponto de não poder ser confiável para realizar engenharia complexa,” escreveu ela.

Em um comentário em resposta à análise, Cherny da Anthropic afirmou que a análise provavelmente está interpretando mal pelo menos uma parte dos dados, alegando que o raciocínio do modelo não foi reduzido, mas que a Anthropic fez uma mudança para que o “rastro de raciocínio” completo do modelo não seja mais visível para o usuário.

No entanto, Laurenzo não é a única que tem enfrentado problemas com a ferramenta.

“Tive sessões incrivelmente frustrantes com o Claude Code nas últimas duas semanas,” escreveu Dimitris Papailiopoulos, um gerente de pesquisa principal na Microsoft, no X. “Defini o esforço no máximo, mas está extremamente desleixado, ignora instruções e repete erros.”

Essa matéria foi originalmente publicada em Fortune.com

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *