Antropic explica a recente queda de desempenho do Claude Code após semanas de reações negativas dos usuários

Antropic explica a recente queda de desempenho do Claude Code após semanas de reações negativas dos usuários


A mais recente admissão da Anthropic, que ocorreu após semanas em que a empresa sugeriu inicialmente em suas comunicações que não havia problemas e que os usuários eram em grande parte responsáveis por quaisquer problemas de desempenho, e depois afirmou que algumas das mudanças foram feitas para beneficiar os usuários, não acalmou muito seus clientes—alguns dos quais já afirmam ter cancelado suas assinaturas.

A sensação entre alguns usuários de que a Anthropic estava tentando enganá-los potencialmente mina as tentativas da empresa de se promover como mais transparente e alinhada com seus usuários do que a rival OpenAI. Além disso, a admissão de que havia problemas de desempenho não fez muito para acalmar a especulação desenfreada de que a empresa está ficando sem recursos computacionais e que os esforços da Anthropic para racionar esses preciosos recursos seriam a verdadeira razão para os problemas de desempenho.

“A demanda pelo Claude cresceu em um ritmo sem precedentes, e nossa infraestrutura foi esticada para atendê-la, especialmente em horários de pico”, disse a Anthropic em uma declaração à Fortune. “Estamos fazendo tudo o que podemos para resolver isso e somos profundamente gratos pela paciência de nossos usuários.”

A declaração prosseguiu afirmando que “a computação é uma restrição em toda a indústria, e estamos escalando nossa capacidade computacional de forma rápida e responsável—incluindo uma expansão recentemente anunciada de nossa parceria com Amazon e Google, que trará uma nova capacidade significativa nas próximas semanas. Nossa prioridade é disponibilizar essa capacidade para nossos usuários o mais rápido possível.”

A empresa também refutou qualquer caracterização de que não foi transparente com seus usuários sobre os problemas que afetavam o Claude Code. “Os problemas com o Claude Code tiveram causas técnicas específicas que documentamos completamente em nosso post-morte, e as correções já foram implementadas”, disse a declaração.

A Anthropic construiu grande parte de seu sucesso recente com base na lealdade dos desenvolvedores. Sua ferramenta Claude Code, lançada no início de 2025, tem sido popular entre desenvolvedores solos e equipes de engenharia empresariais. O sucesso estrondoso da ferramenta ajudou a elevar a receita recorrente anualizada da empresa para $30 bilhões—mais de três vezes seu valor no final do ano passado. No entanto, a queda no desempenho ao longo das semanas e a resposta lenta do laboratório a queixas de usuários, assim como várias mudanças que os usuários argumentam serem aumentos de preço camuflados, estão testando essa lealdade.

A controvérsia pode afetar o resultado financeiro da Anthropic em meio a uma corrida cada vez mais acirrada com a rival OpenAI. Os problemas também surgem em um momento crítico, com ambas as empresas supostamente se preparando para ofertas públicas iniciais de ações ainda este ano.

Após reclamações generalizadas sobre o desempenho do Claude Code, executivos representando o laboratório de IA inicialmente afirmaram que os problemas de desempenho eram resultado de mudanças feitas para melhorar a latência e em resposta ao feedback dos usuários sobre o uso de tokens. Afirmou que ambas as mudanças foram comunicadas por meio de seu changelog público—uma lista de atualizações disponível para os usuários. Na quinta-feira, no entanto, a Anthropic foi mais longe, publicando um post de engenharia detalhado reconhecendo que três erros de engenharia separados estavam por trás do problema de desempenho. Como tentativa de responder a algumas das queixas dos usuários, o laboratório também anunciou que iria redefinir os limites de uso para todos os assinantes.

A mais recente admissão da Anthropic provavelmente aumentará a especulação já disseminada de que o laboratório pode estar sofrendo com pressões computacionais após o uso de seus produtos disparar nos últimos meses.

Além dos problemas de desempenho com o Claude Code, o laboratório de IA também enfrentou uma série de interrupções à medida que o uso aumentou, introduziu limites de uso durante horários de pico e está restringindo o lançamento de seu novo modelo maior e mais caro, Mythos, a um grupo selecionado de grandes empresas. (A Anthropic declarou que o lançamento cauteloso do modelo destina-se a proteger contra riscos de segurança decorrentes das capacidades cibernéticas sem precedentes do modelo.)

Os rivais da empresa também alimentaram rumores de que o laboratório pode estar carecendo de poder computacional para manter seu recente aumento de clientes. Em um memorando interno primeiro reportado pela CNBC, o chefe de receita da OpenAI alegou que a Anthropic fez um “erro estratégico” ao não garantir computação suficiente, e estava “operando em uma curva significativamente menor” do que seus concorrentes. A Anthropic, notavelmente, anunciou menos negócios de bilhões de dólares para capacidade de data center do que alguns de seus rivais, como a OpenAI. Enquanto outras empresas de IA também enfrentam restrições de computação, a Anthropic parece estar na posição mais difícil, tendo crescido muito mais rapidamente do que provavelmente previa.

A Anthropic se recusou a responder às perguntas da CNBC sobre o memorando. A Anthropic também declarou publicamente que não degrada intencionalmente o desempenho de seus modelos Claude.

A empresa também parece estar testando possíveis maneiras de limitar o novo acesso ao Claude Code. No início desta semana, a Anthropic atualizou sua página de preços para alguns usuários, mostrando o Claude Code como indisponível no plano Pro de $20 por mês. O chefe de crescimento da Anthropic disse depois que a mudança foi um teste em cerca de 2% de novas inscrições, acrescentando que os padrões de uso mudaram “fundamentalmente” desde que os planos foram projetados. Separadamente, O Information reportou que a Anthropic havia mudado seu modelo de precificação empresarial para um modelo baseado em consumo, uma mudança que um analista estimou que poderia potencialmente triplicar os custos para usuários frequentes.

Retorno dos usuários

A Anthropic tem enfrentado uma reação significativa de alguns de seus usuários mais ativos em relação aos recentes problemas de desempenho do Claude Code. Vários afirmaram que cancelaram suas assinaturas; profissionais de cibersegurança alertaram sobre potencialmente perigosa degradação da qualidade do código; e um executivo sênior de IA da AMD chamou a ferramenta de “inutilizável para tarefas de engenharia complexas”.

Os usuários reclamaram de se sentirem “enganados” pela resposta da empresa às suas queixas contínuas sobre o desempenho da ferramenta de codificação. Um usuário do X disse em resposta à postagem recente da Anthropic: “Depois de nos enganar e fingir que nada estava errado, incontáveis reclamações de muitas pessoas aqui e em outros lugares, cancelamentos, a Anthropic finalmente admite no dia do lançamento do GPT-5.5 que há um problema com o Claude.”

“Agradeço o post-morte, mas não confio que todos os problemas tenham sido resolvidos. O Claude Code, em geral, tem sido quase inutilizável para mim nos últimos dias,” disse outro usuário.

Em um post publicado em seu blog de engenharia na quinta-feira, a Anthropic afirmou ter rastreado os problemas até três mudanças distintas. A primeira, implementada em 4 de março, reduziu o esforço de raciocínio padrão do Claude Code de “alto” para “médio” para cortar a latência—um sacrifício que a empresa disse em seu blog ter sido a escolha errada. A segunda mudança, lançada em 26 de março, continha um bug que fazia o modelo descartar continuamente seu próprio histórico de raciocínio durante a sessão, fazendo com que parecesse esquecível e errático, além de esgotar mais rapidamente os limites de uso dos usuários do que o esperado. A terceira, introduzida em 16 de abril, adicionou uma instrução de prompt do sistema limitando as respostas do modelo a 25 palavras entre chamadas de ferramentas—uma mudança que a Anthropic afirmou ter prejudicado significativamente a qualidade do código antes que fosse revertida quatro dias depois.

A Anthropic observou que todos os três problemas foram resolvidos em 20 de abril, com a API não afetada durante todo o tempo. Em 23 de abril, a empresa redefiniu os limites de uso para todos os assinantes.

A empresa reconheceu a frustração dos usuários com a ferramenta, dizendo: “Esta não é a experiência que os usuários devem esperar do Claude Code.” O laboratório também prometeu maior transparência em relação às mudanças no Claude Code no futuro.

Apesar do reconhecimento público da Anthropic, alguns usuários se voltaram às redes sociais para expressar sua frustração com a resposta inicial do laboratório às preocupações dos usuários sobre o desempenho do Claude.

“A parte frustrante é que a equipe do Claude Code, junto com pessoas imersas na psicose de IA, enganaram qualquer um que levantasse preocupações sobre os problemas recentes do Claude Code,” disse Muratcan Koylan, um membro da equipe técnica da Sully.ai, em um post no X. “Quando você está pagando muito dinheiro por um produto, e ele realmente torna seu trabalho mais difícil, ao ponto de fazer você começar a questionar a qualidade do seu trabalho, isso realmente se torna um problema.”

A retaliação corre o risco de empurrar alguns dos usuários mais engajados da Anthropic em direção à rival OpenAI, cujos modelos Codex recentes também têm sido populares entre os desenvolvedores. Na quinta-feira, a OpenAI também lançou o GPT-5.5, seu mais novo modelo de IA, para assinantes pagos. A empresa afirmou ter agora 4 milhões de usuários ativos do Codex, 9 milhões de clientes empresariais pagantes, 900 milhões de usuários ativos semanais no ChatGPT e mais de 50 milhões de assinantes. A Anthropic não publicou números comparáveis de usuários. A empresa divulgou métricas de negócios, incluindo mais de 300.000 clientes empresariais, mas não revelou números de assinantes ou usuários ativos. O site de tráfego de aplicativos e web Similarweb informou que o número de usuários ativos mensais do aplicativo Claude da Anthropic atingiu 20 milhões até o final de fevereiro e que o crescimento de usuários mais que dobrou mês a mês em março.

Os problemas com o Claude Code parecem ter afetado significativamente a qualidade do código produzido pelas ferramentas da Anthropic no último mês ou mais, especialmente em comparação com as ofertas da OpenAI.

Análises da empresa de segurança de codificação Veracode descobriram que o Claude Opus 4.7, o modelo mais recente da Anthropic, que foi lançado em 16 de abril, introduziu uma vulnerabilidade em 52% das tarefas de codificação testadas—um aumento em relação a 51% para o Opus 4.1 e 50% para o Claude Sonnet 4.5, que é mais barato. A Veracode descobriu que os modelos da OpenAI tiveram um desempenho notavelmente melhor, introduzindo vulnerabilidades em cerca de 30% das tarefas.

Dave Kennedy, CEO da empresa de segurança TrustedSec e ex-oficial de inteligência do Corpo de Fuzileiros Navais dos EUA, disse à Forbes que sua equipe mediu uma queda de 47% na qualidade do código do Claude, rastreando defeitos, problemas de segurança e taxas de conclusão de tarefas. O risco, advertiu Kennedy, é que desenvolvedores novatos usando o Claude não consigam capturar as falhas, “introduzindo defeitos sérios” no código em produção.

Em resposta ao mais recente post da Anthropic, Kennedy disse: “Estou feliz que eles estejam tentando resolver isso, mas levar um mês para tirar isso do papel é decepcionante.”

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *