Anthropic corre para conter vazamento do Claude Code após defender código feito por IA
Erro de empacotamento expôs mais de 500 mil linhas do Claude Code, revelou funções internas e ampliou a pressão sobre a Anthropic. Ilustração: Bruno Lopes

Anthropic corre para conter vazamento do Claude Code após defender código feito por IA

Erro de empacotamento expôs mais de 500 mil linhas do Claude Code, revelou funções internas e ampliou a pressão sobre a Anthropic.

A Anthropic tenta conter uma crise incômoda no pior momento possível. A empresa, que virou símbolo da nova fase em que agentes de IA ajudam a construir software em velocidade inédita, viu parte relevante do código interno do Claude Code escapar para a internet após um erro de publicação. O episódio chamou ainda mais atenção porque Boris Cherny, nome ligado ao produto, havia defendido publicamente um fluxo de trabalho em que a IA já escrevia praticamente tudo no seu dia a dia.

O contraste pesa. De um lado, a Anthropic ajudou a popularizar a ideia de que a programação entrou em uma nova era, com agentes capazes de produzir código, revisar tarefas e acelerar entregas. Do outro, agora precisa explicar como deixou vazar justamente a base técnica de uma de suas ferramentas mais estratégicas.

Este artigo é uma continuação da análise: Anthropic vaza código do Claude Code e expõe risco da IA que escreve software.

O que aconteceu no vazamento do Claude Code

Segundo a própria empresa, o problema foi causado por um erro humano no empacotamento de uma atualização, e não por uma invasão direta. Um source map, arquivo usado para depuração e que ajuda a relacionar o código compilado ao original, foi publicado indevidamente no pacote do npm. Na prática, isso abriu caminho para a reconstrução de uma parte extensa da base interna do Claude Code.

Os relatos sobre o caso apontam que o material exposto incluía mais de 500 mil linhas de código e quase 2 mil arquivos. Não se tratava dos pesos do modelo central da Anthropic, mas sim da camada que transforma o Claude Code em um produto utilizável no mundo real, com fluxos, comandos, permissões e lógica de operação.

Por que o caso é grave mesmo sem expor dados de clientes

A Anthropic afirmou que nenhum dado sensível de clientes ou credencial foi comprometido. Isso reduz o risco imediato para usuários, mas não elimina a gravidade do episódio. O que vazou ajuda a mostrar como a empresa organiza a ferramenta por trás do terminal, como lida com permissões, como estrutura comportamentos do agente e como conecta diferentes partes do sistema para entregar tarefas complexas.

Em outras palavras, o mercado não viu apenas trechos de código: viu um pedaço do manual de funcionamento do produto. Para concorrentes, isso facilita leitura de arquitetura, comparação de escolhas técnicas e até engenharia reversa de funcionalidades. Para pesquisadores de segurança e possíveis atacantes, o vazamento também pode servir como atalho para encontrar fragilidades exploráveis.

O que o código exposto revelou sobre a estratégia da Anthropic

A repercussão foi além do constrangimento técnico porque o material exposto indicou a existência de recursos ainda não lançados. Entre eles, apareceram sinais de um agente persistente em segundo plano, além de estruturas ligadas à memória e à continuidade entre sessões. Isso sugere que a Anthropic trabalha para tornar o Claude Code menos reativo e mais contínuo, com atuação mais autônoma ao longo do tempo.

Esse tipo de pista tem valor estratégico. Quando uma empresa revela sem querer o que está construindo, ela entrega ao mercado um mapa parcial do seu próximo passo. Em um setor em que OpenAI, Google e outras gigantes disputam a liderança dos agentes de programação, esse tipo de exposição reduz parte da vantagem competitiva.

O timing piora ainda mais a crise

O episódio acontece num momento em que a Anthropic vive alta visibilidade e pressão máxima. O Claude Code virou peça central da narrativa de crescimento da empresa, e a companhia reforçou recentemente sua posição no mercado com uma rodada que a avaliou em US$ 380 bilhões. Ao mesmo tempo, a marca tenta sustentar a imagem de empresa cuidadosa com segurança e governança em IA, como refletido em seus comunicados oficiais.

Por isso, o dano reputacional do vazamento vai além do erro operacional. A empresa precisou correr para conter a circulação do material, com pedidos de remoção se espalhando por repositórios e cópias derivadas. Mesmo assim, quando código estratégico cai na rede, o problema deixa de ser apenas "tirar do ar" e passa a ser conviver com o fato de que ele já foi estudado, copiado e reinterpretado.

No fim, a discussão sobre se a culpa foi exclusivamente humana ou se houve excesso de confiança em fluxos automatizados muda pouco o centro da história. O que realmente importa é que a Anthropic, hoje uma das principais vitrines da programação orientada por IA, acabou atingida por uma falha básica de processo. O caso reacende o debate sobre segurança em software distribuído por registros públicos e os riscos de publicações automatizadas sem verificação rigorosa. E isso enfraquece justamente o discurso que mais tenta vender ao mercado: o de que consegue escalar inovação sem perder controle.

Anterior Anthropic vaza código do Claude Code e expõe risco da IA que escreve software Próximo NYT rompe com colaborador após IA copiar trechos de outra resenha

Quer ver o atalay.ia na sua redação?

Solicitar demonstração