Anthropic corre para conter vazamento do Claude Code após defender código feito por IA
Erro de empacotamento expôs mais de 500 mil linhas do Claude Code, revelou funções internas e ampliou a pressão sobre a Anthropic.
A Anthropic tenta conter uma crise incômoda no pior momento possível. A empresa, que virou símbolo da nova fase em que agentes de IA ajudam a construir software em velocidade inédita, viu parte relevante do código interno do Claude Code escapar para a internet após um erro de publicação. O episódio chamou ainda mais atenção porque Boris Cherny, nome ligado ao produto, havia defendido publicamente um fluxo de trabalho em que a IA já escrevia praticamente tudo no seu dia a dia.
O contraste pesa. De um lado, a Anthropic ajudou a popularizar a ideia de que a programação entrou em uma nova era, com agentes capazes de produzir código, revisar tarefas e acelerar entregas. Do outro, agora precisa explicar como deixou vazar justamente a base técnica de uma de suas ferramentas mais estratégicas.
Este artigo é uma continuação da análise: Anthropic vaza código do Claude Code e expõe risco da IA que escreve software.
O que aconteceu no vazamento do Claude Code
Segundo a própria empresa, o problema foi causado por um erro humano no empacotamento de uma atualização, e não por uma invasão direta. Um source map, arquivo usado para depuração e que ajuda a relacionar o código compilado ao original, foi publicado indevidamente no pacote do npm. Na prática, isso abriu caminho para a reconstrução de uma parte extensa da base interna do Claude Code.
Os relatos sobre o caso apontam que o material exposto incluía mais de 500 mil linhas de código e quase 2 mil arquivos. Não se tratava dos pesos do modelo central da Anthropic, mas sim da camada que transforma o Claude Code em um produto utilizável no mundo real, com fluxos, comandos, permissões e lógica de operação.
Por que o caso é grave mesmo sem expor dados de clientes
A Anthropic afirmou que nenhum dado sensível de clientes ou credencial foi comprometido. Isso reduz o risco imediato para usuários, mas não elimina a gravidade do episódio. O que vazou ajuda a mostrar como a empresa organiza a ferramenta por trás do terminal, como lida com permissões, como estrutura comportamentos do agente e como conecta diferentes partes do sistema para entregar tarefas complexas.
Em outras palavras, o mercado não viu apenas trechos de código: viu um pedaço do manual de funcionamento do produto. Para concorrentes, isso facilita leitura de arquitetura, comparação de escolhas técnicas e até engenharia reversa de funcionalidades. Para pesquisadores de segurança e possíveis atacantes, o vazamento também pode servir como atalho para encontrar fragilidades exploráveis.
O que o código exposto revelou sobre a estratégia da Anthropic
A repercussão foi além do constrangimento técnico porque o material exposto indicou a existência de recursos ainda não lançados. Entre eles, apareceram sinais de um agente persistente em segundo plano, além de estruturas ligadas à memória e à continuidade entre sessões. Isso sugere que a Anthropic trabalha para tornar o Claude Code menos reativo e mais contínuo, com atuação mais autônoma ao longo do tempo.
Esse tipo de pista tem valor estratégico. Quando uma empresa revela sem querer o que está construindo, ela entrega ao mercado um mapa parcial do seu próximo passo. Em um setor em que OpenAI, Google e outras gigantes disputam a liderança dos agentes de programação, esse tipo de exposição reduz parte da vantagem competitiva.
O timing piora ainda mais a crise
O episódio acontece num momento em que a Anthropic vive alta visibilidade e pressão máxima. O Claude Code virou peça central da narrativa de crescimento da empresa, e a companhia reforçou recentemente sua posição no mercado com uma rodada que a avaliou em US$ 380 bilhões. Ao mesmo tempo, a marca tenta sustentar a imagem de empresa cuidadosa com segurança e governança em IA, como refletido em seus comunicados oficiais.
Por isso, o dano reputacional do vazamento vai além do erro operacional. A empresa precisou correr para conter a circulação do material, com pedidos de remoção se espalhando por repositórios e cópias derivadas. Mesmo assim, quando código estratégico cai na rede, o problema deixa de ser apenas "tirar do ar" e passa a ser conviver com o fato de que ele já foi estudado, copiado e reinterpretado.
No fim, a discussão sobre se a culpa foi exclusivamente humana ou se houve excesso de confiança em fluxos automatizados muda pouco o centro da história. O que realmente importa é que a Anthropic, hoje uma das principais vitrines da programação orientada por IA, acabou atingida por uma falha básica de processo. O caso reacende o debate sobre segurança em software distribuído por registros públicos e os riscos de publicações automatizadas sem verificação rigorosa. E isso enfraquece justamente o discurso que mais tenta vender ao mercado: o de que consegue escalar inovação sem perder controle.
Quer ver o atalay.ia na sua redação?
Solicitar demonstração