Fuga no Claude Code revela modo Proactive da Anthropic
Uma atualização rotineira do Claude Code acabou por expor bem mais do que devia. Um ficheiro incluído por engano na versão 2.1.88 revelou parte do código interno da ferramenta da Anthropic e levantou pistas sobre funcionalidades que ainda não foram anunciadas.
Neste artigo encontras:
Entre as descobertas mais faladas está um possível modo Proactive, que poderá permitir ao assistente de programação agir sem esperar por um pedido direto do utilizador. A informação foi rapidamente partilhada online antes de a empresa corrigir o problema.

O que aconteceu com o Claude Code
Depois da nova versão ter sido disponibilizada, utilizadores repararam que o pacote continha um ficheiro que dava acesso ao código-fonte da aplicação. Esse material acabou por chegar ao GitHub, onde foi copiado milhares de vezes antes de ser removido.
Segundo os relatos citados por vários meios internacionais, ficaram expostas mais de 512 mil linhas de código e cerca de 2.000 ficheiros em TypeScript. Isso deu a curiosos, programadores e rivais uma oportunidade rara de espreitar o que a Anthropic poderá estar a preparar.
Modo Proactive é a pista que mais chama a atenção
A referência mais interessante encontrada no código aponta para um modo chamado Proactive. Na prática, a funcionalidade poderá permitir que o Claude Code tome iniciativa e execute certas ações mesmo sem um novo comando do utilizador.
Se vier a ser lançada, esta abordagem pode aproximar a ferramenta da ideia de um agente de IA mais autónomo, capaz de acompanhar tarefas de programação de forma contínua. Para quem escreve código, isso pode significar sugestões automáticas, deteção de problemas em segundo plano ou apoio mais ativo durante o desenvolvimento.
Porque é que isto importa
Hoje, muitos assistentes de IA funcionam sobretudo em modo reativo: esperam por uma pergunta ou instrução. Um modo proativo mudaria essa lógica e tornaria a experiência mais próxima de ter um colega virtual sempre atento ao projeto.
Ao mesmo tempo, esse tipo de mudança também levanta questões sobre controlo, permissões e confiança. Quanto mais autonomia tiver a IA, mais importante será perceber exatamente o que pode fazer e quando o pode fazer.
Há mais sinais escondidos no código
Além do modo Proactive, algumas pessoas dizem ter encontrado referências a um sistema de pagamentos baseado em criptomoedas. A ideia, ainda muito especulativa, seria permitir que agentes de IA pudessem realizar pagamentos automáticos.
Também surgiram menções a uma espécie de companheiro virtual ao estilo Tamagotchi, que reagiria à forma como o utilizador programa. Tudo indica que esta parte poderá estar ligada a uma brincadeira de 1 de abril, mas mostra que a Anthropic testa conceitos menos convencionais dentro do Claude Code.
Anthropic diz que não foi uma falha de segurança
A empresa já reconheceu o incidente e afirmou que o problema resultou de um erro humano no empacotamento da atualização. Segundo a Anthropic, não foram expostos dados sensíveis de clientes nem credenciais internas.
A tecnológica diz ainda que está a implementar medidas para evitar que algo semelhante volte a acontecer. Ainda assim, o episódio mostra como um erro aparentemente pequeno pode dar origem a uma fuga com impacto público e competitivo.
O que pode acontecer agora
Como acontece com muitas fugas de informação, nada garante que estas funções cheguem realmente à versão final do produto. O facto de existirem referências no código não significa que a Anthropic vá lançá-las tal como foram encontradas.
Mesmo assim, o caso oferece uma pista clara sobre a direção do mercado: as ferramentas de IA para programação estão a caminhar para experiências mais autónomas, mais integradas e potencialmente mais ambiciosas.
Se o modo Proactive avançar, o Claude Code poderá dar um passo importante numa corrida cada vez mais intensa entre assistentes de programação com IA.
Fonte : Engadget




Sem Comentários! Seja o Primeiro.