A Anthropic adquiriu a startup de IA de biotecnologia Coefficient Bio por US$ 400 milhões em ações, visando fortalecer suas iniciativas em saúde e ciências da vida. A Coefficient Bio, fundada por ex-pesquisadores da Genentech, utilizava IA para acelerar a descoberta de medicamentos e a pesquisa biológica. A equipe de 10 pessoas será integrada à divisão de saúde e ciências da vida da Anthropic.

CEVIU News - CEVIU IA - 6 de abril de 2026
🧬 CEVIU IA
A Anthropic anunciou que os assinantes do Claude Code não poderão mais utilizar os limites de sua assinatura para ferramentas como o OpenClaw, mudando para um modelo de precificação pay-as-you-go separado para integrações de terceiros.
O aprendizado em agentes de IA pode ocorrer em três níveis distintos: nas camadas do modelo, do harness ou do contexto. Entender essa diferença é fundamental para a construção de sistemas que aprimoram seu desempenho ao longo do tempo. A camada do modelo diz respeito aos pesos do próprio modelo, enquanto o harness abrange o código, as instruções e as ferramentas que impulsionam o agente. Por fim, o contexto é composto por informações adicionais que residem fora do harness para permitir configurações mais detalhadas. Embora a discussão sobre aprendizado contínuo frequentemente se concentre exclusivamente na camada do modelo, na realidade, um sistema de IA tem a capacidade de aprender e evoluir em todas as três camadas mencionadas.
Ambientes de RL (Reinforcement Learning) funcionam como campos de treinamento para agentes LLM. A distribuição de tarefas é crucial, pois define as habilidades que os agentes desenvolvem, enquanto os harnesses controlam a forma como eles interagem. Verificadores são responsáveis por estabelecer o que é considerado um desempenho 'bom', e tanto o estado quanto a configuração do ambiente são determinantes para o realismo e a eficácia do treinamento.
Este 'arquivo de ideia', projetado para ser copiado e colado em um agente LLM, apresenta um padrão para a construção de bases de conhecimento usando LLMs. Ele permite que os LLMs construam e mantenham incrementalmente uma wiki persistente, expansível conforme o modelo continua aprendendo. Neste framework, o humano curadoria as fontes, direciona a análise, faz perguntas e processa o significado, enquanto o modelo realiza as outras tarefas. O agente edita com base em conversas, e usuários podem navegar pelas alterações em tempo real.
LLMs frequentemente decidem ações antes de gerar tokens de raciocínio, influenciando sua cadeia de pensamento. Uma linear probe pode decodificar essas decisões a partir de ativações pré-geração com alta precisão.
A auto-destilação simples (SSD) é um processo em que modelos são submetidos a fine-tuning utilizando amostras de sua própria saída por meio de fine-tuning supervisionado padrão. Este método oferece uma abordagem complementar pós-treinamento para aprimorar a geração de código por LLMs. A SSD pode melhorar a geração de código em modelos usando apenas as saídas brutas. Este estudo investiga os motivos pelos quais um método tão simples pode ser eficaz.
ActionParty introduz tokens de estado por sujeito com polarização espacial para garantir a atribuição correta de ações a múltiplas entidades em vídeos gerados, resolvendo falhas comuns na vinculação sujeito-ação.
O desempenho de sistemas com Large Language Models (LLMs) depende não apenas dos pesos do modelo, mas também dos seus harnesses. Meta-Harness é um sistema de outer-loop que busca por código de harness para aplicações de LLM. Seus harnesses superam os melhores desenvolvidos manualmente em benchmarks de codificação agentic, demonstrando como um acesso mais rico a experiências prévias pode viabilizar a engenharia automatizada de harnesses.
A Meta suspendeu seu trabalho com a Mercor após uma violação de segurança que pode ter exposto dados proprietários de treinamento de IA. O incidente levanta preocupações sobre a segurança de informações estratégicas no setor de inteligência artificial.
A dependência da Apple do Gemini IA do Google para uma Siri reformulada marca uma mudança estratégica, enquanto a empresa busca compensar seu atraso em IA generativa em comparação com seus pares. Essa parceria levanta preocupações sobre a gestão de dados do usuário, ao mesmo tempo em que destaca a aposta da Apple em capacidades de IA integradas diretamente nos dispositivos. À medida que a tecnologia de IA migra para o dispositivo, a Apple pretende usar seus pontos fortes em design e privacidade para recuperar sua competitividade no cenário da IA.
Um sistema simples de três pastas (raw, wiki e outputs) transforma notas dispersas em uma base de conhecimento estruturada e mantida por IA, utilizando arquivos de texto simples e um schema leve. Essa abordagem permite a conversão de informações fragmentadas em um repositório organizado e acessível. Ferramentas como o agent-browser automatizam a ingestão de conteúdo, enquanto a IA se encarrega de compilar, conectar e atualizar uma wiki pessoal a partir de inputs brutos, eliminando a necessidade de organização manual. O sistema aprimora-se ao longo do tempo, salvando os outputs de volta no processo e executando verificações periódicas de "saúde" para identificar erros e lacunas antes que se acumulem.
Marc Andreessen reflete sobre A Morte do Navegador, Pi + OpenClaw e Por Que 'Desta Vez É Diferente'
A IA, resultado de um 'sucesso repentino de 80 anos', não é mais um ciclo de hype, mas a culminação de décadas de pesquisa que levaram a avanços significativos em raciocínio, codificação e agentes com capacidade de autoaperfeiçoamento.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
