O Google planeja investir entre US$ 10 bilhões e US$ 40 bilhões na Anthropic. O valor exato do investimento dependerá da capacidade da Anthropic de atingir determinadas metas de desempenho. Recentemente, a Anthropic já havia recebido um investimento de US$ 5 bilhões da Amazon, também com opção de aporte adicional condicionado a performance. As recentes rodadas de investimento avaliam a startup em US$ 350 bilhões. Estes fundos serão cruciais para ajudar a startup a diminuir a lacuna entre a demanda e a oferta de compute, fundamental para o treinamento e a inference de IA.

CEVIU News - CEVIU IA - 27 de abril de 2026
💰 CEVIU IA
A Andon Labs está conduzindo um experimento para verificar se agentes de IA podem gerenciar empreendimentos no mundo real. Para isso, inaugurou em 10 de abril uma boutique de varejo operada por uma agente chamada Luna. Até o momento, Luna tem enfrentado dificuldades com os horários dos funcionários e parece incapaz de parar de fazer pedidos de velas. A missão do experimento era gerar lucro, mas a loja já acumulou um prejuízo de $13.000 desde sua abertura.
A Anthropic lançou um recurso chamado Memory para seus Claude Managed Agents. Ele permite que os agentes lembrem e utilizem informações de sessões anteriores, acumulando conhecimento ao longo do tempo sem a necessidade de atualizações manuais de prompt. O Memory funciona como uma camada baseada em sistema de arquivos, onde os dados são armazenados como arquivos que podem ser exportados, gerenciados via APIs e configurados com permissões para atender a diversas necessidades organizacionais. O recurso já está disponível em public beta para todos os usuários de Managed Agents.
O Google está desenvolvendo um sistema baseado em créditos para seu aplicativo Gemini, no qual os usuários receberão uma cota mensal para usar em diferentes modelos e funcionalidades. Será possível recarregar os créditos quando esgotarem. Essa mudança tornará o orçamento para cargas de trabalho intensivas mais previsível e fornecerá ao Google uma forma mais direta de introduzir recursos premium sem obrigar os usuários a adquirir planos mais caros. Empresas como OpenAI, Anthropic e Notion já utilizam um modelo de consumo similar.
É muito difícil medir a contribuição que os modelos de IA trazem para uma base de código. Por vezes, os melhores casos de uso para a IA são prompts investigativos que não necessariamente produzem qualquer código. Linhas de código não são uma boa métrica de qualidade, e pode ser complicado distinguir o trabalho realizado por engenheiros do que foi feito pela IA. Aparentemente, há um viés para reportar uma porcentagem maior de IA, o que é benéfico para empresas de IA, mas métricas distorcidas podem ser prejudiciais.
Agentes de programação são o primeiro produto de IA pelo qual as pessoas estão pagando em volume e de forma regular. No entanto, a demanda por compute começou a crescer mais rápido do que qualquer um consegue construir, indicando que a indústria não está preparada para o boom dos agentes. A medida mais óbvia para os laboratórios de IA agora é cortar limites e aumentar os preços.
O monitoramento do comportamento de LLM exige a adoção do AI Evaluation Stack, separando os testes em asserções determinísticas, focadas na integridade de sintaxe e roteamento, e avaliações baseadas em modelo, que verificam a qualidade semântica. Engenheiros utilizam pipelines offline para testes de regressão pré-implantação com "Golden Datasets" revisados por humanos. Já os pipelines online monitoram o desempenho em tempo real para detectar drift e falhas. Um feedback contínuo da telemetria de produção garante que os sistemas de IA se adaptem e mantenham alta performance à medida que o comportamento do usuário evolui.
Modelos de geração de imagem ajustados por instrução podem atuar como sistemas de visão generalistas, alcançando resultados de ponta em diversas tarefas ao recontextualizar a percepção como geração de imagens.
Os avanços em inteligência de vídeo eficiente incluem encoders de visão universais compactos, como o EUPE, que destilam capacidades de modelos especializados como DINO e SAM. Técnicas como LongVU utilizam alocação adaptativa de tokens e compressão para a compreensão de vídeo de longa duração, enquanto a implantação em edge e em dispositivos gerencia o processamento em tempo real. Os desafios persistentes abrangem a compreensão de streaming, a detecção de eventos esparsos, a inferência sub-watt em tempo real para óculos de RA e o raciocínio multimodal robusto.
Um framework da Meta permite o escalonamento em tempo de teste para agentes de codificação, resumindo execuções anteriores em representações estruturadas. Isso facilita uma melhor seleção e reuso, otimizando o desempenho em benchmarks.
A OpenAI publicou um framework de cinco princípios para o desenvolvimento da inteligência artificial geral (AGI). Esta é a declaração de intenção mais proeminente da empresa desde o seu Charter de 2018. O laboratório afirma que resistirá a permitir que a tecnologia concentre poder nas mãos de poucos. O framework surge em um momento em que reguladores dos EUA e da Europa estão intensificando a fiscalização sobre os laboratórios de IA de fronteira.
O que significa quando uma empresa com receita anualizada de US$ 2,7 bilhões apresenta margens brutas de -23%? No caso da Cursor, isso significa que as ferramentas de codificação de IA inverteram o modelo tradicional do SaaS, onde atender o próximo cliente deveria ser barato. Usuários avançados consomem mais capacidade de modelo e compute, fazendo com que os melhores clientes se tornem os mais caros. Isso reformula o suposto acordo com a SpaceX como algo mais do que uma manchete de US$ 60 bilhões. O acesso ao Colossus reduziria a dependência da Cursor das taxas da Anthropic e da OpenAI, que são a origem dessa margem negativa de 23%.
O Thinking Machines Lab tem contratado mais pesquisadores da Meta do que de qualquer outro empregador. A startup de IA está em plena expansão em diversas frentes e acaba de fechar um acordo multibilionário de cloud com o Google, o que lhe garante acesso aos chips GB300 mais recentes da Nvidia. Apesar dos pacotes salariais robustos da Meta serem amplamente reconhecidos, a avaliação de US$ 12 bilhões da Thinking Machines e seu quadro de 140 funcionários indicam um significativo potencial financeiro para quem se junta à startup.
Embora a saída bruta da prova gerada pelo ChatGPT fosse bastante rudimentar e exigisse que especialistas a analisassem e compreendessem, parece que a IA descobriu uma nova forma de abordar grandes números e sua estrutura.
A tese dos laboratórios nacionais é legítima para as nações, mas para todos os outros, é uma solução para um problema que não possuem.
Cohere e Aleph Alpha estão unindo forças para criar uma alternativa de IA soberana e de nível empresarial, combinando a escala em IA canadense com a expertise em pesquisa alemã.
A Meta estabeleceu uma parceria com a AWS para utilizar os chips Graviton da Amazon em sua IA. O objetivo é aprimorar a escalabilidade e a eficiência de suas operações com sistemas de IA.
A nova funcionalidade Bug Crawl no Claude Code permite aos usuários escanear repositórios em busca de bugs e receber sugestões de correção.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
