A OpenAI não atingiu suas próprias metas de novos usuários e receita, gerando preocupação entre os líderes da empresa sobre sua capacidade de sustentar o enorme gasto em data centers. A Chief Financial Officer da empresa expressou apreensão de que a OpenAI possa não conseguir arcar com futuros contratos de compute se a receita não crescer rapidamente o suficiente. Diretores do conselho têm questionado os esforços do CEO Sam Altman para garantir ainda mais poder computacional, mesmo diante da desaceleração do negócio. Em resposta, executivos da empresa agora buscam controlar custos e implementar maior disciplina nas operações.

CEVIU News - CEVIU IA - 28 de abril de 2026
🎯 CEVIU IA
OpenAI e Microsoft revisaram seu acordo para aumentar a flexibilidade, o que inclui licenciamento de IP não exclusivo, suporte multi-cloud para produtos OpenAI e termos de participação na receita limitados até 2030.
O analista Ming-Chi Kuo relatou que a OpenAI explorou a construção de um smartphone com parceiros como MediaTek e Qualcomm. A iniciativa visaria potencialmente substituir interfaces centradas em aplicativos por agentes de IA e modelos híbridos que combinam processamento on-device e em nuvem.
A China barrou a aquisição de US$ 2 bilhões da startup de IA agentic Manus pela Meta, ordenando o desfazimento do negócio em meio a um escrutínio regulatório, o que complica o avanço da Meta no segmento de agentes de IA e sua expansão transfronteiriça.
As empresas que se integram na camada de modelo o fazem porque, em sua escala, os argumentos econômicos e de diferenciação se justificam. Quase todas estão realizando post-training, e não pre-training do zero. As empresas deveriam começar a coletar dados e a construir modelos pequenos e especializados. Quanto mais dados as empresas coletam, melhores modelos elas podem produzir.
A Batch API oferece um desconto de 50%, mas adiciona latência, tornando-a menos adequada para uso por um único agente. Para frotas de agentes onde múltiplas requisições podem ser agrupadas, a abordagem de batching se torna economicamente viável. O uso ideal envolve rotear modelos mais lentos e custosos através de batches, enquanto modelos mais rápidos são empregados por caminhos síncronos, possivelmente gerenciados por proxies inteligentes como o LunaRoute, que está em desenvolvimento.
O GPT-5.5 representa uma melhoria sólida e é competitivo com o Claude Opus, mostrando-se superior para consultas factuais, buscas na web e requisições diretas e bem especificadas. Por outro lado, o Claude Opus se destaca em propósitos mais abertos ou interpretativos. O modelo é improvável de apresentar novos grandes riscos, e seu alignment parece similar ao dos modelos anteriores. Esta publicação examina o system card do GPT-5.5.
O TurboQuant comprime cada coordenada em grandes tabelas de vetores de alta dimensão para 2 a 4 bits, com uma distorção comprovadamente quase ótima, sem overhead de memória para fatores de escala e sem necessidade de treinamento ou calibração. Ele é entre quatro e seis ordens de magnitude mais rápido que as alternativas na indexação de 4 bits, apresentando também um recall superior. Esta página explica como o TurboQuant funciona.
A Symphony da OpenAI é uma especificação open-source que transforma rastreadores de issues em control planes para agentes de codificação, visando reduzir a troca de contexto e aumentar o throughput de pull requests em até 5 vezes.
Pesquisadores da Amazon apresentaram o ESRRSim, um framework de avaliação baseado em agentes que utiliza uma taxonomia estruturada para fazer benchmark de riscos. A ferramenta permite identificar e analisar comportamentos problemáticos como engano e reward hacking, revelando uma ampla variação na forma como 11 LLMs distintos se comportam diante desses desafios.
Pesquisadores do MIT introduziram os Modelos de Linguagem Recursivos (RLMs) para resolver o problema de "context rot", um fenômeno em que Large Language Models (LLMs) experimentam degradação do raciocínio ao processar janelas de contexto massivas, mesmo quando são eficazes em tarefas básicas de retrieval. Em vez de obrigar um modelo a ingerir um documento completo de uma vez, um RLM carrega o contexto em um slot de memória runtime de um REPL Python.
A IA americana foi financiada com a aposta de que os frontier models seriam o próximo grande negócio monopolista. Essa premissa está agora se desfazendo, à medida que os open weight models estão tornando a capacidade uma commodity, capacidade essa que o moat pago pelo capital americano deveria proteger. A diferença entre a frontier aberta e a frontier fechada está diminuindo. A questão será se os países optarão por subsidiar o moat privado ou os bens comuns abertos.
A DeepSeek está oferecendo um desconto de 75% nos preços do seu modelo V4-Pro e reduzindo em 90% os acessos de cache de entrada. Essa iniciativa desafia os gigantes da IA dos EUA em um cenário geopolítico tenso, marcando uma movimentação estratégica no mercado.
O preço de aluguel da GPU NVIDIA B200 disparou 114%, atingindo US$ 4,95 por hora, impulsionado pela demanda de modelos de IA como o GPT-5.5.
David Silver é professor na UCL e ex-líder da equipe de reinforcement learning da DeepMind.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
