CEVIU News

CEVIU News - CEVIU IA - 25 de março de 2026

30 notícias25 de março de 2026CEVIU IA
Compartilhar:

💡 CEVIU IA

Este post detalha um problema que levaria um especialista humano de um a três meses para resolver. O problema foi eventualmente solucionado por duas pessoas usando o GPT-5.4 Pro. Um link para a transcrição completa da conversa com o GPT-5.4 Pro está disponível. Outros modelos que solucionaram o problema incluem o GPT 5.4 (xhigh), Gemini 3.1 Pro e Claude Opus 4.6 (max).

A nova função ChatGPT Library permite aos usuários armazenar arquivos pessoais ou imagens na nuvem da OpenAI. Disponível para assinantes Plus, Pro e Business, a função está sendo lançada globalmente, exceto no Espaço Econômico Europeu, Suíça e Reino Unido. O ChatGPT salvará automaticamente os arquivos enviados ou criados. Deletar um chat não apaga o arquivo da Library.

A OpenAI está em negociações com firmas de private equity para formar joint ventures que visam levantar capital e acelerar a adoção de produtos de IA para empresas. A empresa oferece a esses fundos um retorno mínimo garantido de 17,5%, consideravelmente acima dos instrumentos preferenciais usuais, e acesso antecipado aos seus novos modelos de IA. TPG e Advent são potenciais investidores.

A App Store foi a resposta centralizada para o problema de distribuição em uma nova plataforma computacional. Na era dos agentes, será necessária uma nova solução, pois os agentes precisam de APIs, não de lojas de aplicativos. A Apple garantiu sua receita obrigando que cada transação no aplicativo passasse pelo seu sistema de pagamento. A era dos agentes carece de mecânicas de bloqueio da Apple; assim, se uma plataforma decidir cobrar altas taxas de pagamento, os usuários simplesmente mudarão para um concorrente. Isso sugere que a camada de pagamento será competitiva e de baixa margem, em vez de monopolista. ️

Claude Code e Claude Cowork agora podem abrir arquivos, usar navegadores e executar ferramentas de desenvolvimento nos computadores dos usuários. O agente dará prioridade a conectores para serviços suportados, mas ainda pode executar tarefas na ausência deles, solicitando permissão antes de agir. Inicialmente, isso está disponível para assinantes Claude Pro e Claude Max no macOS. ️

Em março, o Claude 4.6 traz uma janela de contexto de 1 milhão de tokens e quatro modos: Chat, Cowork, Code e Projects. A suíte Cowork automatiza workflows com Tarefas Agendadas e Conectores, e o ambiente Code utiliza hierarquia CLAUDE.md, protocolos MCP e Equipes de Agentes para desenvolvimento autônomo. Atualizações incluem pré-visualizações de pesquisa em Computer Use e Hooks deterministas para guardrails programáveis.

Um professor de física orientou Claude, um modelo de IA, em um cálculo de pesquisa real, do início ao fim, sem nunca tocar em um arquivo, para ver se a IA poderia realizar física teórica. Isso resultou em um artigo tecnicamente rigoroso e impactante sobre física teórica de alta energia em duas semanas, em vez do ano usual. Embora Claude tenha demonstrado habilidades impressionantes, a expertise do domínio foi essencial para avaliar sua precisão. A IA ainda não consegue fazer ciência de ponta a ponta, mas o projeto comprovou que pode realizar ciência de fronteira com orientação.

Prithvi Rajasekaran, da Anthropic, desenvolveu uma arquitetura multi-agente para aprimorar o design de frontend orientado por IA e a codificação de aplicações full-stack. Inspirada por GANs, a abordagem utiliza agentes planejador, gerador e avaliador para decompor tarefas e garantir transições estruturadas, produzindo saídas complexas e de alta qualidade. Desafios persistem na gestão de contexto e ajuste do avaliador, indicando a necessidade de adaptar designs de harness à medida que os modelos de IA avançam.

O Ossature é um harness de código aberto para geração de código baseada em especificações. Os desenvolvedores escrevem especificações sobre o que o software deve fazer, e o Ossature as valida, utiliza um LLM para auditar ambiguidades e lacunas, produz um plano editável e, em seguida, gera código uma tarefa de cada vez, fornecendo apenas o contexto necessário para cada tarefa. Há verificação embutida no loop de construção. Se a verificação falhar, um agente solucionador tenta reparar o código a partir do erro reportado. ‍

Fornecer índices de busca de texto para modelos rápidos cria uma diferença qualitativa para workflows agentic. O impacto é mais evidente em grandes repositórios corporativos, pois a latência do grep aumenta com o tamanho e a complexidade do código. Eliminar o tempo gasto na busca na base de código gera economia de tempo significativa e permite uma iteração mais eficaz, especialmente quando o agente está investigando um bug.

A velocidade dos lançamentos de novos modelos e o número de avaliações necessárias no próximo ano podem tornar a atualização permanente um desafio sem assistência eficaz de IA. É fundamental compreender agora os fluxos de trabalho aumentados por IA antes que se tornem indispensáveis. A METR realizou um exercício simulado para investigar que fluxos de trabalho surgem, quais são os gargalos e o quanto mais rápidos os pesquisadores realmente serão. Este post detalha as lições aprendidas no exercício.

Muitas das cargas de trabalho modernas que usam LLMs priorizam o throughput em vez da latência por solicitação, algo que muitos sistemas e implantações de LLM otimizam atualmente. O Ray Data LLM é uma biblioteca desenvolvida para inferência em batch em larga escala para LLMs. Ele oferece execução escalonável, alto throughput e tolerância a falhas. Com uma arquitetura altamente otimizada para inferência em batch de LLM, os usuários podem alcançar o dobro de throughput em comparação com o motor síncrono de LLM do vLLM, aproveitando a resiliência em escala de produção.

Um bom prompt pode realizar muito do que o fine-tuning faz, mas sem os custos associados. Os modelos chegaram a um nível em que o fine-tuning não é realmente necessário para obter bons resultados. O trabalho extra e os recursos necessários não compensam mais na maioria dos casos. No entanto, ainda é útil saber como realizar fine-tuning para situações específicas.

A calibração semântica surge como um subproduto da previsão do próximo token. Modelos base estão surpreendentemente bem calibrados ao usar uma noção, baseada em amostragem, de calibração semântica. Eles conseguem avaliar de maneira significativa a confiança em tarefas de perguntas e respostas em domínios abertos, mesmo sem treinamento explícito para isso.

OpenAI anunciou um novo compromisso de US$ 10 bilhões de a16z, DE Shaw Ventures, MGX, TPG e T Rowe Price. Este capital fresco eleva a arrecadação recorde da OpenAI para mais de US$ 120 bilhões. A empresa moderou seus planos de gastos e agora mira aproximadamente US$ 600 bilhões em gasto total de compute até 2030, priorizando iniciativas mais lucrativas antes de um IPO.

A OpenAI contratou Dave Dugan, ex-executivo de publicidade da Meta, como vice-presidente de soluções globais de anúncios. A empresa busca urgentemente novas fontes de receita para sustentar suas grandes necessidades de financiamento. Dugan é conhecido por seus relacionamentos próximos com as principais empresas de publicidade do mundo, o que pode influenciar onde as marcas alocam seus orçamentos de publicidade.

A OpenAI identificou que sua estreita relação com a Microsoft representa um risco potencial para seus negócios, já que a Microsoft é responsável por uma parte substancial do financiamento e do compute da OpenAI. Outros riscos incluem grandes despesas de capital, dependência de recursos computacionais, litígios em andamento com a xAI e sua estrutura incomum como uma corporação de benefício público. Os resultados operacionais da OpenAI dependerão de sua habilidade em desenvolver relações com outros parceiros. Apesar da parceria forte, OpenAI e Microsoft estão competindo cada vez mais no mercado de IA generativa. ️

A juíza distrital dos EUA Rita F. Lin, do Distrito Norte da Califórnia, afirmou durante uma audiência que o governo dos EUA parecia estar punindo a Anthropic ao proibir a empresa. A audiência faz parte dos esforços da Anthropic para aliviar a proibição governamental sobre o uso dos modelos de IA da empresa. Lin ainda não decidiu sobre o caso, mas expressou sérias dúvidas sobre as ações do governo Trump em seus comentários iniciais. A ação governamental já custou à Anthropic centenas de milhões de dólares em contratos cancelados e acordos abortados.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser