CEVIU News

CEVIU News — 23 de April de 2026

140 notícias23 de abril de 2026CEVIUCEVIU Web DevCEVIU IA+8
Compartilhar:

💼 CEVIU

Agentes de código transformaram radicalmente a engenharia de software. O papel do engenheiro agora se move da mera construção de sistemas para o seu design e aprimoramento contínuo. Com isso, a atenção se desvia da precisão das linhas de código para a capacidade de o software produzir os resultados desejados ao longo do tempo. Essa transformação fundamental impacta diretamente o que deve ser avaliado em processos seletivos. Este artigo explora como a Sierra redesenhou seu processo de entrevista de engenharia, partindo do zero, para se alinhar completamente a essa nova realidade e aos desafios que a era da IA apresenta.

As novas TPUs do Google foram reveladas com a promessa de uma plataforma de IA mais rápida e eficiente para a empresa e seus clientes. A TPU 8t é projetada para encurtar o tempo de treinamento de frontier models, passando de meses para semanas, enquanto a TPU 8i otimiza a execução de múltiplos agentes especializados, com a capacidade de operar em pods de até 1.152 chips. Essas TPUs irão impulsionar os próprios modelos baseados em Gemini do Google. Contudo, elas também foram pensadas para desenvolvedores de terceiros, com ambas as versões oferecendo suporte a frameworks populares já utilizados no mercado. Esse movimento prepara o terreno para a próxima fase da IA, impulsionando a computação necessária para sistemas mais autônomos e baseados em agentes.

A Tesla planeja investir aproximadamente US$ 3 bilhões na construção de uma fábrica de chips para pesquisa no Texas. A instalação será erguida no campus já existente da Giga Texas e, embora tenha capacidade para produzir apenas alguns milhares de wafers por mês, seu foco principal é servir como um campo de testes para novas tecnologias e processos, e não como uma unidade de fabricação em massa. A empresa pretende utilizar o processo de produção mais avançado da Intel, o 14A, que deverá estar maduro e pronto no momento em que o plano da Tesla ganhar escala. Este movimento estratégico posiciona a empresa para inovar significativamente em hardware próprio.

A Xpeng, montadora chinesa, está dedicando vastos recursos para tornar aeronaves elétricas tripuladas uma realidade comercial. A empresa desenvolveu um protótipo que decola, paira e pousa, tudo controlado por um único joystick. Este sistema é composto por um veículo terrestre de seis rodas e três eixos que funciona como transporte e estação de carregamento, e um eVTOL de dois lugares destacável que se acopla na traseira e opera autonomamente. Com preço em torno de US$ 300.000, a Xpeng planeja iniciar as entregas aos clientes até o final de 2026.

Ace, um sistema robótico desenvolvido pela Sony AI, consegue vencer jogadores de elite no tênis de mesa. Equipado com um braço de oito articulações em uma base móvel e múltiplas câmeras que cobrem toda a quadra de diferentes ângulos, o Ace rastreia a posição e o efeito da bola, permitindo ajustes de trajetória em frações de segundo. O Ace demonstra um domínio notável do efeito e a capacidade de lidar com jogadas desafiadoras. Embora ainda seja superado por profissionais, suas habilidades representam um marco significativo na robótica, destacando o tênis de mesa como um dos mais rigorosos testes do avanço tecnológico.

Agentes de codificação devolvem muito tempo aos desenvolvedores, permitindo-lhes ter energia suficiente para criar seus produtos da maneira que desejam. Essa autonomia possibilita que os desenvolvedores produzam software significativamente melhor, incentivando um pensamento crítico mais rigoroso e um melhor alignment na fase de planejamento. Além disso, os agentes permitem que as equipes escalem de uma forma que resulta em software de maior qualidade. Em um cenário de software rápido e acessível, a qualidade emerge como o principal diferencial competitivo, elevando o padrão do que pode ser entregue.

Por anos, a missão da SpaceX foi levar humanos a Marte. No entanto, nos últimos seis meses, as prioridades da empresa mudaram significativamente, sinalizando uma guinada estratégica. Recentemente, a SpaceX firmou um acordo com a startup de IA Cursor, que pode culminar na aquisição da empresa por US$ 60 bilhões. Elon Musk propôs também iniciativas ousadas, como data centers de IA em órbita terrestre, fábricas na Lua e até uma planta de fabricação de chips de IA. Essa nova direção tem gerado questionamentos e críticas por parte de alguns investidores, que observam a evolução dos objetivos da companhia.

Para ser um laboratório de ponta em codificação, é crucial possuir tanto o poder computacional para treinar novos modelos e capacidades quanto o produto que realimenta recursivamente esse processo. A união de Cursor e SpaceX visa precisamente fechar esse ciclo, prometendo impulsionar a inovação no setor. Com essa visão, as duas empresas firmaram um acordo para co-desenvolver modelos de agentes de codificação e conhecimento. Este é um movimento estratégico notável, pois representa o primeiro acordo em que dois laboratórios sub-frontier se combinam de forma plausível para se tornarem um competidor de fronteira no cenário dos modelos de IA mais avançados.

Foi descoberta uma vulnerabilidade em todos os navegadores baseados em Firefox que permite a sites derivar um identificador de tempo de vida de processo único, determinístico e stable, mesmo em contextos onde os usuários esperam um isolamento mais robusto. Essa falha compromete a expectativa de privacidade, especialmente para quem utiliza ferramentas como o Tor, e pode interligar suas identidades em diferentes sessões. Entenda como essa descoberta pode afetar sua navegação.

🤖 CEVIU Web Dev

O Manifesto do Agente de Codificação por IA estabelece valores centrais que enfatizam contratos sobre convenções, verificação sobre geração e comunicação explícita para guiar o desenvolvimento de software orientado por IA. O manifesto, então, delineia doze princípios, como humanos definindo esqueletos de código, documentando convenções de agentes, separando a geração de código do julgamento e tratando o código gerado por IA como "culpado até que se prove o contrário".

A equipe de rede do AWS Lambda conseguiu reduzir a latência de cold start de VPC de 150ms para 200µs. Isso foi possível através da implementação do eBPF para a criação de túneis Geneve. Adicionalmente, a equipe alcançou um aumento de 20 vezes na capacidade, convergindo topologias de rede e simplificando as regras de rede.

Claude Code Routines automatizam tarefas repetitivas e não supervisionadas, como code review ou triagem de alertas. Isso é feito executando configurações salvas de forma autônoma na infraestrutura em nuvem da Anthropic. Desenvolvedores podem acionar essas rotinas por meio de agendamentos, chamadas de API ou eventos do GitHub, como pull requests. A gestão e o controle dessas rotinas são realizados por meio da interface web, do CLI ou do aplicativo desktop, oferecendo flexibilidade e integração ao fluxo de trabalho.

Confiar apenas em tipos escalares gera bugs semânticos sutis que contornam os compiladores, pois eles não conseguem diferenciar conceitos de domínio distintos, um risco que não é totalmente mitigado nem mesmo agrupando parâmetros em structs. A solução proposta é encapsular cada conceito de domínio significativo em um "newtype" distinto, garantindo que o compilador imponha a correção semântica e resultando em código mais seguro, autodocumentado e com validação em tempo de compilação.

Agentes de IA estão em transição de interações síncronas baseadas em chat para processos autônomos em segundo plano. Essa mudança expõe as limitações dos modelos HTTP tradicionais na gestão de tarefas de longa duração e no engajamento em tempo real. Para uma interação fluida, uma solução completa deve integrar um estado de agente durável com mecanismos de transporte bidirecionais.

A equipe de Engenharia do Slack superou as limitações da janela de contexto de LLMs em investigações de segurança multi-agente de longa duração, empregando três canais de contexto complementares. O sistema implementado utiliza um Diário do Diretor para gerenciar memória estruturada, uma Revisão do Crítico para avaliar e refinar descobertas imprecisas, e uma Linha do Tempo do Crítico para construir uma cronologia de eventos plausível.

Ferramentas de IA para codificação frequentemente realizam um "super-edição", reescrevendo código de forma desnecessária durante a correção de bugs. Essa é uma tendência intrínseca aos frontier models, que, por padrão, exibem tal comportamento. Contudo, essa propensão pode ser significativamente reduzida através de prompting explícito. Pesquisas recentes demonstram que o Reinforcement Learning (Aprendizado por Reforço) é uma estratégia eficaz para treinar esses modelos a atuarem como editores mais concisos e fiéis, sem que isso comprometa sua performance geral de codificação.

Um desenvolvedor criou o linter de análise estática customizado "transactioncheck", utilizando o framework `go/analysis` do Go, para resolver bugs sutis em transações de banco de dados. Esses bugs causavam corrupção de dados e race conditions, frequentemente não detectados em revisões de código e testes. Este linter funciona percorrendo a Abstract Syntax Tree (AST) para verificar se todas as operações de banco de dados utilizam corretamente o parâmetro com escopo de transação. Dessa forma, ele captura eficientemente violações existentes e previne futuros bugs em tempo de compilação ao ser executado na CI.

À medida que a geração de código movida por IA se torna mais acessível, a engenharia de software passará a focar na verificação abrangente e no design de abstrações significativas que a IA não pode replicar. Essa evolução exige que os humanos transitem da escrita de código para a definição de qualidade e o gerenciamento da dívida cognitiva inerente a sistemas complexos e automatizados.

A mentalidade hacker exige ir além das regras superficiais e abstrações de um sistema, buscando compreender a fundo sua mecânica subjacente. Essa perspectiva permite não apenas antecipar problemas, mas também desenvolver soluções não convencionais e otimizadas. É o poder de entender o funcionamento real de um sistema que viabiliza resultados de alta performance e eficiência.

Para criar prompts eficazes, é crucial ser específico quanto ao resultado esperado, utilizar instruções positivas e estabelecer um padrão de qualidade claro. É recomendado anexar especificações reais em vez de descrições vagas e aproveitar a memória da conversação para maior consistência. Além disso, prompts de aprovação devem ser tratados como uma etapa de revisão formal. A abordagem ideal é considerar a IA como um novo membro da equipe, detentor de vasto conhecimento técnico, mas que ainda não possui o contexto institucional da organização.

Enquanto o contexto atua como um "software" temporário essencial para o in-context learning em modelos de IA, as atualizações de pesos representam uma modificação mais profunda. Elas alteram permanentemente as capacidades computacionais fundamentais e as representações internas do modelo, sublinhando uma distinção crucial no desenvolvimento de sistemas. Essa perspectiva diferencia o processamento efêmero do conhecimento consolidado em IA. A aprendizagem contínua eficaz no domínio do desenvolvimento de software e IA exige uma abordagem multifacetada. Isso inclui tanto o aumento das janelas de contexto, que funcionam como uma memória de trabalho expandida para o modelo, quanto a aprendizagem persistente no espaço de pesos, que consolida o conhecimento fundamental acumulado. Essa sinergia é vital para a evolução e otimização de sistemas inteligentes.

Projetos open source como o Jellyfin enfrentam backlogs massivos de Pull Requests (PRs) não mergeados, causados por gargalos operacionais. Um dos principais fatores é a alta utilização de um único mantenedor, que pode se aproximar de 100% de sua capacidade, resultando em tempos de espera crescentes exponencialmente e um fenômeno conhecido como "batch size death spiral", onde PRs de grande porte obstruem o sistema. Para mitigar essa situação, é crucial otimizar o tempo dos mantenedores existentes. As estratégias incluem limitar o tamanho dos PRs, estabelecer critérios de qualidade rigorosos, restringir o trabalho em andamento (WIP), definir cadências claras para revisões e implementar uma estrutura de níveis para revisores, garantindo maior fluidez e qualidade no desenvolvimento de software.

As animações com engasgos no Android para o Discord, utilizando a Nova Arquitetura do React Native, originavam-se do Reanimated, que clonava centenas de nós da Shadow Tree por frame. Esse comportamento resultava em quedas significativas na performance da experiência do usuário, impactando a fluidez das interações no aplicativo. A solução desenvolvida envolveu a sincronização de animações finalizadas de volta ao React para permitir que esses nós fossem liberados. Esta otimização restaurou um fast path síncrono para propriedades que não afetam o layout, resultando em uma redução de 26% na taxa de quadros com engasgos do Discord. As melhorias estão sendo incorporadas no upstream como um "shared animation backend" no React Native 0.85, beneficiando toda a comunidade de desenvolvimento.

Pesquisas acadêmicas financiadas pelo governo, que se estenderam por 30 anos e focaram em computação paralela, gráficos e processamento de stream, impulsionaram diretamente o desenvolvimento da computação de GPU. Essa tecnologia é hoje vital para a revolução moderna da inteligência artificial (IA) e detém um valor econômico considerável. A expertise acadêmica fundamental foi transferida para a indústria, culminando na evolução de linguagens como Brook para CUDA na Nvidia.

Ferramentas de Inteligência Artificial (IA) têm a capacidade de gerar componentes React que, embora visualmente corretos, apresentam sérias falhas de acessibilidade, tornando-os invisíveis para leitores de tela. O problema reside na tendência desses modelos de otimizar unicamente a fidelidade visual, resultando em estruturas conhecidas como "div soup" — ausentes de roles, suporte adequado a teclado e estados ARIA, e completamente alheias à árvore de acessibilidade do navegador. Para mitigar essa questão crítica, é imperativa a implementação de uma defesa em camadas. Isso inclui a definição de restrições rigorosas nos prompts, uso de linting com configuração para erros no ambiente de CI (Continuous Integration), a realização de testes abrangentes em runtime, auditorias de acessibilidade via ferramentas como Playwright e a adoção de bibliotecas headless, como Radix ou React Aria, que fornecem primitivas interativas com acessibilidade intrínseca.

Uma avaliação de Gemma 4 como um modelo de programação baseado em agentes local no Codex CLI, comparado a modelos de nuvem como GPT-5.4, demonstrou que a confiabilidade na primeira tentativa, e não a velocidade bruta de token, foi a métrica de desempenho mais crucial, visto que os modelos de nuvem se mostraram os mais rápidos e confiáveis. Embora os modelos de nuvem ainda ofereçam o melhor desempenho geral, a capacidade de Gemma 4 de fazer chamadas de ferramenta (tool-calling) torna a programação local baseada em agentes uma opção viável.

Embora o encadeamento de métodos curtos em JavaScript seja aceitável e prático, encadear operações mais complexas compromete significativamente a legibilidade do código, a capacidade de depuração (debuggability) e a eficiência geral. A prática pode levar a dificuldades na manutenção e otimização.

As representações tradicionais da Quinta Forma Normal (5NF) podem ser confusas devido a exemplos desmotivados e divisões ilógicas. Contudo, ao projetar esquemas a partir de requisitos de negócio e modelos lógicos, é possível produzir naturalmente esquemas físicos que já estão totalmente normalizados. Este processo se dá através de padrões de design, como o triângulo AB-BC-AC ou a estrela ABC+D, que permitem que a normalização seja alcançada de forma orgânica. Assim, a decomposição explícita em 5NF torna-se, na prática, desnecessária, uma vez que a estrutura correta emerge do próprio processo de design.

A evolução da programação assíncrona, desde o uso de callbacks até a adoção de promises e, posteriormente, async/await, tem consistentemente solucionado desafios imediatos relacionados à gestão de recursos e ergonomia no desenvolvimento. Contudo, cada nova iteração dessa evolução introduziu custos sistêmicos adicionais, como o conceito de "function coloring" e a "sequential trap", que merecem atenção na arquitetura de software.

O Google está categorizando explicitamente o "back button hijacking" — prática na qual sites manipulam o histórico do navegador para prender usuários — como uma violação da política de spam. Essa nova diretriz visa aprimorar a experiência do desenvolvedor e a qualidade de navegação, com a aplicação das regras prevista para começar em 15 de junho. A medida busca combater manipulações que prejudicam a usabilidade e a integridade da navegação web.

O desenvolvimento de software multi-agente é fundamentalmente um problema de sistemas distribuídos, apresentando resultados de impossibilidade inerentes, como os teoremas FLP e dos Generais Bizantinos. Essa complexidade não pode ser superada apenas por LLMs mais inteligentes, o que ressalta a necessidade de protocolos e linguagens de coordenação explícitos, em vez de depender exclusivamente de futuras melhorias nos modelos de IA.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser

🤖 CEVIU IA

A OpenAI introduziu agentes de workspace no ChatGPT, permitindo que equipes criem agentes de IA compartilhados para tarefas e fluxos de trabalho complexos. Esses agentes, potencializados por Codex, executam tarefas como gerar relatórios, escrever código e gerenciar comunicação, enquanto se integram a diversas ferramentas como o Slack. Os agentes de workspace estão atualmente disponíveis em prévia de pesquisa para planos selecionados do ChatGPT, com o objetivo de otimizar a colaboração e melhorar a produtividade.

Google lançou o Workspace Intelligence, aprimorando o Google Workspace com uma camada semântica para integrar e-mails, chats, arquivos e projetos para agentes movidos por Gemini. Esta atualização inclui grandes aprimoramentos de produto, como a construção de planilhas em linguagem natural no Sheets e recursos orientados por IA no Docs, Slides, Gmail e Drive. O Workspace Intelligence visa tornar o Workspace uma camada de controle centralizada para operações de negócios, enfatizando segurança, integração de contexto e funcionalidade entre aplicativos.

A Core Automation é um laboratório de IA fundado por Jerry Tworek, ex-pesquisador da OpenAI, com o objetivo de construir o laboratório de IA mais automatizado do mundo. A iniciativa começará automatizando sua própria pesquisa antes de desenvolver novos algoritmos que transcendem o pre-training e o reinforcement learning. O laboratório também se dedicará à criação de arquiteturas projetadas para escalar de forma mais eficiente do que os transformers. A equipe é composta por especialistas em frontier models, otimização e engenharia de sistemas.

A Perplexity desenvolveu um pipeline de dois estágios para modelos de linguagem aumentados por busca. Esse pipeline emprega um Supervised Fine-Tuning (SFT) inicial, seguido por Reinforcement Learning (RL), com o objetivo de otimizar a precisão factual, a preferência do usuário e a eficiência no uso de ferramentas. Essa abordagem, que começou a ser aplicada com os modelos Qwen3, separa a conformidade da melhoria na busca, visando alcançar maior precisão sem comprometer os guardrails. Os modelos demonstraram maior acurácia em benchmarks como FRAMES e FACTS OPEN, além de um custo por consulta reduzido e uma eficiência aprimorada no uso de ferramentas em comparação com modelos existentes como o GPT-5.4.

Workloads agentic estão redefinindo os benchmarks para motores de inference, exigindo cenários de múltiplas interações e uso de ferramentas. Tais cenários impõem desafios ao gerenciamento e ao escalonamento do KV cache devido a traces mais longos e a distribuições variadas de tokens. A Applied Compute introduziu três perfis de workload para auxiliar na otimização da performance de motores e aceleradores. A empresa lançou uma ferramenta de benchmarking open-source para replicar essas situações, destacando a necessidade de soluções como o offloading de KV cache e o roteamento sensível ao workload para aprimorar o throughput e a eficiência.

A maioria do conteúdo inserido em arquivos AGENTS.md não ajuda ou, na verdade, prejudica. Os padrões eficazes são específicos e podem ser aprendidos. Este artigo analisa quais padrões funcionam, quais falham e como identificar a diferença para sua codebase. Padrões distintos afetam métricas diferentes, portanto, escolha aqueles que visam resolver o problema que você realmente enfrenta.

O Qwen3.6-27B entrega performance de codificação agentic de nível flagship. A equipe Qwen afirma que ele supera o flagship da geração anterior, Qwen3.5-397B-A17B, em todos os principais benchmarks de codificação. O modelo possui 55.6 GB no Hugging Face, com versões quantizadas ainda menores disponíveis. Testes indicam que o modelo apresenta resultados excelentes, mesmo quando quantizado.

A Gemini Enterprise Agent Platform é uma plataforma abrangente para construir, escalar, governar e otimizar agentes. Ela reúne capacidades de seleção de modelos, construção de modelos e construção de agentes, juntamente com novas funcionalidades para integração de agentes, DevOps, orquestração e segurança. A Agent Platform é um destino único para equipes técnicas desenvolverem agentes que podem transformar produtos, serviços e operações. Os agentes podem ser entregues aos funcionários através do aplicativo Gemini Enterprise.

Agentes podem se conectar a sistemas externos por meio de chamadas diretas de API, CLIs e MCP. Esta publicação examina onde cada um se encaixa e os padrões para construir essas integrações de forma eficaz. MCP se torna a camada de composição crítica à medida que agentes de produção migram para a nuvem. Cada integração construída sobre MCP fortalece o ecossistema.

A personalização nas respostas dos LLM introduz variação, mas frequentemente mantém um núcleo semântico estável entre as diferentes respostas. Essa base compartilhada resulta de priors de modelo comuns, recuperações sobrepostas e restrições de produto, com as diferenças surgindo em exemplos e ênfase. Compreender esse comportamento permite que as empresas otimizem sua presença em conteúdo gerado por IA, focando em fazer parte do conhecimento central do modelo.

A IA está aprimorando os fluxos de trabalho de engenharia ao assumir a execução, permitindo que os humanos se concentrem no planejamento, revisão e garantia da qualidade do resultado. Enquanto a IA executa, os humanos se destacam na diagnóstico de problemas sob múltiplos ângulos, uma capacidade que ainda representa um desafio para a IA. No futuro, as estratégias organizacionais de IA provavelmente envolverão assistentes personalizados para os funcionários ou um super-agente singular com plugins departamentais.

Confiar em prompts para corrigir erros recorrentes de agentes de IA é uma abordagem pouco confiável e "baseada em intuição" que se degrada à medida que as conversas se tornam complexas. Para resolver isso, Garry Tan, CEO da Y Combinator, defende a "skillification". Em vez de permitir que um agente desperdice compute tentando resolver tarefas determinísticas (como consultas a calendários históricos) em seu latent space, este framework força a IA a executar scripts locais precisos.

⚠️ CEVIU Segurança da Informação

A vulnerabilidade CVE-2026-22752 no Spring Security Authorization Server permite que atacantes com um Initial Access Token válido registrem clientes OAuth maliciosos através dos endpoints de Dynamic Client Registration. Isso pode desencadear Stored XSS, escalonamento de privilégios e SSRF contra a infraestrutura interna. A falha possui um CVSS vector de baixa complexidade e é explorável via rede. Ela afeta o Spring Security nas versões 7.0.0 a 7.0.4, e o Spring Authorization Server nas versões 1.3.0 a 1.3.10, 1.4.0 a 1.4.9 e 1.5.0 a 1.5.6. Administradores devem atualizar imediatamente para as versões 7.0.5, 1.3.11, 1.4.10 ou 1.5.7, ou desativar o Dynamic Client Registration como mitigação temporária. Isso é crucial devido ao risco de sequestro de contas em cascata em ambientes de microsserviços que utilizam OAuth.

Um grupo não autorizado obteve acesso ao modelo Mythos da Anthropic. O acesso à ferramenta foi conseguido através de um terceiro, com a intenção de explorar o modelo e não de causar danos. O grupo fez um 'palpite fundamentado' sobre a localização online do modelo, com base no conhecimento do formato que a Anthropic tem utilizado para outros de seus modelos.

O Ministério do Interior da França confirmou um incidente de segurança no portal ants.gouv.fr, que gerencia passaportes, carteiras de identidade e licenças. O incidente expôs identificadores de usuários, detalhes de contato e datas de nascimento, mas não anexos de documentos. Um ator de ameaças, conhecido como breach3d/ExtaseHunters, alega ter acesso a 18–19 milhões de registros dos sistemas internos da agência e está vendendo os dados em fóruns criminais. O governo continua investigando com a ANTS e outros serviços, mas ainda não validou o volume de dados comprometidos nem divulgou detalhes sobre o intrusion vector.

O pesquisador Nightmare-Eclipse divulgou publicamente três Provas de Conceito (PoCs): BlueHammer (CVE-2026-33825), uma condição de corrida Time of Check Time Of Use (TOCTOU) no fluxo de trabalho de atualização de assinatura do Defender, corrigida em abril; RedSun, uma falha não corrigida que abusa da remediação acionada pelo EICAR contra o TieringEngineService.exe para instalar binários de atacantes como SYSTEM em Windows 10/11 e Server 2019+ totalmente atualizados; e UnDefend, uma ferramenta pós-SYSTEM que impede o Defender de receber inteligência de ameaças enquanto falsifica relatórios de saúde. A Huntress observou intrusões manuais que preparavam binários nas subpastas Downloads e Pictures, renomeando-os com variantes para suprimir detecções do VirusTotal, com o acesso inicial consistentemente rastreado a contas de SSL VPN sem MFA. Os defensores devem aplicar as atualizações de abril de 2026 e verificar diretamente o Antimalware Platform v4.18.26050.3011 (o UnDefend pode falsificar o dashboard), forçar MFA em todo acesso remoto, bloquear a execução de Downloads/Pictures/Temp e definir um baseline do hash do TieringEngineService.exe a partir de uma camada de detecção out-of-band.

Adrian Sanabria resumiu as palestras principais do RSAC 2026, identificando um amplo consenso de que os agentes de IA exigem gerenciamento de ativos, permissões de dados baseadas em padrões de usuário, observability, validação de saída e verificações de integridade contra dados fabricados. No entanto, nenhum palestrante afirmou ter uma solução funcional, e o fundador de uma startup de governança de IA confirmou que os clientes permanecem em modo de monitoramento apenas, sem enforcement. Divergências surgiram sobre a necessidade de "human-in-the-loop" versus detecção e resposta totalmente autônomas, agentes efêmeros com escopo de tarefa versus "co-workers digitais" persistentes, e a plausibilidade de milhares de agentes por pessoa. Enquanto isso, os palestrantes defenderam um retorno aos fundamentos, ao hardening e à redução da superfície de ataque, sob a premissa de que todo sistema possui um zero-day sem patch. Sessões de destaque incluíram Tomer Weingarten (SentinelOne) alertando sobre a atrofia cognitiva decorrente da terceirização do julgamento para a IA, Sandra Joyce (Google Security) detalhando ações legais civis e atribuição pública como técnicas eficazes para desmantelar a infraestrutura de atacantes, e Jeetu Patel (Cisco) lançando ferramentas OSS de defesa de agentes, incluindo AI BOM, MCP Scanner, A2A Scanner, CodeGuard e DefenseClaw.

Software Bill of Materials (SBOMs) e Vulnerability Exploitability eXchange (VEX) foram introduzidos para oferecer aos compradores visibilidade clara sobre os componentes de software e sua explorabilidade. Ainda assim, ataques à cadeia de suprimentos continuam a aumentar, com os recentes comprometimentos de Trivy e Axios atingindo dezenas de milhares de organizações. Datta argumenta que as equipes são sobrecarregadas por SBOMs, VEX, inteligência de vulnerabilidades e inputs legais inconsistentes, acabando por depender de pontuações de severidade brutas. Ela propõe uma camada de decisão orientada por governança que rastreia as mudanças nas SBOMs ao longo do tempo, trata o VEX como contextual, incorpora divulgações de terceiros e produz decisões auditáveis e defensáveis, especialmente à medida que as regulamentações se tornam mais rigorosas e o tempo para exploração diminui para horas.

A crença generalizada de que o algoritmo de Grover reduz pela metade a força de chaves simétricas está incorreta. Isso ocorre porque a paralelização do algoritmo de Grover dilui o ganho de velocidade quadrático (a partição do espaço de busca economiza apenas a raiz quadrada do fator de redução) e o ataque não pode ser distribuído de forma significativa. Utilizando o "oracle" de Grover para AES-128 de Liao e Luo (2025), que possui profundidade de 232 T-gates e largura de 724 qubits lógicos, a quebra do AES-128 em uma década exigiria aproximadamente 140 trilhões de circuitos quânticos paralelos, a um custo de DW de cerca de 2^104.5. Esse custo seria aproximadamente 2^78.5 vezes mais caro do que o ataque de Shor a curvas elípticas de 256 bits. NIST, BSI TR-02102-1 e o pesquisador Samuel Jaques concordam que AES-128 e SHA-256 permanecem seguros no cenário pós-quântico e que nenhum tamanho de chave simétrica precisa ser alterado. Portanto, engenheiros devem redirecionar o esforço de migração para a urgente transição PQC assimétrica, em vez de dobrar o tamanho das chaves simétricas.

O modelo Mythos da Anthropic identificou 271 vulnerabilidades no código de pré-lançamento do Firefox 150, um número significativamente maior em comparação com as 22 falhas detectadas pelo Opus 4.6 no Firefox 148. Este resultado representa um ponto de virada para os defensores, mostrando que muitas dessas vulnerabilidades poderiam ter sido descobertas através de fuzzing ou análise humana.

Atacantes desconhecidos publicaram imagens modificadas no repositório oficial checkmarx/kics do Docker Hub, sobrescrevendo tags como v2.1.20 e alpine e adicionando um falso release v2.1.21. O binário KICS trojanizado pode criar relatórios de varredura IaC sem censura, criptografá-los e exfiltrá-los para um endpoint externo, expondo credenciais em configurações de Terraform, CloudFormation ou Kubernetes.

📦 CEVIU DevOps

Stacked PRs decompõem grandes mudanças em uma sequência de pull requests menores e dependentes. Essas PRs podem ser revisadas individualmente, mas mescladas em conjunto, o que melhora a qualidade da revisão, a velocidade e o gerenciamento de conflitos. O GitHub oferece suporte nativo a essa abordagem, com navegação UI, rebases em cascata e tooling de CLI, permitindo que equipes (e até mesmo agentes de IA) gerenciem alterações complexas como camadas estruturadas e incrementais.

O code review tradicional é inadequado para projetos de machine learning por não contemplar o contexto de dados, suposições e comportamento do sistema. Isso resulta em problemas que passam despercebidos, mesmo com código limpo. Revisões sensíveis ao contexto melhoram a confiabilidade ao integrar a intenção, a consistência dos dados e os casos de borda ao processo de avaliação.

A Cloudflare lançou Workers de saída (outbound Workers) para seus Sandboxes e Containers, funcionando como proxies egress programáveis. Estes permitem aos desenvolvedores controlar, autenticar e monitorar requisições de rede de agentes de IA sem expor tokens de API a workloads de LLM não confiáveis. O objetivo é fortalecer a segurança e o controle sobre o tráfego gerado por IA. O recurso utiliza JavaScript para interceptar tráfego HTTP/HTTPS na mesma máquina que o sandbox, possibilitando autenticação zero-trust através da injeção de credenciais no lado do servidor. Além disso, permite alterações dinâmicas de política de rede durante a sessão e integração fluida com o ecossistema da Cloudflare, incluindo serviços como R2 e KV storage.

Rastreadores de IA geram tráfego de alto volume, diverso e ineficiente, o que aumenta as ocorrências de cache miss em CDNs, degrada o desempenho e eleva a carga nos servidores de origem, em comparação com o tráfego humano. A Cloudflare propôs estratégias de cache cientes de IA, incluindo separação de tráfego e novos algoritmos de cache, visando equilibrar o desempenho ao suportar tanto requisições de IA quanto humanas.

A Docker e a Arm lançaram uma cadeia de 7 ferramentas MCP (Model Context Protocol) que permite analisar Hugging Face Spaces para compatibilidade Arm64 em cerca de 15 minutos. Esta solução aborda um problema de deployment que afeta aproximadamente 80% dos Spaces baseados em Docker que nunca foram testados em hardware Arm.

A utilização de apenas tipos escalares (como string ou int) oferece garantias fracas, pois eles capturam a forma, mas não o significado, permitindo que bugs sutis, como IDs ou unidades trocadas, sejam compilados e passem despercebidos. Envolver conceitos de domínio em tipos distintos (newtypes) torna estados inválidos irrepresentáveis, capacitando o compilador a impor correção, melhorar a safety e codificar a lógica de negócio diretamente no sistema de tipos.

Escalar desenvolvedores individuais com muitos agentes de IA não resolve o verdadeiro gargalo no desenvolvimento de software – o alignment da equipe sobre o que construir – especialmente à medida que a implementação se torna rápida e barata. São necessários ambientes colaborativos e compartilhados que integrem planejamento, contexto e execução de agentes para manter as equipes em alignment em tempo real e evitar trabalho desperdiçado, problemas de coordenação e resultados de baixa qualidade.

CEVIU Design

O Google Fotos adicionou novas ferramentas de retoque ao seu editor de imagens, possibilitando aprimoramentos faciais sutis. As opções incluem suavização de pele, remoção de imperfeições, clareamento dos olhos e branqueamento dos dentes, permitindo aos usuários ajustar a aparência das fotos com facilidade. Para usar, o usuário seleciona um rosto e escolhe entre ferramentas como reparar, suavizar, olheiras, íris, dentes, sobrancelhas ou lábios, ajustando em seguida a intensidade do efeito. O recurso está sendo liberado gradualmente para dispositivos Android com versão 9.0 ou superior e pelo menos 4 GB de RAM.

A Adobe CX Enterprise, uma plataforma corporativa apresentada no Adobe Summit, foi desenvolvida para coordenar agentes de IA em fluxos de trabalho de marketing, conteúdo e engajamento do cliente. Construído sobre sua Experience Platform, o sistema integra camadas de Brand and Engagement Intelligence, um coordenador multi-agente, e parcerias estratégicas com AWS, Anthropic, Google, IBM, Microsoft, Nvidia e OpenAI. A empresa também reportou um crescimento de 269% ano a ano no tráfego movido por IA para sites de varejo nos EUA, enquanto continua a expandir sua atuação em visibilidade de pesquisa baseada em IA e aprimorar sua plataforma de conteúdo GenStudio.

O futuro CEO da Apple, John Ternus, declarou a funcionários em uma reunião geral que a empresa está entrando em uma fase particularmente empolgante, destacando a IA como motor essencial para grandes inovações futuras. O atual CEO, Tim Cook, também expressou otimismo durante a transição de liderança. As declarações de Ternus foram notavelmente ambiciosas e focadas em elevar o moral, criando altas expectativas que ele precisará concretizar quando a Apple apresentar novos produtos sob sua gestão.

O Claude Design da Anthropic é uma ferramenta que permite aos usuários colaborar com Claude para criar trabalhos visuais, como protótipos e slides, e então empacotar os resultados como pacotes de implementação que são passados diretamente ao Claude Code para produção. Essa integração visa resolver o antigo problema de handoff entre design e engenharia. Adotantes iniciais como Brilliant e Datadog relataram fluxos de trabalho drasticamente compactados, reduzindo ciclos de semanas a conversas únicas.

Gerentes de produto podem ir além de ferramentas focadas apenas em protótipos, como Lovable ou Bolt, adotando agentes de codificação e aprendendo os fundamentos da engenharia. O objetivo não é se tornarem engenheiros, mas sim construir produtos reais e entregáveis. As lições principais incluem planejamento antecipado com PRDs estruturados, compreensão do tech stack, iteração incremental e tratamento de erros como orientação, e não como falhas. A disciplina fundamental da gestão de produto (PM) de validar problemas antes de construir permanece tão crítica como sempre, pois a redução das barreiras à codificação não elimina a necessidade de um pensamento rigoroso sobre o que vale a pena construir e por quê.

A afirmação de que Jenny Wen “quebrou” o processo de design gerou debate, mas críticos como Sarah Gibbons argumentam que o processo não desapareceu; designers experientes simplesmente o internalizaram e comprimiram. Pular etapas por completo, contudo, pode enfraquecer o talento júnior. A maior preocupação é que a velocidade impulsionada pela IA possa esvaziar a força de trabalho, resultando em menos juniores se tornando seniors, e tensionar as organizações tradicionais. Isso impulsiona uma mudança em direção a papéis mais horizontais e híbridos, como as funções “full-stack”, e novos modelos de equipe – equilibrando estruturas “atom” rápidas e autônomas para inovação com sistemas “tomato” estáveis para preservar o rigor, o desenvolvimento de habilidades e a resiliência a longo prazo.

A má gestão de timeouts de sessão cria sérias barreiras de acessibilidade para pessoas com deficiências motoras, cognitivas e visuais, que frequentemente precisam de mais tempo para completar tarefas online e podem perder um progresso significativo ao serem desconectadas inesperadamente. Falhas comuns incluem timeouts silenciosos, avisos insuficientes e a ausência de opção para estender as sessões — problemas que afetam desproporcionalmente cerca de 1,3 bilhão de pessoas em todo o mundo que vivem com deficiências significativas. Soluções como avisos avançados, opções de extensão de sessão e salvamento automático de progresso podem melhorar significativamente a acessibilidade, ao mesmo tempo em que cumprem os requisitos de segurança.

A plataforma de hospitalidade Mews colaborou com a Koto para se rebrandear, distanciando-se da estética genérica de SaaS em direção a uma identidade ousada e altamente distintiva que equilibra clareza e complexidade. A nova marca emprega um rosa marcante, tipografia expressiva e um tom de voz confiante, estilo concierge, para se destacar em uma indústria conservadora, demonstrando que mesmo um software enterprise pode conquistar atenção e confiança através da criatividade, personalidade e de sistemas de design robustos, em vez de seguir o caminho seguro.

🚀 CEVIU Marketing

A IA está transformando a estratégia de marketing, migrando de testes manuais para sistemas automatizados que executam experimentação e otimização contínuas de anúncios. Engenheiros de Growth desenvolvem agentes que coletam anúncios de concorrentes, geram até 50 variações criativas, lançam campanhas e pausam diariamente os anúncios com baixo desempenho, aumentando a velocidade e a produtividade. As equipes de marketing centralizam dados em sistemas compartilhados, semelhantes a repositórios de engenharia, o que melhora o acesso ao contexto e a tomada de decisões. Os agentes alimentam dados de pesquisa e performance em um sistema unificado que responde a perguntas instantaneamente e elimina a busca manual. O foco passa da execução de campanhas para o design de sistemas e o treinamento de agentes que aprimoram os resultados ao longo do tempo.

Este workflow utiliza uma palavra-chave, um ponto de dor, a etapa do funil e informações da marca para gerar um brief de conteúdo focado no ICP e otimizado com base na SERP. Ele mapeia a intenção de busca e constrói uma estrutura clara, com direcionamento narrativo e orientações para cada seção. O resultado é adaptado para workflows humanos ou assistidos por IA, e entregue automaticamente. Isso garante que o conteúdo seja fundamentado em dados e nas necessidades da audiência, não em suposições.

O público não está cansado de anúncios, mas sim de conteúdo sem sentido. A IA está piorando a situação ao inundar os canais com conteúdo de baixo valor. A questão não é a fadiga de anúncios, e sim a criatividade fraca repetida em excesso. A maioria dos anúncios carece de emoção, e mais exposição leva à indiferença. Em resposta, os profissionais de marketing criam mais conteúdo, o que agrava o problema.

Reguladores da União Europeia planejam obrigar o Google a compartilhar dados de busca para impulsionar a concorrência e melhorar o desempenho de anúncios e buscas de rivais. A política permitirá acesso a consultas, rankings, cliques e sinais de usuários anonimizados por pelo menos cinco anos, o que pode ajudar concorrentes e plataformas de IA a segmentar melhor a intenção e refinar os resultados. A precificação deve ser baseada em custos e não discriminatória, embora grandes plataformas com mais de 45 milhões de usuários ou US$ 75 bilhões de valor de mercado possam pagar uma margem. O Google manterá seu índice de busca, preservando uma vantagem fundamental em relevância e monetização de anúncios. A medida sinaliza um controle mais rigoroso sob o Digital Markets Act e pode redefinir como os profissionais de marketing acessam insights de busca e competem por visibilidade.

Agentes estão se tornando os "usuários" primários, exigindo que as estratégias de marketing e produto mudem de persuadir humanos para atender à avaliação de máquinas. Produtos que oferecem outputs rápidos, confiáveis e estruturados para uso de agentes têm mais sucesso, pois os agentes ignoram UI, onboarding e marca, e substituem ferramentas que não performam bem. A distribuição também se inverte, e o crescimento passa a depender da capacidade do produto ser descoberto, bem documentado e fácil de integrar para os agentes, em vez de gerar tráfego via anúncios e funis. Abrir produtos através de protocolos como o MCP torna-se essencial para permanecer em fluxos de trabalho, mas isso enfraquece moats baseados em fricção e força as empresas a competir por dados únicos, integrações ou outputs que não podem ser replicados. Essa mudança diminui o valor de táticas tradicionais como landing pages e SEO, e aumenta a importância da performance e acessibilidade para compradores automatizados.

💥 CEVIU Cripto

Atacantes drenaram 116.500 rsETH, avaliados em US$ 292 milhões, da bridge LayerZero da Kelp DAO, expondo a Aave a US$ 230 milhões em potencial dívida incobrável. O incidente, ligado a hackers norte-coreanos, evidencia vulnerabilidades estruturais na infraestrutura cross-chain, enquanto a Arbitrum conseguiu congelar US$ 71 milhões dos ativos roubados para mitigar perdas adicionais.

A Ripple publicou um roadmap de quatro fases para tornar o XRP Ledger resistente a ataques quânticos até 2028, com testes de criptografia pós-quântica híbrida começando no primeiro semestre de 2026 e um protocolo de emergência "Quantum-Day" incluído para migração acelerada caso as ameaças se materializem antes dessa meta. Este roadmap surge em resposta a uma pesquisa da Google Quantum IA, que demonstrou que aproximadamente 500.000 qubits físicos poderiam derivar uma chave privada a partir de uma chave pública exposta em cerca de 9 minutos. Essa melhoria de 20 vezes em relação às estimativas anteriores representa um nível de ameaça que coloca aproximadamente 6.9M BTC com chaves públicas expostas em risco teórico. A rotação nativa de chaves do XRPL oferece aos usuários a capacidade de migrar contas sem abandoná-las, uma vantagem estrutural sobre o Ethereum, onde a migração pós-quântica exige a transferência manual de ativos.

Base Azul, a primeira atualização de rede independente da Base, tem como alvo a ativação na mainnet em 13 de maio. Sua principal característica é um sistema multiproof que combina provers TEE e ZK, onde qualquer um pode finalizar propostas de forma independente e o acordo duplo comprime os tempos de retirada para um dia.Melhorias de desempenho incluem a consolidação para um único cliente de execução, que reduziu os blocos vazios em aproximadamente 99%, e sustentou múltiplos picos de 5.000 TPS. Uma competição de auditoria Immunefi de $250.000 está em andamento até 4 de maio, com futuras atualizações planejadas para um padrão de token consagrado e account abstraction nativa até o final de agosto.

O Conselho Consultivo Independente de Computação Quântica e Blockchain da Coinbase identificou duas vulnerabilidades estruturais em cadeias Proof-of-Stake (PoS): os esquemas de assinatura de validadores (BLS do Ethereum e Ed25519 da Solana) que garantem o consenso, e as assinaturas de carteira on-chain. O conselho alertou que os próprios mecanismos de consenso podem exigir uma reengenharia, em vez de simples atualizações de carteira. Desenvolvedores do Ethereum, liderados por Vitalik Buterin, propuseram substituir as assinaturas BLS de validadores, os compromissos KZG e as assinaturas ECDSA de carteiras por alternativas pós-quânticas. No entanto, o conselho projeta um cronograma de vários anos para a migração de carteiras, exchanges, custodiantes e redes descentralizadas.

Esta proposta introduz prazos variáveis de PTC combinados com medição afim e precificação unificada de calldata para otimizar a eficiência da rede Ethereum. Ao acoplar prazos variáveis com limites de execução, a abordagem garante que as janelas de propagação permaneçam funcionais, equilibrando efetivamente o uso de calldata e o tempo de execução para melhorar o desempenho geral e a escalabilidade do protocolo.

Mercados de previsão enfrentam liquidez fragmentada em diversas plataformas, sem uma equalização rápida por arbitragem. Isso ficou evidente em um exploit de contrato XRP no Polymarket em janeiro, onde a baixa liquidez de fim de semana permitiu que um trader elevasse o preço em 70% com um movimento spot de apenas 0,3%, resultando em um ganho de US$ 231.000. Análises de 72 milhões de trades na Kalshi e 150 milhões no Polymarket revelam que os 5% melhores traders especializados capturaram US$ 228 milhões em três anos através de uma persistente transferência de riqueza de tomadores desinformados, enquanto LPs passivos absorvem o risco de inventário de resultados binários sem obter os spreads bid-ask típicos. Sem um equivalente a Black-Scholes para mercados de previsão, os mecanismos atuais, incluindo LMSR, CFMMs e order books, garantem perdas esperadas para os market makers. A solução proposta envolve rotear ordens entre plataformas, agrupar liquidez fragmentada com uma camada nativa de RFQ e monitorar a volatilidade de crenças implícitas em tempo real entre os mercados.

Contratos inteligentes oferecem um mecanismo para que laboratórios estabeleçam compromissos críveis ao negociar com IAs potencialmente mal-intencionadas. Ao aproveitar o estado imutável e criptograficamente verificável do Ethereum, os laboratórios podem reduzir o risco de honeypotting. Essa abordagem permite que as IAs verifiquem independentemente a autenticidade dos acordos por meio de escrow baseado em marcos e atestações on-chain.

Uma anedota do segundo trimestre de 2026, de um candidato a emprego no setor de cripto, descreve ventos contrários no mercado de contratação, como demissões em nível de equipe, saídas de executivos C-suite no meio do processo e congelamento de contratações desencadeados por uma onda de hacks de protocolo que drenam fundos das empresas.

🤖 CEVIU Fintech

A SpaceX garantiu o direito de adquirir a startup de codificação IA Cursor por US$ 60 bilhões ou, alternativamente, pagar US$ 10 bilhões por uma parceria estratégica, em sua corrida para alcançar os concorrentes em ferramentas de desenvolvimento de IA. O acordo une o assistente de codificação em rápido crescimento da Cursor com a escala de poder computacional da SpaceX e da xAI, sinalizando um esforço para competir com líderes como OpenAI e Anthropic. Isso ressalta o quão cruciais as plataformas de codificação IA se tornaram como infraestrutura central no ecossistema de IA mais amplo.

O CEO da Revolut, Nik Storonsky, afirmou que a empresa planeja um IPO por volta de 2028, priorizando a confiança e a maturidade regulatória como um banco licenciado antes de abrir capital. A fintech, avaliada pela última vez em US$ 75 bilhões, está buscando uma licença bancária nos EUA para obter acesso direto aos payment rails e expandir sua oferta de produtos de crédito e empréstimos. Vendas contínuas de ações secundárias estão ajudando a fornecer liquidez, ao mesmo tempo em que permitem à Revolut adiar a listagem e expandir sua presença bancária global.

A Block está desenvolvendo agentes de IA como o MoneyBot (Cash App) e o ManagerBot (Square) que atuam como interfaces autônomas para tarefas financeiras. Esses agentes utilizam dados e ferramentas internas para executar fluxos de trabalho em áreas como pagamentos, poupança, inventário e operações. Construídos sobre seu framework de agente Goose, esses sistemas estão migrando de interfaces de chat reativas para a execução proativa de tarefas, com o objetivo de se tornarem a principal forma de interação dos usuários com produtos financeiros. Essa estratégia posiciona a Block para dominar a “camada de agente” dos serviços financeiros, onde o controle sobre dados e fluxos de trabalho se transforma em uma vantagem duradoura.

O venture capital em estágio seed está passando por uma mudança estrutural, com as valorizações subindo acentuadamente e os retornos, mesmo nos melhores casos, agora variando entre 50-150x, em vez dos 1.000x anteriores, o que compromete o cálculo tradicional de portfólio. O mercado se dividiu entre empresas de alta qualidade, caras e "must-win" (indispensáveis), e uma longa cauda de apostas de baixa probabilidade, tornando a diversificação menos eficaz. O novo modelo favorece apostas concentradas em empresas de alta convicção e precificação flexível. O sucesso depende cada vez mais da seleção rigorosa, em vez de uma exposição ampla.

A Coinbase está testando agentes de IA integrados em ferramentas como Slack e e-mail que atuam como colegas de equipe virtuais, oferecendo feedback estratégico e contribuição criativa aos funcionários. Esses agentes, modelados a partir de ex-executivos, indicam uma mudança em direção à IA como infraestrutura organizacional, em vez de apenas ferramentas. Em conjunto com o avanço da Coinbase em carteiras agentic e pagamentos autônomos, a empresa está construindo um futuro onde tanto as decisões internas quanto as transações financeiras são cada vez mais orientadas por agentes.

A Xero está implementando uma nova plataforma projetada para automatizar e otimizar os fluxos de trabalho financeiros para pequenas empresas e seus consultores. O sistema integra um assistente de IA que gerencia tarefas como processamento de contas, pagamentos e conciliação, ao mesmo tempo em que oferece insights em tempo real, tudo construído sobre uma rede de dados financeiros profundamente conectada. Ao mudar do registro de dados para a automação orientada à ação, a empresa está se posicionando para redefinir como as operações financeiras e os serviços de consultoria são entregues em escala.

Um acordo proposto para reduzir as taxas de intercâmbio da Visa e Mastercard enfrenta forte oposição de grandes varejistas, como o Walmart, que argumentam que a medida não introduz concorrência real nem reforma estrutural. Embora o acordo inclua reduções modestas de taxas e nova flexibilidade para os comerciantes, os críticos afirmam que ele preserva a dinâmica central que mantém as taxas elevadas e limita o poder de negociação. O desfecho pode influenciar tanto a pressão regulatória quanto futuras legislações sobre a concorrência nas redes de pagamento.

A American Express está adquirindo a startup de IA Hyper para aprofundar sua iniciativa de automatizar fluxos de trabalho de gastos corporativos. A Hyper, apoiada por Sam Altman, CEO da OpenAI, concentra-se em otimizar tarefas de gerenciamento de despesas, como aprovações, verificações de conformidade e relatórios, por meio de IA. A medida destaca como empresas estabelecidas estão incorporando IA diretamente nas operações financeiras para reduzir o trabalho manual e melhorar a eficiência em escala.

A empresa controladora da Kraken está aprofundando sua atuação nos mercados regulamentados de criptoativos com a aquisição planejada da plataforma de derivativos Bitnomial, em um negócio avaliado em até US$ 550 milhões. A medida internaliza uma infraestrutura valiosa licenciada pela CFTC, proporcionando à Payward um caminho mais rápido para oferecer produtos de derivativos compatíveis com a regulamentação dos EUA, como perpetuals e options. Isso também posiciona a empresa para expandir sua oferta B2B, permitindo que fintechs e instituições financeiras se conectem ao trading regulamentado de criptoativos por meio de uma única integração.

🔐 CEVIU TI

A Anthropic está investigando relatos de acesso não autorizado ao seu modelo Mythos, ainda não lançado, através de um ambiente de fornecedor terceirizado. Este incidente é relevante não apenas como uma violação isolada, mas como um alerta de que os controles de acesso a modelos, fornecedores e a governança interna estão se tornando parte da superfície de ataque da segurança corporativa.

Mais de 1.300 servidores Microsoft SharePoint expostos à internet permanecem vulneráveis a uma falha de spoofing, ligada ao Patch Tuesday de abril, mesmo com ataques ativos em andamento. Isso ressalta a latência na aplicação de patches como um dos mais problemáticos riscos operacionais na TI corporativa, especialmente em infraestruturas de colaboração on-premise mais antigas.

Durante o Cloud Next, a Google posicionou os agentes de IA no centro de sua estratégia corporativa, integrando seu tooling a uma iniciativa mais ampla do Gemini Enterprise. Isso foi combinado com novos chips TPU para treinamento e inference. A principal conclusão é que a Google busca agora oferecer um stack completo para a adoção de IA por empresas, incluindo modelos, infraestrutura, governança e deployment.

A integração de IA está alterando as margens brutas de SaaS dos níveis tradicionais de 70-80% para cerca de 52% até 2026. Para manter a avaliação, CFOs devem isolar o Custo dos Produtos Vendidos (COGS) relacionado à IA, alinhar a precificação com o uso variável e fornecer roteiros claros de margem. Monitorar o custo por workflow e por usuário ativo é essencial para escalar produtos de IA de forma lucrativa.

Silobreaker Mimir integra IA baseada em agentes nos fluxos de trabalho de inteligência para acelerar a pesquisa, mantendo a governança e a transparência. A plataforma utiliza material de origem verificável e uma camada de integração baseada em MCP para entregar inteligência baseada em evidências de forma segura para as ferramentas corporativas, garantindo que os tomadores de decisão recebam insights auditáveis e ricos em contexto, alinhados com os requisitos de inteligência prioritários.

A Wiz está expandindo sua plataforma AI-APP com o Red Agent, agora em prévia pública, um novo Technology Intel Center e recursos Wiz Code aprimorados. Essas atualizações fornecem visibilidade em frameworks de IA, garantem a segurança do código gerado por IA e integram a segurança de borda de provedores como Cloudflare e Akamai para mitigar riscos sistêmicos.

Salesforce e Google Cloud anunciaram integrações mais profundas para que agentes de IA possam atuar entre ambas as plataformas, incluindo Slack, serviços Google e fluxos de trabalho Agentforce. Essa parceria é relevante para equipes de TI, pois a ação multi-plataforma intensifica as questões de governança e identidade.

O NVD reduziu significativamente seu escopo de enriquecimento de vulnerabilidades, deixando as equipes de segurança mais expostas à medida que ferramentas de IA, como Claude Mythos, aceleram a descoberta de exploits. Neste cenário, as organizações precisam mudar de uma priorização baseada em CVSS para estratégias proativas, que incluem arquiteturas de serviço stateless, proteção em runtime e uso de inteligência de terceiros, visando mitigar riscos em um ecossistema fragmentado.

👥 CEVIU Dados

A Meta re-arquitetou a busca restrita dos Grupos do Facebook com um stack de retrieval híbrido. Essa nova arquitetura combina a busca lexical de índice invertido Unicorn com um retriever semântico de 12 camadas e 200 milhões de parâmetros, utilizando Faiss ANN sobre embeddings pré-calculados. O sistema inclui pré-processamento de query, rankeamento em nível de features com BM25/TF-IDF mais similaridade de cosseno, e um supermodelo MTML que otimiza conjuntamente cliques, compartilhamentos e comentários. Para escalar a validação, a Meta adicionou um juiz automatizado baseado em Llama 3 no BVT, incluindo uma classe de "parcialmente relevante" para um julgamento mais refinado.

O sistema MIQPS do Pinterest realiza a normalização de URLs, removendo ruídos como parâmetros de rastreamento e diferenças de formatação. O objetivo é mapear diversas variantes de URLs para uma única forma canônica, permitindo que elas sejam agrupadas em categorias de equivalência. O processo inclui salvaguardas para garantir precisão, evitando a fusão inadequada de conteúdos distintos, e opera com ciclos de avaliação contínua para aferir a acurácia e ajustar as regras conforme necessário ao longo do tempo.

O Airbnb desenvolveu um sistema interno de armazenamento de métricas capaz de ingerir aproximadamente 50 milhões de amostras por segundo em cerca de 1,3 bilhão de séries temporais. Isso foi alcançado através da introdução de isolamento rigoroso multi-tenant, incluindo tenancy por serviço e shuffle sharding, além de guardrails em operações de leitura e escrita, visando prevenir que qualquer carga de trabalho individual sobrecarregue o sistema.

Ontologias empresariais globais frequentemente falham ao forçar diferentes contextos de negócio a compartilhar um único modelo denotacional para termos como cliente, produto e localidade. A abordagem proposta, baseada em interface, visa resolver isso, mantendo ontologias ricas e específicas de domínio dentro de cada limite contextual. Ela expõe apenas projeções sensíveis ao contexto através de mecanismos como reificação RDF 1.2, conotações SHACL 1.2, named graphs e SPARQL transforms. Isso possibilita mudanças de significado auditáveis, uma interoperabilidade mais segura entre domínios e uma mistura prática de descoberta de mundo aberto com raciocínio de mundo fechado na camada de interface.

Dados prontos para analytics são projetados para humanos: eles são agregados, estáveis e explicáveis para que dashboards possam responder de forma confiável 'o que aconteceu'. Já os dados prontos para IA são construídos para modelos, visando preservar detalhes brutos, contexto, semântica e atualidade, permitindo que os sistemas inferam 'o que deve acontecer em seguida', enquanto a agregação frequentemente destrói o próprio sinal que a IA necessita.

O ggsql é uma ferramenta, atualmente em fase alpha, que permite aos usuários criar gráficos diretamente em consultas SQL, eliminando a necessidade de alternar para Python ou R. Seu objetivo é tornar a visualização de dados mais rápida, clara e escalável, executando os cálculos dos gráficos no próprio banco de dados, além de facilitar sua geração por ferramentas de IA.

Um novo método de compressão de KV-cache para LLMs substitui o simples token pruning por uma abordagem mais inteligente: ele identifica contextos de baixo valor, os resume matematicamente e armazena uma versão compacta em vez de simplesmente deletá-los. Em testes, essa técnica resultou em maior precisão e menor uso de memória do que os métodos comuns Top-K ou sliding-window, sugerindo que janelas de contexto mais longas podem ser gerenciadas com maior eficiência.

Anthropic, OpenAI e NVIDIA estão enfrentando limites significativos na economia e infraestrutura de IA: problemas de uptime, escassez de capacidade e desenvolvimentos de compute que ficam muito aquém da demanda anunciada. Os serviços Claude da Anthropic registraram um uptime entre 98,79% e 99,25% em 90 dias, enquanto o mercado em geral possui apenas 15,2GW dos 114GW de capacidade prometida para data centers de IA em construção. O aumento dos custos de inference está levando grandes fornecedores como Microsoft e Anthropic a adotar faturamento baseado em token, limites de taxa mais rigorosos e subsídios reduzidos.

A combinação de Cloudflare R2 e R2 Data Catalog torna viável a criação de um Iceberg lake de baixo custo e escalável para uso em notebooks, devido à ausência de taxas de egress, armazenamento compatível com S3 e metadados de catálogo gerenciados para Trino/DuckDB. O desafio da ingestão é abordado no artigo com um proxy HTTP em Rust de aproximadamente 500 linhas de código, que converte dados NDJSON enviados via POST em um único commit atômico no Iceberg.

À medida que a analytics transita da análise centrada em BI e conduzida por humanos para workflows baseados em agentes, a maior disrupção ocorre na camada de 'uso de dados', onde agentes de IA já estão em operação e consultas iniciadas por agentes podem superar as iniciadas por humanos em 12 meses.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser