CEVIU News

CEVIU News — 30 de April de 2026

162 notícias30 de abril de 2026CEVIUCEVIU Web DevCEVIU IA+8
Compartilhar:

📸 CEVIU

A Apple planeja uma reformulação significativa em seus recursos de edição de fotos integrados para iOS, iPadOS e macOS. A empresa está desenvolvendo um novo conjunto de ferramentas alimentadas por IA, visando aumentar sua competitividade frente aos dispositivos Android. Essas ferramentas permitirão aos usuários estender, aprimorar e reenquadrar imagens, utilizando modelos de IA que operam diretamente no dispositivo. Vale ressaltar que o Google já oferece recursos avançados de edição de fotos com IA em seus dispositivos Pixel há anos, e a Samsung também tem investido fortemente em edição de IA com sua linha de smartphones Galaxy.

A diretoria da SpaceX aprovou um plano de remuneração para Elon Musk que vincula seu pagamento diretamente à colonização de Marte e à construção de data centers no espaço sideral. Este pacote de remuneração prevê a concessão de 200 milhões de ações restritas com super voto a Musk, caso a empresa atinja uma avaliação de US$ 7,5 trilhões e contribua para o estabelecimento de um assentamento humano permanente em Marte com pelo menos um milhão de residentes. Adicionalmente, ele receberá mais recompensas se conseguir desenvolver uma infraestrutura de compute espacial capaz de entregar pelo menos 100 terawatts de poder de processamento, demonstrando a escala ambiciosa dos objetivos da empresa.

O SDK do Cursor foi lançado para capacitar desenvolvedores a criar agentes programáticos robustos, utilizando o mesmo runtime, harness e modelos de IA que já impulsionam a plataforma Cursor. Isso significa que você pode acessar e integrar os poderosos agentes que rodam nos aplicativos de desktop, CLI e web do Cursor com poucas linhas de código TypeScript, simplificando significativamente a automação e a inteligência em seus projetos. Uma das grandes vantagens é a flexibilidade: o SDK pode ser executado tanto no seu ambiente local quanto na cloud do Cursor, aproveitando uma máquina virtual dedicada e a capacidade de integrar qualquer modelo frontier. Esta é uma oportunidade única para explorar novas fronteiras na construção de sistemas inteligentes. O SDK do Cursor está agora acessível em beta público para todos os interessados em levar suas aplicações para o próximo nível.

O primeiro caminhão Tesla Semi saiu da nova linha de produção de alto volume da empresa na Gigafactory Nevada. A produção em massa do caminhão elétrico, que sofreu atrasos consideráveis, está agora oficialmente em andamento. A versão de Long Range do Semi tem um custo de US$ 290.000, enquanto a versão padrão custa aproximadamente US$ 260.000, posicionando-o como o trator elétrico de bateria Class 8 com o menor preço disponível no mercado.

Google, Amazon e Microsoft reportaram uma despesa de capital combinada de US$ 112 bilhões no primeiro trimestre. O Google, em particular, agora supera a Microsoft em capex, e essa diferença está se ampliando significativamente. O Bank of America projeta que a emissão de dívida por parte dos hyperscalers atingirá US$ 175 bilhões em 2026, refletindo o investimento massivo. A expectativa é que o hyperscaler que conseguir dominar a camada de modelos de IA será o que apresentará o crescimento mais rápido no setor.

O Venmo está sendo separado em sua própria unidade autônoma. O PayPal enfrenta interesse de aquisição, e o Venmo é considerado o ativo mais valioso e com maior potencial de aquisição da empresa. A separação facilitará o acompanhamento do progresso do Venmo ou a potencial venda do negócio para outra companhia. O PayPal está buscando recrutar um executivo de banco digital para gerenciar o novo segmento do Venmo.

Autoridades governamentais expressaram oposição ao movimento da Anthropic de ampliar o acesso ao seu modelo Mythos. A preocupação principal reside na segurança, além da apreensão de que a Anthropic possa não possuir capacidade computacional suficiente para atender a um número maior de entidades sem comprometer a eficácia do uso dos serviços por parte do próprio governo.

📜 CEVIU Web Dev

A nova API `animation-timeline` do CSS possibilita que desenvolvedores criem animações controladas por scroll diretamente no CSS, substituindo a necessidade de soluções baseadas em JavaScript. Esta API amplia as animações de keyframe já existentes no CSS, associando o progresso da animação à visibilidade de um elemento no viewport ou à posição geral de scroll do documento. Tais animações oferecem controle refinado através de diversas funções de temporização, intervalos precisos como `entry` ou `exit`, e a capacidade de conectar animações entre diferentes elementos, aprimorando a experiência do desenvolvedor e a performance.

À medida que os agentes de IA automatizam a implementação, o valor da engenharia de software está migrando da escrita de código para o exercício do julgamento sobre o que construir e porquê. A engenharia de produto exige agora que os humanos assumam a responsabilidade pelas consequências da implementação e pelo impacto no usuário, tornando a tomada de decisão estratégica a skill mais duradoura para os engenheiros.

O excesso de ferramentas MCP pode sobrecarregar o contexto de agentes de IA, levando a alucinações. Para mitigar isso, há duas abordagens principais: a primeira envolve a redução de ferramentas, seja por meio de filtragem no lado do agente ou pelo projeto de menos ferramentas MCP, mais focadas em casos de uso específicos. A segunda e mais robusta solução é o “modo código”, que capacita o LLM a pesquisar e executar comandos, a escrever código utilizando um SDK gerado e a gerenciar fluxos de trabalho multi-etapas em um ambiente de sandbox.

Mitchell Hashimoto está retirando seu projeto, Ghostty, do GitHub após 18 anos devido a interrupções frequentes que dificultam a colaboração profissional. Embora profundamente apegado à plataforma, ele acredita que sua atual falta de confiabilidade a torna inadequada para trabalho sério até que melhorias significativas sejam implementadas.

Dezoito meses após o lançamento do compilador stable com o React 19, seu verdadeiro impacto é observado na eliminação de bugs, como dependências esquecidas e memorizações ausentes, em vez de grandes ganhos de benchmark. No entanto, a adoção em projetos brownfield é dificultada por bibliotecas legadas que não seguem as Regras do React. Debates abertos persistem sobre se essas Regras deveriam ser um contrato rígido e o risco de 'use no memo' se tornar uma dívida técnica. Os planos futuros incluem um controle mais granular por componente, Server Components cientes do compilador, um `useEvent` stable, paridade com React Native e DevTools aprimorados.

A Mendral conseguiu uma redução de custos significativa ao implementar uma arquitetura multi-agente. Nesta abordagem, um "triador Haiku" de baixo custo é responsável por processar 80% das falhas rotineiras de logs de CI, encaminhando apenas as questões mais complexas para um modelo Opus, considerado um modelo frontier. Esse sistema em camadas permite que o modelo mais caro se concentre em tarefas de orquestração e delegação, enquanto os agentes de menor custo executam as tarefas com maior volume de dados, resultando em operações de LLM consideravelmente mais eficientes.

A Netflix desenvolveu um sistema LLM-as-a-Judge para avaliar sinopses de programas em quatro dimensões de qualidade. O sistema é ancorado em um "golden set" de aproximadamente 600 exemplos rotulados por especialistas, construído através de um rigoroso processo de calibração. Essa abordagem, que emprega "judges" e técnicas como "tiered reasoning" e "consensus scoring", atinge uma precisão de 83% a 92%, permitindo que a equipe identifique e corrija sinopses deficientes semanas antes do lançamento de um programa.

O GitHub Actions emergiu como um ponto crítico de vulnerabilidade na cadeia de suprimentos de código aberto. Suas configurações padrão inseguras são exploradas por atores maliciosos para injetar malware e roubar credenciais. Embora o GitHub proponha correções opcionais, os mantenedores precisam, atualmente, depender de ferramentas de terceiros e de uma configuração rigorosa para mitigar esses riscos de segurança substanciais.

A ascensão dos agentes de IA está redefinindo o papel da documentação no desenvolvimento de software. Tradicionalmente vista como memória organizacional para engenheiros humanos, a documentação agora se transforma em um contexto de execução crucial para máquinas. Diferentemente de profissionais que podem recorrer ao conhecimento institucional não documentado, os agentes de IA operam com uma janela de contexto limitada, esquecendo informações essenciais entre as sessões. Essa carência de uma intenção duradoura faz com que os agentes perpetuem padrões sem uma compreensão aprofundada do raciocínio subjacente. Tal comportamento pode gerar uma "dívida de intenção" e levar a decisões potencialmente incorretas, sublinhando a necessidade de uma documentação explícita e robusta, projetada não apenas para humanos, mas também para garantir a coerência e precisão das operações autônomas.

A Warp abriu o código-fonte de seu cliente com o objetivo de inovar em um workflow focado em agentes, impulsionado por sua plataforma Oz e modelos GPT. Esta iniciativa visa fomentar um desenvolvimento colaborativo e avançar a integração de sistemas autônomos no ambiente de desenvolvimento.

Entrevistas tradicionais em Big Tech, frequentemente centradas em problemas de LeetCode, avaliam de forma imprecisa a capacidade real de um engenheiro de entregar software funcional. O processo de seleção, como o praticado no Postman, deve ser concebido para refletir as demandas da função real, priorizando a relevância prática, o uso de ferramentas modernas (incluindo IA) e a resolução colaborativa de problemas.

A propriedade legal do código gerado por IA é uma questão complexa, pois pode não se qualificar para direitos autorais sem uma autoria humana substancial e pode, inadvertidamente, incorporar material licenciado sob termos open-source. Para mitigar esses riscos, é crucial que os desenvolvedores documentem suas contribuições diligentemente, revisem contratos de trabalho e empreguem ferramentas de licenciamento adequadas, assegurando assim a conformidade e a proteção da propriedade intelectual.

A vulnerabilidade conhecida como "Copy Fail" (CVE-2026-31431) é uma falha crítica presente no kernel Linux desde 2017. Esta brecha de segurança permite que usuários locais sem privilégios escalem para acesso root utilizando um script Python de complexidade baixa. O risco é particularmente elevado em ambientes multi-tenant, como clusters de containers, onde a exploração pode ter amplas repercussões. A mitigação para esta falha exige a aplicação de atualizações do kernel ou a desativação preventiva do módulo `algif_aead`.

OpenAI e AWS estabeleceram uma parceria exclusiva para introduzir os Bedrock Managed Agents, integrando frontier models com a robusta infraestrutura da AWS. O objetivo é simplificar a implementação de agentes de 'co-worker' virtuais para empresas, oferecendo uma nova abordagem ao desenvolvimento de sistemas baseados em agentes. Ambos os CEOs, Sam Altman e Matt Garman, destacam que essa iniciativa representa um novo paradigma em agentic computing, prometendo otimizar a complexidade e reduzir custos operacionais, ao mesmo tempo em que garante a segurança dos dados dos clientes dentro do ambiente AWS.

Análises de desempenho comparando o plugin de compressão de código "Caveman" para Claude com o prompt simples "be brief" revelaram que a instrução de duas palavras igualou o Caveman tanto na redução de tokens quanto na qualidade da saída na maioria das categorias testadas. Enquanto o uso de "be brief" é recomendado para uma redução simples de tokens, o Caveman se mostra ideal para desenvolvedores que necessitam de formatos de saída previsíveis e estruturados, indicando a importância de considerar o contexto de uso para otimização de performance e experiência do desenvolvedor (DX).

Um desenvolvedor realizou um experimento ambicioso ao coletar e tentar instalar simultaneamente as mais de 84.000 extensões disponíveis para Firefox. Durante o processo, foram descobertos alguns achados notáveis, como uma extensão de xadrez de 196 MB, outra que solicitava 3.695 permissões, e uma rede de PUA (Potentially Unwanted Application) com mais de 700 mil usuários que redirecionava buscas para um código de afiliado do Yahoo. Após dez tentativas frustradas, a instalação de todas as extensões foi finalmente bem-sucedida em uma máquina virtual mais robusta. Os resultados de performance foram expressivos: o arquivo Extensions.json atingiu 189 MB, o consumo de memória RAM oscilou entre 27 GB e 37 GB, a página about:addons levou cerca de seis horas para carregar, e o site example.com não chegou a ser renderizado.

A Anthropic está lançando novos conectores para integrar o Claude com softwares criativos populares como Adobe e Blender. Esta iniciativa visa capacitar profissionais a otimizar fluxos de trabalho, acelerar processos de ideação e automatizar tarefas repetitivas, elevando a eficiência em projetos criativos.

Para otimizar a performance e a clareza do código, a prática recomendada é realizar uma única consulta (lookup) em estruturas de map e reutilizar o resultado obtido. Essa abordagem evita chamadas separadas para verificar a existência de uma chave e, em seguida, buscar seu valor, o que contribui significativamente para a eficiência da execução e a legibilidade do código.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser

🤝 CEVIU IA

Em uma entrevista recente, Sam Altman, CEO da OpenAI, e Matt Garman, CEO da AWS, discutiram os Bedrock Managed Agents, impulsionados pela OpenAI, e como isso se encaixaria no acordo da OpenAI com a Microsoft, que concedia à Azure acesso exclusivo aos modelos da OpenAI. Desde então, a Microsoft e a OpenAI alteraram seu acordo para permitir que a OpenAI ofereça seus produtos em outros cloud providers. A exclusividade da Azure estava ativamente prejudicando o investimento da Microsoft na OpenAI, o que levou a Microsoft a tomar medidas, mesmo que isso significasse diminuir a diferenciação da Azure. Além disso, a OpenAI liberou a Microsoft da cláusula de AGI, o que implica que o acordo entre as duas empresas será válido até 2032, mesmo que a OpenAI alcance a AGI antes.

A Anthropic lançou conectores que integram o Claude com softwares criativos importantes como Adobe, Blender e Autodesk, viabilizando fluxos de trabalho baseados em linguagem natural, automação e pipelines de trabalho entre diferentes ferramentas para design, modelagem 3D e produção de áudio.

Fornecer ferramentas de busca básicas a agentes resulta em respostas de melhor qualidade. Incentivar o agente a explorar mais gera melhorias adicionais. Modelos de busca agentic conseguem identificar como apresentar resultados relevantes, contudo, os dados de treinamento continuam a ditar os pontos fortes desses modelos. Modelos de linguagem grandes (LLMs) não conseguem avaliar o que desconhecem, e ainda não há uma maneira efetiva de compensar essa lacuna de conhecimento.

A Anthropic aprimorou a compreensão de inputs do Claude Opus 4.7 com um novo tokenizer. Embora o preço do modelo não tenha sido alterado, os mesmos inputs agora custam mais do que nos modelos anteriores. Os custos aumentaram entre 12% a 27%, exceto para prompts curtos, que, na verdade, se tornaram mais eficientes em termos de custo.

Alega-se que o CFO da OpenAI não se reporta ao CEO e, segundo relatos, tem sido excluído de discussões financeiras sobre a aquisição de servidores. A empresa assumiu enormes obrigações de infraestrutura, mas o CFO e o conselho estão incertos se esses compromissos poderão ser financiados. Esses fatores, somados ao cronograma apertado para o IPO, tornam improvável que a OpenAI consiga abrir seu capital este ano.

O Nemotron 3 Nano Omni da NVIDIA é um novo modelo multimodal projetado para análise de documentos, áudio e vídeo, alcançando precisão de ponta em benchmarks como MMlongbench-Doc e VoiceBench. Sua arquitetura híbrida Mamba-Transformer é integrada com codificadores especializados para visão e áudio, permitindo o processamento eficiente em contextos multimodais extensos. Este modelo aprimora significativamente o throughput e a velocidade de raciocínio para diversas aplicações práticas, incluindo análise de documentos, reconhecimento automático de fala e compreensão de vídeo.

Laguna XS.2 e Laguna M.1 são modelos de codificação baseados em agentes, projetados para tarefas de longo prazo. O Laguna M.1 serve como a base para a família de modelos Laguna, enquanto o Laguna XS.2 é um modelo significativamente menor, mas ainda assim notavelmente capaz para seu tamanho. Ambos os modelos estão disponíveis gratuitamente por tempo limitado via API da Poolside e na plataforma OpenRouter. Os pesos do Laguna XS.2 foram liberados sob uma licença Apache 2.0.

O Recurrent Transformer é uma arquitetura inovadora projetada para superar a profundidade temporal limitada dos Transformers padrão. Ao introduzir recorrência entre as camadas, o modelo utiliza uma combinação de pares chave-valor temporários e persistentes para permitir que cada camada mantenha uma memória interna continuamente atualizada. Este mecanismo capacita o modelo a realizar raciocínio complexo e iterativo em uma sequência sem a necessidade de grandes pilhas de camadas.

As ações de diversas empresas ligadas à OpenAI registraram queda na terça-feira, após a divulgação de que a OpenAI não alcançou suas metas internas de receita e usuários. Investidores expressam preocupação de que o vultoso investimento da OpenAI em IA possa não resultar nos lucros expressivos que muitos antecipam. Críticos da OpenAI apontaram que alguns dos arranjos financeiros da empresa possuem uma natureza circular, onde os parceiros da companhia fornecem financiamento e a própria empresa utiliza esses fundos para despesas com compute junto a esse mesmo parceiro. Em resposta, a OpenAI defendeu sua solidez financeira e assegura que seus líderes estão focados em garantir recursos computacionais.

O novo modelo de IA da Meta, Muse Spark, sinaliza uma mudança em sua estratégia de IA, migrando do open-source para acesso pago, com o objetivo de impulsionar seu negócio de publicidade e competir no crescente mercado de IA. Analistas demonstram otimismo cauteloso, destacando os testes internos e investimentos da Meta, apesar de a empresa ainda estar atrás de players de ponta como o Claude da Anthropic. A redução de força de trabalho da Meta e as contratações estratégicas refletem seu foco intensificado em avanços e infraestrutura de IA.

🐙 CEVIU Segurança da Informação

A falha CVE-2026-3854 (CVSS 8.7) é uma injeção de cabeçalho X-Stat no pipeline interno de git do GitHub, onde o babeld incorporou valores de opção de git push sem sanitizar ponto e vírgulas. Isso permitiu que qualquer usuário autenticado sobrescrevesse campos de segurança através de parsing last-write-wins em um único git push. O encadeamento de injeções de rails_env, custom_hooks_dir e repo_pre_receive_hooks contornou o caminho de pre-receive em sandbox e desencadeou path traversal, possibilitando a execução de binários arbitrários como o usuário de serviço git. Este vetor de ataque resultou em RCE em nós de armazenamento compartilhado do GitHub.com, que hospedam milhões de repositórios multi-inquilino, e no comprometimento completo do GHES <=3.19.1. O GitHub corrigiu o GitHub.com em 6 horas. Administradores do GHES devem atualizar para 3.14.24, 3.15.19, 3.16.15, 3.17.12, 3.18.6 ou 3.19.3 imediatamente, visto que 88% das instâncias permanecem vulneráveis.

O FinBot é um CTF de Segurança Agentic interativo, descrito como o "Juice Shop para IA Agentic", que simula uma plataforma de gestão de fornecedores multi-agente. Ele apresenta onboarding autônomo, detecção de fraude, processamento de faturas e comunicações, tudo impulsionado por LLMs com acesso a ferramentas reais. Os desafios abrangem prompt injection, mau uso de ferramentas, bypass de políticas, exfiltração de dados, escalada de privilégios e RCE. O FinBot inclui mapeamentos para o OWASP Top 10 para LLM Applications, OWASP Top 10 para Agentic Applications, CWE e MITRE ATLAS. A plataforma também permite configurar servidores de ferramentas MCP para demonstrar ataques de supply chain via descrições de ferramentas adulteradas e vazamento de contexto entre tenants. Apresentado na RSAC 2026 e no AppSec Village, o FinBot é baseado em navegador e construído pela comunidade, oferecendo a desenvolvedores e defensores um ambiente em tempo real para exercitar o framework abstrato do Agentic Top 10.

Pesquisadores identificaram uma nova vulnerabilidade nos navegadores Firefox e Tor que poderia permitir que sites rastreassem usuários. A falha decorre do IndexedDB retornar entidades em uma ordem fixa, o que poderia ser usado para construir um identificador de usuário único. Esse comportamento persiste mesmo no modo de Navegação Privada até que o processo do Firefox seja encerrado e, no navegador Tor, mesmo após o uso do recurso Nova Identidade.

Após um suposto vazamento de 300 mil registros da plataforma de mercados de previsões Polymarket, a empresa argumentou que os dados já estavam publicamente on-chain. Os dados incluem informações da plataforma, juntamente com cerca de 10 mil perfis de usuários e metadados associados. O atacante afirmou ter roubado os dados explorando vulnerabilidades na infraestrutura de API da Polymarket.

A Expel rastreou o HexagonalRodent (Expel-TA-0001), um subgrupo da Coreia do Norte, avaliado com confiança média-alta como parte do Famous Chollima, que realiza engenharia social contra desenvolvedores Web3 por meio de abordagens falsas de recrutadores e anúncios de emprego de empresas de fachada. O grupo envia avaliações de código com backdoor que executam BeaverTail e OtterCookie (NodeJS), além de InvisibleFerret (Python), explorando o arquivo tasks.json do VSCode com runOn:"folderOpen" ou por execução em runtime. Isso resultou na exfiltração de 26.584 carteiras, totalizando até US$ 12 milhões, de 2.726 sistemas de desenvolvedores no 1º trimestre de 2026. O toolkit do grupo se mistura à atividade legítima de desenvolvedores através de obfuscator.io e interpretadores Node/Python, os quais os EDRs inspecionam de forma deficiente. Utiliza um C2 persistente via WebSocket para servidores como 195.201.104[.]53 (ligado ao comprometimento da cadeia de suprimentos de extensão VSX de rascunho rápido) e conta com forte assistência de GenAI de Cursor e ChatGPT para loaders codificados para parecerem legítimos, painéis de keylogger e sites de empresas de fachada gerados por IA, construídos com Anima. Defensores devem procurar por processos Node ou Python mantendo sessões TCP persistentes para IPs suspeitos (netstat -an | grep 195.201.104.53), abrir avaliações de código apenas em VMs descartáveis com a confiança de workspace do VSCode aplicada e tarefas automáticas desativadas, auditar qualquer tasks.json enviado e exigir tokens de segurança de hardware para carteiras de cripto de alto valor para neutralizar a exfiltração de credenciais.

O pesquisador do Synack Red Team, Mustafa Bilgici, detalha três descobertas reais de bug bounty contra alvos bancários e de fintech que exploram falhas de confiança entre serviços. Um exemplo foi um SSRF em um proxy de download de PDF que permitiu path traversal em múltiplos subdomínios internos extractinternal.*.corp para recuperar extratos de outros usuários, devido à ausência de verificação de propriedade no identificador do documento. Outra falha encontrada foi em um escopo JWT, onde o microservice de e-commerce de um super-aplicativo bancário aceitava qualquer valor de código de autorização fornecido pelo atacante durante a troca de token, porque o serviço downstream confiava no JWT upstream sem verificar sua origem. Um terceiro caso envolveu um parâmetro proxytohost em um endpoint de consentimento GDPR, que permitiu a atacantes externos pivotarem para hosts internos ativos (172.21.69.9/10/153) e obter conteúdo de um portal de intranet. A cadeia de ataque recorrente é a confiança implícita entre serviços: APIs internas acessíveis via proxies públicos, tokens reutilizados entre limites sem vinculação de escopo e códigos de autorização aceitos sem validação de sujeito. Para mitigar, defensores devem impor verificações de autorização por requisição em cada microservice (e não apenas no gateway), vincular tokens à identidade do usuário e a claims de audiência com validação estrita de aud/sub no downstream, permitir apenas destinos de proxy internos configurados (allow-list) em vez de aceitar parâmetros de host de clientes, e mudar o foco dos testes do perímetro para os caminhos de comunicação leste-oeste entre serviços e fluxos de troca de token.

A Sysdig observou tentativas de exploração em seu ambiente de honeypot dentro de 12 horas e meia após a publicação de uma vulnerabilidade SSRF no toolkit de serving de LLM de visão e texto LMDeploy. Naquele momento, não existia um exploit de proof-of-concept público, mas a divulgação da vulnerabilidade era detalhada o suficiente para que um LLM fosse capaz de weaponizá-la. A Sysdig alerta que isso está se tornando o padrão e que os defensores precisarão assumir que qualquer vulnerabilidade publicada com informações substanciais será explorada quase que instantaneamente.

O balanço do Cloudflare Radar para o 1º trimestre de 2026 documentou blecautes prolongados, direcionados por governos, em Uganda (13 a 26 de janeiro, próximo à eleição de Museveni) e no Irã (duas paralisações nacionais a partir de 8 de janeiro e 28 de fevereiro, esta última ainda em grande parte em vigor via whitelisting e filtragem por "white SIM" em vez de retirada de rotas), além de uma paralisação eleitoral na República do Congo em 15 de março. Ataques de drones danificaram fisicamente data centers da AWS nas regiões me-central-1 (EAU) e me-south-1 (Bahrein) em 1º-2 de março e novamente em 23 de março, causando falhas elevadas de conexão de origem e levando a Amazon a aconselhar clientes a migrarem workloads ou fazerem backup de dados. Paralelamente, ataques russos de mísseis e drones contra a infraestrutura de energia ucraniana cortaram a conectividade em Dnipropetrovsk e Kharkiv em cerca de 50%. A rede elétrica nacional de Cuba colapsou três vezes em março (4, 16 e entre 21 e 22, com o tráfego caindo até 77%), e interrupções adicionais afetaram Paraguai, República Dominicana, Ilhas Virgens Americanas, Portugal (Tempestade Kristin), o cabo submarino WACS que atende o Congo, Verizon Wireless, Orange Guinée e TalkTalk.

Em um período de mais de seis semanas, a Checkmarx foi primeiro atingida pela vulnerabilidade de supply-chain do Trivy, seguida por repetidas invasões do GitHub que disseminaram malware para seus usuários e imagens Docker. Finalmente, sofreu um vazamento de dados de repositórios privados por ransomware Lapsu$. O pacote npm da CLI do Bitwarden foi brevemente comprometido com um backdoor utilizando a mesma infraestrutura TeamPCP, o que demonstra que os atacantes estão explorando as próprias ferramentas de segurança tanto como alvo quanto como canal de distribuição para o roubo de credenciais.

Em menos de 36 horas após a divulgação pública, atacantes exploraram a CVE-2026-42208, uma vulnerabilidade de injeção SQL de pré-autenticação na verificação de chaves de API do proxy do LiteLLM. A exploração permitiu consultar tabelas de credenciais e configuração que continham chaves de serviços como OpenAI, Anthropic e AWS Bedrock.

📉 CEVIU DevOps

O GitHub afirma que as recentes interrupções foram causadas pelo rápido crescimento no desenvolvimento orientado por IA, o que levou a plataforma além de seus limites atuais de escalabilidade. A empresa está priorizando a confiabilidade ao expandir a capacidade, isolar sistemas críticos e reduzir pontos únicos de falha para lidar com o aumento.

Agentes de IA automatizam tarefas de desenvolvimento e negócios, mas introduzem novos riscos como prompt injection, escalonamento de privilégios e falhas em cascata que expandem as superfícies de ataque, gerando preocupação do NIST. A mitigação eficaz exige controles em camadas que abranjam o design do modelo, as permissões do sistema e a supervisão humana para garantir uma implantação segura.

A DigitalOcean anunciou a general availability do DeepSeek V3.2, MiniMax-M2.5 e Qwen 3.5 397B em sua plataforma Serverless Inference. A plataforma alcançou as velocidades de output mais rápidas entre todos os provedores testados, com o DeepSeek V3.2 entregando 230 tokens por segundo e tempo para o primeiro token em menos de 1 segundo para 10.000 tokens de input. Esse desempenho notável foi obtido com o uso de GPUs NVIDIA HGX B300, que contam com 288GB de memória. As otimizações incluíram a aplicação da quantization NVFP4, que resultou em uma redução de 1.8x na pegada de memória, e ajustes customizados ao framework de serving vLLM, realizados em colaboração com a Inferact.

O Kubernetes v1.36 promoveu para beta a capacidade de modificar requisições de CPU, memória, GPU e outros recursos em templates de pod de Jobs suspensos. Essa funcionalidade elimina a necessidade de deletar e recriar Jobs quando os requisitos de recursos mudam. Habilitada por padrão, ela permite que controladores de fila e administradores ajustem os recursos antes que os Jobs comecem a ser executados, sendo particularmente útil para workloads de batch e machine learning, onde a alocação ideal depende das condições atuais do cluster.

Este post descreve a experiência de IA SRE em evolução da incident.io, que automatiza a investigação, o debugging e a resolução de incidentes em um workflow unificado. Isso reduz a troca de contexto ao integrar Slack, ferramentas de codificação e atualizações, possibilitando diagnóstico rápido, correções e relatórios com esforço manual mínimo.

O GitHub mitiga dependências circulares de deployment, onde interrupções podem bloquear sua própria recuperação, ao usar eBPF para monitorar e restringir o acesso à rede de scripts de deployment e detectar dependências ocultas, diretas e transitórias. Isso permite controle por processo, interceptação de DNS e auditoria em tempo real de chamadas arriscadas, como o uso da API do GitHub durante a recuperação de incidentes.

Este artigo demonstra como construir uma plataforma Kubernetes multi-cluster escalável no OpenStack, utilizando k0s, k0rdent e Hosted Control Planes (HCP). Essa abordagem elimina a necessidade de control planes dedicados de 3 nós por cluster, centralizando-os em um único cluster de gerenciamento. A arquitetura proposta transforma a gestão de clusters individuais em um sistema declarativo que orquestra o provisionamento, a escalabilidade e os upgrades em frotas inteiras, resultando em uma significativa redução nos custos de infraestrutura e na complexidade operacional.

Mitchell Hashimoto, cofundador da HashiCorp, anunciou a mudança do projeto Ghostty para fora do GitHub após 18 anos de profundo apego pessoal e profissional, citando crescente frustração e decepção com a plataforma.

🎮 CEVIU Design

Sob nova liderança, o Xbox está redefinindo sua estratégia para ser "acessível, pessoal e aberta", tendo jogadores ativos diários como sua estrela-guia e expandindo-se para console, PC, mobile e nuvem. A CEO Asha Sharma e o chefe do Xbox Game Studios, Matt Booty, reconheceram falhas em áreas como precificação, presença no PC e recursos centrais da plataforma. Ao mesmo tempo, apontam custos de desenvolvimento crescentes e a concorrência indie como desafios crescentes. Exclusividade, "windowing" e IA também estão sob revisão. A marca Microsoft Gaming está sendo descontinuada em favor do nome Xbox.

O Pedometer++ 8.0 foca em uma reformulação completa do seu aplicativo para Apple Watch, introduzindo uma interface mais ousada e colorida que destaca métricas diárias importantes como passos, distância e andares subidos com clareza aprimorada. Uma parte importante dessa reformulação é o novo seletor de treinos, projetado com alvos de toque maiores e navegação mais simples. O objetivo é tornar o início de atividades mais rápido e intuitivo, especialmente para usuários frustrados com o aplicativo nativo Treino da Apple. Embora a atualização também adicione o Modo Expedição para uma melhor duração da bateria, o foco principal é tornar o aplicativo mais envolvente visualmente, mais fácil de usar e mais adequado para interações rápidas em movimento.

A Lovable lançou um aplicativo de vibe-coding para iOS e Android que permite aos usuários criar sites e web apps por meio de prompts de voz ou texto alimentados por IA, com transição fluida entre fluxos de trabalho móveis e desktop. O lançamento segue a recente restrição da Apple a aplicativos de vibe-coding como Replit e Vibecode, que foram obrigados a parar de executar apps gerados diretamente em seus aplicativos móveis devido às regras de segurança da App Store. Para se adequar, a Lovable parece ter movido as prévias para a web.

A Anthropic lançou novos conectores para seu chatbot de IA Claude, permitindo que ele se integre a ferramentas criativas importantes como Adobe Creative Cloud, Blender, Ableton Live e outras. Esses conectores possibilitam que Claude acesse dados, auxilie em tarefas e interaja diretamente dentro dessas aplicações, com o objetivo de otimizar fluxos de trabalho criativos e diminuir atividades repetitivas. A iniciativa reforça a entrada da Anthropic na indústria criativa, posicionando Claude como uma ferramenta para aceleração da ideação e expansão de capacidades, e não como um substituto para a criatividade humana.

O Snapchat está lançando os "AI Sponsored Snaps", um novo formato de anúncio que permite aos usuários conversar diretamente com agentes de IA de marcas dentro da aba Chat do aplicativo. Isso possibilita fazer perguntas, obter recomendações de produtos e interagir com anúncios de forma conversacional. A empresa afirma que o recurso se baseia no sucesso dos Sponsored Snaps, que já geram conversões mais altas a custos menores. Isso reflete a crença da Snap de que as interações baseadas em chat estão se tornando uma parte importante da publicidade digital, à medida que os usuários se engajam cada vez mais com mensagens e conversas com IA dentro do aplicativo.

Freepik foi renomeada para Magnific, unificando seus ativos de stock, upscaling de IA e outras ferramentas criativas em uma única plataforma. A empresa bootstrapped alcançou US$ 230 milhões em receita recorrente anual (ARR), com mais de um milhão de assinantes pagantes e 250 clientes empresariais, incluindo BBC, Puma e Amazon Prime Video. Desde sua fundação em 2010, o CEO Joaquín Cuenca construiu esta lucrativa plataforma criativa de IA sem qualquer investimento de venture capital.

A estratégia de UX da Apple vai além do minimalismo estético, configurando um sistema comportamental baseado em cinco princípios interligados: usabilidade, comunicação, funcionalidade, estética e design emocional. Juntos, esses elementos eliminam o atrito e orientam os usuários a tomar decisões com confiança. As páginas de produto são estruturadas como narrativas que distribuem o esforço cognitivo de forma progressiva. Assim, no momento em que os usuários chegam à chamada para ação, a compra se apresenta como uma conclusão natural, e não uma escolha forçada. Essa abordagem é creditada por impulsionar taxas de conversão de 5–10%, significativamente acima da média de 2–3% do e-commerce.

Usuários inteligentes frequentemente oferecem soluções convincentes, mas equivocadas, pois são treinados para sempre ter respostas, especialmente executivos com experiência em consultoria ou finanças. A pesquisa com usuários deve focar na compreensão das necessidades subjacentes, em vez dos desejos declarados – quando alguém diz que quer sorvete, na verdade precisa se refrescar, o que abre muitas outras possibilidades de solução. Apenas a análise de dados não pode proteger as equipes de uma má pesquisa com usuários, já que os mesmos problemas que afetam as entrevistas também impactam a interpretação das métricas.

Design não se trata de produzir entregas, mas de compreender profundamente um problema e alcançar um bom encaixe entre forma e contexto. Ferramentas (incluindo IA) podem gerar resultados rapidamente, mas não substituem o raciocínio necessário para resolver complexidades subjacentes. A dependência excessiva da IA corre o risco de criar produtos polidos, mas frágeis, porque o verdadeiro valor do design provém do processo lento e iterativo que esclarece a compreensão – não apenas do produto final.

A Adobe apresentou sete protótipos experimentais de IA em seu evento anual Sneaks, sendo que, historicamente, apenas 30-40% deles chegam à produção. Entre os destaques, o Project Face Off, vencedor da audiência, simula testes A/B criando personas de usuário sintéticas que preveem quais variações criativas terão melhor desempenho em segundos, em vez de semanas. Outra inovação, o Project Test Kitchen, reimagina a geração de imagens por IA como um espaço de trabalho colaborativo, permitindo que múltiplos designers trabalhem juntos sem criar desorganização.

A IA pode analisar vídeos de testes de usabilidade amostrando quadros, transcrevendo áudio e gerando descrições plausíveis do comportamento do usuário. No entanto, este processo é "lossy" e propenso à inconsistência. Em um teste com uma sessão de usabilidade de seis minutos do OpenTable, o ChatGPT identificou sete problemas específicos, como um campo de busca que descartava seleções de culinária ao mudar a localização e resultados que exibiam restaurantes não relacionados a sushi. A precisão, confiabilidade e o alignment desses achados com o que pesquisadores humanos identificariam permanecem uma questão em aberto para pesquisas futuras.

Pontos no design de ícones geralmente devem ser um pouco maiores que a espessura do traço para parecerem visualmente equilibrados, pois combiná-los exatamente muitas vezes os faz parecer pequenos demais. Esse ajuste óptico – comum no design de tipografia – pode ser aplicado em todos os ícones, com flexibilidade para variar o tamanho ou até mesmo a forma do ponto, dependendo do contexto e da ênfase. Diferentes elementos dentro de um conjunto de ícones podem exigir tamanhos de ponto distintos para parecerem corretos, especialmente quando os pontos são um recurso principal, reforçando que o equilíbrio visual importa mais do que a consistência geométrica estrita.

Designers podem competir com sucesso com a IA ao se reposicionarem como diretores estratégicos, que sabem quando usar ferramentas de IA e quando a expertise humana é essencial. Enquanto os clientes recorrem à IA para velocidade, custo e conveniência em tarefas rotineiras, eles ainda precisam de designers humanos para o pensamento estratégico, para compreender nuances e para criar propostas de valor convincentes. A chave é mudar o foco de ser apenas um executor para demonstrar como a expertise humana oferece um valor de investimento a longo prazo que a IA não consegue replicar.

A identidade visual dos Jogos Olímpicos de LA 2028 adota um sistema ousado, centrado na tipografia, para refletir a diversidade de Los Angeles. Em vez de um único logo fixo, a marca foi construída com uma identidade flexível que utiliza múltiplas versões da letra “A” como base. Essa abordagem se inspira na sinalização de rua e na cultura visual da cidade, elevando a tipografia ao papel de expressão central da marca. Ao equilibrar uma estrutura clara com espaço para variação, o sistema consegue capturar diversas vozes, mantendo a coesão e demonstrando como o design pode, simultaneamente, representar e incorporar a identidade cultural de uma cidade.

🎭 CEVIU Marketing

As versões gratuita e paga do ChatGPT operam como sistemas distintos, o que pode fazer com que sua marca apareça com respostas conflitantes dependendo do nível de acesso do usuário. Em um teste, a versão gratuita ignorou resultados de busca reais e inventou uma previsão de 90 a 91 graus, enquanto a versão paga utilizou uma ferramenta de dados estruturados para retornar um resultado preciso de 68 graus. Isso gera um problema de direcionamento, já que compradores B2B frequentemente usam ferramentas pagas, enquanto consumidores dependem das gratuitas, indicando que sua presença eficaz em IA depende da composição do seu público. Audite ambos os níveis executando prompts idênticos e comparando as saídas para mapear a verdadeira superfície de exposição. A mensuração precisa se alinhar com o nível que seu ICP (Ideal Customer Profile) utiliza, ou os relatórios refletirão uma versão da realidade que seus clientes jamais verão.

O Exército de Salvação implementou uma campanha de varejo inovadora, divulgando itens de segunda mão únicos que já haviam sido vendidos, em vez de estoque disponível. A estratégia aproveitou a escassez e o medo de perder (FOMO) para incentivar visitas às lojas. A IA Gemini analisou milhares de fotos de produtos do inventário nacional, enquanto o gerador de imagens Nano Banana converteu imagens básicas de estoque em criações de qualidade editorial. A campanha hiperlocal visou códigos postais específicos próximos às lojas, utilizando o Google Demand Gen para veicular conteúdo visual personalizado no YouTube, Discover, Gmail e na Rede de Display. Nos primeiros 30 dias, a iniciativa alcançou um custo de $11 por visita à loja, superando o benchmark da indústria em 138%, com mais de 58% dos cliques resultando em buscas dentro das lojas.

"Frictionmaxxing" é a tendência de reintroduzir inconveniências intencionais em uma vida digital excessivamente fluida, opondo-se a uma internet sem fricção onde salvar, rolar e consumir acontecem automaticamente. Esse conceito ressalta o impulso de coletar fragmentos online — de memes a vídeos e referências estéticas —, a maioria dos quais nunca é revisitada. Essa acumulação transforma os usuários em arquivistas informais, moldados por algoritmos e sobrecarga. Isso levanta questões profundas sobre a identidade pessoal em um sistema digital que incentiva o ato de salvar sem, de fato, gerar um retorno ou uso posterior.

O fundador da Valley observou um aumento em chamadas de vendas de alta conversão, orientadas por IA, após implementar duas mudanças simples em seu site. A primeira foi a inclusão de um arquivo llms.txt, que fornece aos LLMs um resumo claro e estruturado do produto, seu público-alvo e as principais informações. A segunda envolveu a sincronização de transcrições de chamadas de vendas em um workflow de AEO, transformando perguntas e respostas reais de prospects em conteúdo de blog e FAQs altamente direcionados.

O sistema COSMO da Amazon aborda uma limitação fundamental na busca de produtos ao ensinar os motores de recomendação o porquê as pessoas compram, e não apenas o que elas compram. A equipe alimentou milhões de pares de comportamento de compra em LLMs e então construiu um pipeline multiestágio para filtrar cerca de 65% a 91% das saídas que eram circulares, genéricas ou trivialmente óbvias. Um modelo menor, ajustado por instruções e chamado COSMO-LM, gera agora conhecimento de senso comum fresco em tempo real, com uma fração do custo de inference original. Testes A/B mostraram um aumento de 0,7% nas vendas de produtos e um crescimento de 8% no engajamento de navegação em apenas 10% do tráfego dos EUA. A Amazon projeta bilhões em receita potencial se a solução for estendida para todo o tráfego.

O cenário atual das relações públicas (RP) está saturado por conteúdo genérico e intensivo em IA, que inunda as caixas de entrada dos jornalistas. Para conseguir cobertura, é crucial ser humano, original e altamente direcionado. Repórteres conseguem identificar pitches gerados por IA instantaneamente, notando peculiaridades de formatação e uma qualidade geralmente inferior. A escala industrial do contato automatizado sobrecarrega suas caixas de entrada. Pitches curtos e diretos, que apresentam uma ideia clara ou um especialista genuíno, são mais eficazes por parecerem autênticos e por respeitarem o tempo do jornalista. Para obter visibilidade na mídia, é fundamental oferecer informações genuinamente novas, pois qualquer dado facilmente encontrado em uma busca no Google não tem valor como notícia. Estratégias de RP bem-sucedidas incluem um estudo aprofundado das publicações, o agendamento de contatos para ciclos de notícias mais lentos, como fins de semana, e a estruturação de ideias como histórias relevantes para o consumidor que se alinhem com as táticas modernas de geração de tráfego dos veículos de comunicação.

A IA pode agora produzir conteúdo SEO pronto para publicação em 6 a 12 minutos, ao espelhar um workflow editorial comprovado e usar um encadeamento estruturado de skills. A estratégia consiste em dividir a criação de conteúdo em etapas modulares, gerar a saída de cada fase para debugging e aprimorar continuamente por meio de casos de teste que refinam prompts e workflows. A qualidade é alcançada ao fundamentar as saídas em fontes de dados reais, como Ahrefs e análise de concorrência, em vez de depender de geração genérica. Antecipar a direção de especialistas reduz o tempo de edição e mantém o conteúdo alinhado com os objetivos de negócios e a mensagem do produto. O sistema prioriza a atualização de conteúdo evergreen de alto valor em vez de escalar o volume, o que mantém um desempenho forte sem sacrificar a qualidade.

A era dos "guias definitivos" está perdendo força, pois tanto as buscas quanto a IA privilegiam a utilidade focada em detrimento do conteúdo tudo-em-um. Sites de sucesso tendem a oferecer produtos ou serviços claros e construir uma forte demanda de marca, enquanto páginas de alta utilidade superam as informativas genéricas. Em sistemas de IA, páginas que correspondem precisamente a uma consulta específica são mais propensas a serem citadas, enquanto a cobertura exaustiva pode ter um desempenho inferior. Em ambos os cenários, a mudança aponta para um conteúdo específico, difícil de substituir e construído em torno de um valor distinto, em vez de uma cobertura abrangente.

🤔 CEVIU Cripto

Regan Bozman (Lattice Fund) aborda o ceticismo em torno da capacidade das stablecoins de zerar os custos de remessa, reformulando a questão. Ele aponta que o on-ramp/off-ramp para stablecoins locais será rápido e gratuito na maioria dos países do G10 Ocidental em 1 a 2 anos. No entanto, o avanço mais significativo reside na mudança do comportamento do consumidor, que passaria a manter USD e converter para a moeda local apenas no momento do gasto, em vez de fazê-lo ao receber os fundos. A discussão (thread) responde à crítica válida de que as stablecoins resolvem apenas a perna de movimentação de dinheiro – que, por si só, já é barata. Argumenta-se que a conversão de última milha e o saque em dinheiro continuam caros, mas a verdadeira limitação não está na infraestrutura de trilhos, e sim na iminente mudança comportamental e infraestrutural necessária para superar esse gargalo.

A Stable Sea integrou o fundo de mercado monetário de Títulos do Tesouro tokenizados da WisdomTree para oferecer às empresas acesso a Títulos do Tesouro dos EUA tokenizados e com rendimento, alavancando a infraestrutura de distribuição B2B e B2B2C da WisdomTree Connect. O fundo tokenizado da WisdomTree, que recentemente recebeu isenção regulatória da SEC para negociação 24 horas por dia, 7 dias por semana, com um NAV estável de $1 e liquidação instantânea via blockchain, agora representa mais de US$ 772 milhões em implementações multi-chain.

Franklin é um framework open-source para agentes de IA que provisiona cada agente com uma carteira USDC autogerada. Este sistema substitui chaves de API e assinaturas por micropagamentos x402 liquidados por chamada, abrangendo mais de 55 modelos, geração de imagens, busca na web e ferramentas de dados de trading. Um smart router integrado direciona os prompts para o modelo mais barato capaz e escala para frontier models apenas quando necessário, resultando em uma redução de custos de 60-80% em comparação com o uso constante de modelos de ponta. O projeto conceitua a IA baseada em assinatura como uma estrutura transitória, onde usuários intensivos são limitados e usuários leves os subsidiam, defendendo que agentes baseados em carteira e pago por uso permitem que os provedores sirvam tarefas completas sem racionamento.

O Machine Payments Protocol (MPP), um padrão agnóstico a métodos de pagamento e moedas, com mais de 10 métodos de pagamento ativos abrangendo stablecoins em todas as redes EVM, cartões e Bitcoin, lançou uma atualização significativa em sua especificação de descoberta. Essa atualização permite que servidores declarem todas as ofertas de pagamento antecipadamente em um único documento de descoberta, eliminando a necessidade de clientes acessarem endpoints e analisarem 402 Challenges individualmente. A atualização possibilita que serviços que aceitam múltiplos métodos, moedas e tipos de intenção no mesmo endpoint anunciem tudo de imediato, facilitando para registros e agentes de IA encontrarem opções de pagamento compatíveis sem sondagem dinâmica. Trata-se de uma melhoria de infraestrutura para o stack de pagamentos máquina-a-máquina, que se alinha a soluções como o x402 da Coinbase e o kit ACE da Amex.

Ambas Robinhood e Hyperliquid registraram quedas sequenciais na receita de trading de cripto no primeiro trimestre. Robinhood reportou uma queda de 39,4% na comparação trimestral, totalizando US$ 134 milhões, enquanto Hyperliquid viu sua receita cair 31,0% no mesmo período, atingindo US$ 179,7 milhões. Notavelmente, o volume total da Hyperliquid superou o da Robinhood, apesar de ser um protocolo DeFi. A Hyperliquid demonstrou resiliência com sua receita de RWA (ativos do mundo real) subindo 454,8% na comparação trimestral, representando mais de 30% dos volumes. O crescimento de usuários da plataforma também foi robusto, com um aumento de 29,6% na comparação trimestral, alcançando 1,19 milhão de usuários, em contraste com o ganho de cerca de 1,5% de clientes financiados da Robinhood. Com US$ 192,3 milhões em receita de protocolo no primeiro trimestre e um market cap circulante de US$ 9,5 bilhões, a Hyperliquid é negociada com um desconto considerável em relação à avaliação de US$ 74 bilhões da Robinhood, que reportou US$ 346 milhões em lucro líquido. Essa lacuna torna-se mais desafiadora de manter à medida que a diversificação em RWA e os resultados binários do HIP-4 diminuem a dependência da Hyperliquid do volume puro de trading de cripto.

Três padrões EVM estão convergindo para trilhos financeiros permissionless para agentes de IA: x402 (micropagamentos baseados em HTTP 402 com mais de 50 milhões de transações desde seu lançamento em maio de 2025), ERC-8004 (identidade e reputação on-chain com aproximadamente 98 mil registros de agentes em mais de 10 chains), e ERC-8183 (uma primitiva de job/escrow codesenvolvida pela Virtuals e pela equipe dAI da Ethereum Foundation). Base gerencia a maioria do volume de x402, e ERC-8211 estende o stack com execução dinâmica para estratégias DeFi multi-etapas. A infraestrutura TradFi está mirando o mesmo problema pelo lado off-chain, com a CLI de cartão para agente da Visa e o Machine Payments Protocol da Stripe/Tempo, apoiados por Anthropic, OpenAI, DoorDash e Shopify como parceiros de lançamento, enquanto desafios não resolvidos em torno de prompt injection, vazamento de dados RPC e visibilidade de transações on-chain permanecem vetores de risco ativos para o setor.

Mercados de previsão, embora promovidos como oportunidades de renda acessíveis, direcionam a maior parte dos lucros para traders de alta frequência (HFT) e formadores de mercado sofisticados, em detrimento dos participantes de varejo. O setor gerou aproximadamente US$ 51 bilhões em volume em 2025 e está a caminho de US$ 240 bilhões em 2026. No entanto, a distribuição desigual dos lucros reflete as dinâmicas observadas nos mercados de ações tradicionais, onde as empresas de HFT capturam retornos desproporcionais do fluxo de ordens de varejo.

Pump.fun queimou aproximadamente US$ 370 milhões em tokens $PUMP, eliminando cerca de 36% do suprimento em circulação. A plataforma também lançou um programa programático de recompra e queima que destinará 50% da receita do protocolo para queimas contínuas durante o próximo ano.

📈 CEVIU Fintech

A Robinhood está apresentando um desempenho financeiro mais forte, impulsionado por novas fontes de receita, como apostas baseadas em eventos e assinaturas premium, que começam a compensar a atividade de negociação mais fraca. A receita de assinaturas do seu nível Gold aumentou 32%, enquanto a receita geral cresceu 15%, ajudando a amortecer as quedas na negociação de cripto, que diminuiu acentuadamente em comparação com o ano anterior. O movimento mais amplo da empresa em direção a produtos financeiros diversificados sinaliza uma mudança para um modelo mais resiliente, embora sua dependência do engajamento de clientes de varejo ainda a exponha às flutuações do mercado.

A Mercury garantiu aprovação condicional do Office of the Comptroller of the Currency (OCC) para lançar seu próprio banco nacional, marcando um passo importante para ter controle sobre sua infraestrutura financeira. Essa medida permite que a fintech focada em startups expanda para serviços de empréstimos, pagamentos e funcionalidades como o Zelle, ao mesmo tempo em que reduz a dependência de bancos parceiros. Contudo, ainda são necessárias aprovações finais de reguladores, incluindo o FDIC e o Federal Reserve. Se concretizada, a licença posiciona a Mercury para competir mais diretamente com bancos digitais full-stack, sinalizando uma tendência mais ampla de fintechs que buscam maior controle sobre sua economia e seu product stack.

A Hyperliquid está entrando nos mercados de previsão, aproveitando sua plataforma de negociação multi-ativos de alto volume para competir com players estabelecidos como Kalshi e Polymarket. Sua abordagem integra contratos baseados em eventos juntamente com criptoativos, commodities e ações dentro de um único sistema de negociação, oferecendo distribuição imediata e estratégias de nível de portfólio. Essa iniciativa destaca uma convergência crescente entre os mercados de derivativos e de previsão, com a concorrência se intensificando tanto em plataformas regulamentadas quanto em descentralizadas.

As stablecoins escalam rapidamente, com mais de US$ 33 trilhões em volume de transações anuais e US$ 300 bilhões em circulação, consolidando-as como uma camada de pagamento fundamental para a internet. A Coinbase se posiciona como provedora de infraestrutura full-stack, combinando a distribuição de USDC, sua rede Base e ferramentas para desenvolvedores para impulsionar pagamentos globais e programáveis para empresas e agentes de IA. Com o crescimento das transações orientadas por IA e a integração dos trilhos cripto pelas finanças tradicionais, a próxima fase muda da adoção para onde e como as stablecoins são realmente usadas em escala.

Fintechs como Revolut, Nubank e Mastercard estão desenvolvendo modelos de fundação específicos de domínio, treinados em vastos conjuntos de dados de transações, entregando ganhos significativos de desempenho em score de crédito, detecção de fraude e personalização. Esses modelos consolidam múltiplos sistemas de ML em uma arquitetura única e podem redefinir a principal vantagem competitiva do setor bancário: risco e tomada de decisões. À medida que o tooling se torna acessível, o desafio muda da pesquisa para a execução, com a diferenciação a longo prazo provavelmente indo além dos modelos para dados proprietários e workflows agentic.

A IA não deve ser valorizada puramente como um substituto para o trabalho humano, mas como uma impulsionadora de mercados inteiramente novos, moldados por custos mais baixos e demanda significativamente mais alta. Enquanto a IA comprime o preço do trabalho, ela expande o volume através de novos casos de uso e disponibilidade constante, muitas vezes aumentando o tamanho total do mercado além das bases de software e mão de obra. O resultado é um novo framework de TAM onde a IA expande a produção econômica em vez de simplesmente deslocá-la.

A Tempo introduziu novas funcionalidades de pagamento corporativo em sua blockchain nativa de stablecoin, abrangendo assinaturas, pagamento automático, faturamento baseado em uso e endereços virtuais para atribuição e reconciliação de depósitos. Essas capacidades preenchem lacunas importantes em pagamentos recorrentes e gerenciamento de carteiras multi-inquilino, permitindo que empresas executem fluxos de trabalho de pagamento completos onchain com menor operational overhead. A atualização aproxima as stablecoins do suporte a operações financeiras empresariais de ponta a ponta, indo além de transferências únicas.

A Backbase introduziu uma nova plataforma orientada por IA, projetada para unificar a forma como os bancos gerenciam interações com clientes, equipes internas e agentes automatizados em um único ambiente operacional. O sistema se sobrepõe à infraestrutura existente para coordenar fluxos de trabalho, aplicar permissões e gerar insights em tempo real, visando os processos fragmentados 'intermediários' que compõem a maior parte do trabalho bancário de linha de frente. Se for eficaz, a abordagem pode reduzir significativamente o custo operacional, permitindo que os bancos escalem serviços sem aumentar o quadro de funcionários.

Diretores financeiros estão elevando os orçamentos de IA em toda a empresa e especificamente nas áreas de finanças, com 83% planejando aumentos nos próximos dois anos, mesmo diante de resultados iniciais variados. O diferencial chave é a escala: equipes financeiras que implementaram IA em produção reportam resultados notavelmente mais fortes do que aquelas ainda em fase de piloto. Velocidade e ciclos mais rápidos são os benefícios primários, enquanto as principais barreiras migraram da tecnologia para gestão de mudanças, talentos e redesenho de workflow.

A Kashable levantou US$ 60 milhões em uma rodada Série C liderada pela Goldman Sachs Alternatives, destacando o interesse dos investidores em modelos de empréstimos integrados ao empregador. A empresa oferece empréstimos pessoais de custo mais baixo e ferramentas de bem-estar financeiro ao alavancar dados da folha de pagamento, o que melhora a análise de crédito e reduz o risco de inadimplência. Com US$ 2 bilhões em empréstimos concedidos, lucratividade e crescimento de 40%, o modelo da Kashable a posiciona como uma alternativa estruturada ao crédito de consumo com juros altos.

O Customers Bank está em parceria com a OpenAI em um esforço plurianual para integrar IA avançada em suas operações essenciais, visando transformar a forma como um banco regional funciona no dia a dia. A iniciativa foca na automação de fluxos de trabalho em empréstimos, depósitos e pagamentos, utilizando modelos personalizados treinados com dados internos e implementados sob rigorosos padrões de governança. Se bem-sucedida, a medida poderá direcionar os bancários de tarefas manuais para o atendimento ao cliente, oferecendo uma visão de como instituições de médio porte podem competir em um cenário financeiro cada vez mais nativo em IA.

📉 CEVIU TI

As ações da Oracle, CoreWeave, Arm, AMD, Broadcom, Nvidia e de outras empresas ligadas à IA registraram queda após relatórios indicarem que a OpenAI não atingiu suas metas internas de receita e crescimento de usuários. Essa reação demonstra o quanto as avaliações de infraestrutura de IA no mercado público estão agora atreladas à capacidade da OpenAI de manter um crescimento acelerado para suportar seus massivos compromissos de poder computacional.

O cPanel lançou patches de segurança para uma vulnerabilidade crítica de autenticação que afeta todas as versões suportadas. A exploração permite acesso não autorizado ao painel de controle. A Namecheap bloqueou temporariamente as portas TCP 2083 e 2087 para mitigar os riscos. Administradores devem atualizar para as versões mais recentes, incluindo 11.136.0.5 e 11.134.0.20, para proteger sua infraestrutura imediatamente.

Reguladores da União Europeia propuseram medidas que exigiriam que o Google concedesse a serviços de IA rivais um acesso mais profundo às capacidades do Android atualmente vinculadas ao Gemini. O Google tem resistido, argumentando que a proposta poderia elevar custos e fragilizar as proteções de privacidade e segurança. Os reguladores afirmam que terceiros deveriam ser capazes de executar tarefas através dos aplicativos preferidos dos usuários.

Atacantes comprometeram contas de mantenedores SAP para publicar quatro pacotes npm maliciosos em 29 de abril. Esses pacotes utilizaram 'preinstall hooks' para implantar um 'credential stealer' de 11MB, coletando tokens de AWS, Azure, GCP e GitHub. O ataque estabeleceu persistência via tarefas do VS Code, contornando a segurança de CI/CD por meio do abuso de tokens OIDC.

A AWS anunciou novos serviços de IA, incluindo o Amazon Quick, um assistente de desktop que se conecta a aplicativos de trabalho como Google Workspace, Microsoft 365, Zoom e Salesforce. O lançamento posiciona a Amazon mais diretamente no concorrido mercado de assistentes de produtividade empresarial, onde o contexto, o acesso a aplicativos e a governança estão se tornando o campo de batalha.

Empresas estão descobrindo que implantar agentes de IA não é a parte difícil; o desafio reside em escalá-los, protegê-los e governá-los. O gargalo agora é a infraestrutura de TI central (dados, identidade e confiabilidade), o que está forçando as equipes a repensar o design dos sistemas antes que os agentes possam executar fluxos de trabalho em produção.

O padrão OAuth 2.0 não consegue dar suporte a agentes de IA que tomam decisões em runtime e delegam tarefas. Padrões emergentes como MCP, A2A e AAuth abordam essas lacunas ao introduzir identidade criptográfica, requisições assinadas e atenuação de token para garantir delegação segura, auditável e com escopo definido em fluxos de trabalho multiagente complexos.

A Workday domina o mercado de HCM de US$ 10 bilhões, com 10.000 clientes, mas sua arquitetura legada impede uma verdadeira integração nativa de IA. À medida que as empresas priorizam a prontidão para IA, novas plataformas que oferecem implantações em um mês e fluxos de trabalho baseados em agentes estão, finalmente, posicionadas para deslocar o modelo rígido e de alto custo de serviços dos incumbentes e redefinir a gestão de capital humano corporativo.

CIOs estão aplicando cada vez mais a transformação por IA aos seus próprios fluxos de trabalho de TI, abrangendo desde assistentes de IA específicos para funções até a automação de processos e a gestão do conhecimento interno. A área de TI emerge como a principal facilitadora e, simultaneamente, o primeiro campo de prova concreto para a produtividade da IA no ambiente corporativo.

CIOs precisam transitar de sistemas fragmentados e isolados por local para operações padronizadas e baseadas em plataforma, capazes de escalar por toda a empresa. A mudança central foca em dados unificados, modelos de implantação repetíveis e arquiteturas abertas que minimizam o risco de integração e tornam as operações orientadas por IA realmente implementáveis em escala.

A Microsoft está implementando capacidades de IA baseadas em agentes no Dynamics 365 e no Copilot Studio, visando automatizar o atendimento ao cliente, vendas e operações. Essas ferramentas incluem agentes de voz em tempo real e insights de vendas automatizados, projetados para reduzir tarefas manuais e permitir que equipes humanas se concentrem em interações de alto valor e mais empáticas com os clientes.

A SaaStr demonstra o que realmente acontece quando agentes executam GTM em produção: os gastos migram de licenças para uso, com os custos do Salesforce aumentando cerca de 80% apesar de menos usuários. Isso ocorre porque agentes de IA impulsionam cargas de trabalho intensivas em API. Ao mesmo tempo, softwares SaaS mais fracos falham sob carga ou se tornam irrelevantes, à medida que os agentes contornam ferramentas que não são sistemas de registro críticos.

A IBM disponibilizou o Bob, seu assistente de codificação de IA, em general availability após testes internos com 80.000 funcionários. A empresa também está lançando um Premium Package para Z, conectando o produto diretamente à modernização de mainframes em escala corporativa.

FinBot é uma plataforma interativa de capture-the-flag que simula uma aplicação de serviços financeiros. Ela oferece treinamento prático para mitigar riscos de IA agentic, incluindo prompt injection e o uso indevido de tooling. A plataforma alinha seus desafios com o OWASP Top 10 para Agentic Applications 2026, auxiliando desenvolvedores e defensores na proteção de fluxos de trabalho complexos de IA.

Mistral Workflows é um engine de orquestração impulsionado por Temporal, projetado para implementar sistemas de IA multi-etapas em ambientes corporativos. O produto atende a clientes com requisitos regulatórios e de soberania de dados, garantindo a separação entre a execução do control plane e do data plane.

Setores regulados enfrentam riscos significativos ao utilizar LLMs com dados sensíveis. Uma arquitetura híbrida, que combina Regex para padrões estruturados e NER (Reconhecimento de Entidades Nomeadas) para entidades contextuais, possibilita um mascaramento seguro. Isso permite substituir informações sensíveis por placeholders, mantendo a estrutura semântica dos dados, e assim as organizações podem utilizar LLMs de forma segura, sem comprometer a privacidade ou os requisitos de compliance.

O framework da Anthropic divide a segurança de agentes de IA em quatro camadas: Model, Harness, Tools e Environment. As organizações são responsáveis por três dessas camadas; contudo, a supervisão humana está falhando, com 93% dos prompts sendo aprovados automaticamente. Equipes de segurança precisam transitar de um modelo de aprovação por ação para um monitoramento contínuo de políticas, visando mitigar riscos de supply chain e aqueles específicos dos agentes.

Após uma interrupção generalizada de acesso ao Outlook.com, a Microsoft solicitou que os usuários de iPhone afetados que utilizam o aplicativo Mail padrão inserissem suas credenciais novamente de forma manual. A Microsoft afirmou que a saúde do serviço foi restaurada, mas não divulgou a causa raiz, as regiões atingidas ou o número de usuários impactados.

🎯 CEVIU Dados

O Pinterest desenvolveu um modelo de retrieval two-tower dedicado para gerar candidatos a anúncios de compras mais eficazes, otimizados para conversões offsite. Essa abordagem supera os sinais tradicionais baseados em cliques e engajamento, que, embora abundantes, possuem baixa correlação com a intenção real de compra. O sistema utiliza uma arquitetura unificada multi-tarefa, incorporando camadas cruzadas paralelas DCN v2 e MLP, e emprega técnicas de treinamento inovadoras para lidar com dados de conversão esparsos e ruidosos, juntamente com uma função de perda aplicada em nível de anunciante.

A Vinted reconstruiu seu sistema de autocompletar busca, transicionando de sugestões estáticas e genéricas para uma abordagem híbrida. Esta nova abordagem combina um robusto modelo de pontuação heurística com um modelo Learning-to-Rank (LTR). As sugestões são pontuadas offline utilizando popularidade, taxa de sell-through e sinais de uso, e indexadas com técnicas inteligentes de prefix e fuzzy matching. Posteriormente, um modelo LightGBM é aplicado em tempo real, incorporando o comportamento e o contexto do usuário para re-rankear os resultados.

O Shopify Flow emprega um agente de IA que capacita os comerciantes a construir fluxos de automação utilizando linguagem natural, eliminando a necessidade de regras complexas. A Shopify aprimorou notavelmente este agente ao aplicar fine-tuning em um modelo de código aberto menor, utilizando dados específicos do domínio do Flow. Essa otimização resultou em uma precisão substancialmente maior, menor latência e custos reduzidos em comparação com modelos de propósito geral de grande porte.

Skipper é um engine de workflow leve e embarcado, projetado para oferecer execução durável e confiável para processos de negócio de longa duração, como sinistros de seguro e pagamentos. Em vez de depender de ferramentas de orquestração externas ou filas, o Skipper utiliza uma abordagem simples baseada em anotações para persistir o estado no banco de dados existente do serviço e alcança durabilidade por meio de um replay determinístico.

GraphRAG é mais eficaz quando as perguntas exigem raciocínio multi-hop através de documentos, relacionamentos entre entidades ou dependências de nível de sistema. Para buscas factuais simples, o Vector RAG é mais adequado, reservando o GraphRAG como um backend opcional para cenários mais complexos. Em um ambiente de produção, os principais desafios do GraphRAG incluem o alto custo de indexação, a dificuldade em realizar atualizações, a complexidade da avaliação multi-camadas e a necessidade de infraestrutura que geralmente opera com jobs em batch, em vez de execução direta no caminho da requisição. Para um uso bem-sucedido, é crucial definir um escopo de grafo seletivo, estabelecer políticas de atualização explícitas, garantir avaliações repetíveis e manter forte observability com rigorosos controles de custo.

As falhas em testes A/B são muito mais frequentemente causadas por infraestrutura deficiente e práticas de experimentação ruins do que pelas ideias sendo testadas. Falhas comuns incluem o Sample Ratio Mismatch (SRM) devido a randomização inadequada, early peeking que inflaciona falsos positivos, poder estatístico insuficiente e a otimização de métricas incorretas sem os devidos guardrails, levando a resultados enganosos.

As Atualizações HOT no PostgreSQL são uma otimização de armazenamento inteligente que permite que operações de UPDATE em colunas não indexadas evitem tocar os índices inteiramente, desde que a nova tupla se encaixe na mesma página que a antiga. Em vez de criar novas entradas de índice, o PostgreSQL marca a tupla antiga como HOT_UPDATED e posiciona uma tupla HEAP_ONLY na mesma página, formando uma cadeia que as varreduras podem seguir. Este mecanismo resulta em uma redução do tráfego de WAL, da manutenção de índices e do overhead de vacuuming.

As Materialized Tables no Apache Flink permitem que os usuários definam uma tabela diretamente com sua query de população, fazendo o embedding tanto do schema quanto da lógica de atualização contínua ou agendada dentro do catálogo. Isso simplifica os pipelines de ETL ao gerenciar automaticamente o ciclo de vida do job, a evolução do schema e as atualizações.

Uma arquitetura client-side utiliza SQLite compilado para WebAssembly no navegador, com o banco de dados persistido como um único arquivo binário no Google Drive do usuário. Em comparação com IndexedDB ou camadas de sincronização proprietárias, essa abordagem oferece verdadeira portabilidade e privacidade dos dados: o arquivo pode ser aberto em qualquer ferramenta SQLite, enquanto o acesso ao Drive é limitado via o escopo drive.file. O estado local é gravado no localStorage após cada mutação, a sincronização com o Drive é 'debounced' por 10 segundos, e a resolução de conflitos prioriza o Drive como fonte da verdade.

Sistemas de recomendação em tempo real precisam agora combinar features contextuais ricas com latência inferior a 100 ms em escala, frequentemente abrangendo bilhões de registros de interação. Para isso, feature stores atuam como a camada de consistência entre o treinamento offline e o serving online, reduzindo o training-serving skew, enquanto plataformas de batch computam features e embeddings de alto custo. O Redis é utilizado para busca de similaridade de vetores com baixa latency, retrieval de candidatos e caching de filtros de elegibilidade, mantendo os caminhos de requisição rápidos e eficientes.

O Linux 7.0 acidentalmente cortou pela metade o desempenho do PostgreSQL porque uma mudança de agendamento aumentou o tempo de retenção dos spinlocks durante as falhas de página de memória, gerando um desperdício massivo de CPU. A solução encontrada para o problema é a migração para huge memory pages.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser
CEVIU News — 30 de April de 2026 — CEVIU News