CEVIU News

CEVIU News — 4 de May de 2026

125 notícias4 de maio de 2026CEVIUCEVIU Web DevCEVIU IA+9
Compartilhar:

🤖 CEVIU

A Meta adquiriu uma startup focada no desenvolvimento de robôs humanoides, a Assured Robot Intelligence. Conhecida por estar na fronteira da inteligência robótica, a equipe da Assured Robot Intelligence passará a integrar a Meta com o objetivo de otimizar modelos para diversas aplicações em robótica. No entanto, a notícia gerou ceticismo entre os investidores quanto aos planos de gastos da Meta, resultando em uma queda nas ações da empresa após o anúncio da aquisição. Esse movimento levanta questões sobre as expectativas do mercado em relação aos novos investimentos da gigante tecnológica.

A SpaceX já investiu mais de US$ 15 bilhões no desenvolvimento do Starship. O investimento de capital da empresa deverá crescer quase cinco vezes entre 2024 e 2025, atingindo US$ 20,7 bilhões. Desse montante, US$ 12,7 bilhões foram direcionados para iniciativas de IA. A Starlink, por sua vez, continua sendo o motor financeiro da empresa, com uma receita projetada de US$ 11,4 bilhões em 2025.

A ByteDance, empresa por trás do TikTok, entrou no setor de descoberta de medicamentos por IA. A Anew Labs, unidade de pesquisa de fármacos da companhia, apresentou recentemente sua primeira terapia projetada por inteligência artificial em uma conferência de imunologia de grande porte. O foco do trabalho foi uma interação proteína-proteína há muito tempo considerada 'undruggable', ou seja, sem possibilidades conhecidas de tratamento medicamentoso. A unidade também publicou um modelo generativo que, segundo seus desenvolvedores, é capaz de projetar moléculas funcionais em todas as escalas.

O acesso à energia elétrica é crucial para as apostas das empresas de tecnologia no desenvolvimento de IA. Os EUA já precisariam de mais investimentos em energia para sustentar sua próxima fase de crescimento econômico e já enfrentavam dificuldades para atender à crescente demanda por eletricidade muito antes do boom da IA. Os custos da lacuna energética estão aumentando à medida que a energia se torna mais vital para a economia nacional. Para suprir suas necessidades crescentes, será imperativo que mais regiões dos EUA permitam a rápida implantação de energia solar e baterias.

Agentes de codificação de IA demonstram grande capacidade, mas carecem do instinto para os aspectos do trabalho que não se refletem diretamente no diff. Tais agentes tendem a ignorar o trabalho de engenharia sênior, a menos que essa omissão seja impossibilitada. A principal tarefa, cada vez mais, é incorporar a disciplina de forma que os agentes não consigam se esquivar dela. O desenvolvimento de habilidades específicas é uma abordagem para isso. As partes do trabalho de um engenheiro sênior não são mais opcionais, mesmo quando o 'engenheiro' em questão é um modelo de IA.

Muitos concebem o futuro multi-agente como análogo às nossas empresas, apenas de forma autônoma. No entanto, agentes de IA não se comportam como agentes humanos, e um hub central não é simplesmente o equivalente a um gerente humano. Se qualquer uma das subtarefas for executada de forma incorreta, mesmo que os 'trabalhadores' sejam individualmente competentes, a resposta final será falha. Mercados, por outro lado, funcionam eficazmente porque as pessoas possuem informações locais que não podem ser facilmente centralizadas ou compartilhadas.

Sarah Friar foi contratada pela OpenAI com o objetivo de conferir à empresa a maturidade financeira necessária para uma abertura de capital. Nos últimos meses, ela tem conciliado as expectativas de gastos da companhia, chegando a questionar a necessidade de investir ainda mais em data centers. Friar tem a tarefa de orquestrar o que pode ser um dos maiores IPOs da história. Sua atuação é crucial: um ritmo muito lento poderia fazer a OpenAI ficar para trás, chegando ao mercado depois da Anthropic, enquanto uma aceleração excessiva arriscaria expandir demais o negócio.

Navegadores e o desenvolvimento web estão prestes a passar por uma transformação profunda com a evolução contínua dos grandes modelos de linguagem (LLMs). Essa revolução promete redefinir a forma como interagimos com a internet e como as aplicações são construídas, abrindo novas possibilidades para a experiência do usuário e a inovação tecnológica. Entenda como essa mudança impactará o futuro da web e o seu dia a dia online.

O aplicativo Gemini está prestes a receber um redesenho completo que promete transformar cada parte de sua interface de usuário. Os primeiros vislumbres do novo visual já foram revelados em capturas de tela, oferecendo um panorama de como a experiência do usuário será totalmente repaginada. Confira os detalhes e as imagens exclusivas que mostram as mudanças na UI.

Dados recentes indicam que pessoas de todas as faixas etárias têm diminuído o número médio de horas dedicadas ao scrolling em plataformas de redes sociais por dia. A tendência aponta para uma mudança nos hábitos de consumo de conteúdo online, levantando questões sobre o futuro da interação digital.

🛠️ CEVIU Web Dev

Harness engineering é uma abordagem onde engenheiros se concentram na construção do ambiente e das "harnesses" (como o Codex da OpenAI) em torno dos agentes de IA, permitindo que estes desenvolvam software sem código escrito manualmente. A estratégia da OpenAI envolveu tornar as aplicações legíveis para que os agentes pudessem consultar estados de runtime e estruturar a documentação com divulgação progressiva, utilizando um sumário AGENTS.md. Para gerenciar um alto throughput de agentes, a empresa adotou uma filosofia de merge que prioriza correções rápidas em detrimento da prevenção perfeita, além de endereçar continuamente a dívida técnica por meio de "princípios de ouro" reforçados por agentes de limpeza em segundo plano.

No campo da computação, a abstração da complexidade tem progressivamente reduzido a compreensão dos desenvolvedores sobre o funcionamento interno dos sistemas, resultando em uma diminuição da qualidade do software ao longo do tempo. Enquanto no passado um conhecimento aprofundado da operação de máquina era indispensável, o crescimento dos recursos e a proliferação de bibliotecas prontas para uso levaram a práticas de desenvolvimento menos rigorosas. Mais recentemente, o surgimento dos LLMs capacitou um público mais amplo a gerar software que, embora funcional, frequentemente carece de qualidade intrínseca, ressaltando a importância crescente da expertise técnica para mitigar esses desafios.

A operação bem-sucedida de uma base de código Haskell de dois milhões de linhas na fintech Mercury demonstra a viabilidade da linguagem em escala, mesmo com uma equipe em grande parte nova à tecnologia. Este cenário evidencia a capacidade do Haskell de codificar conhecimento operacional crucial e a memória institucional diretamente em interfaces type-safe, facilitando a adesão às boas práticas e tornando o "caminho certo fácil". A abordagem da Mercury para engenharia de produção com Haskell inclui tratar a pureza como um limite bem definido, projetar para introspecção utilizando registros de funções e empregar tipos para garantir invariantes críticos. Essas práticas são fundamentais para a robustez e a manutenibilidade de um sistema complexo como o deles, reforçando a importância da arquitetura de software e da experiência do desenvolvedor (DX) em projetos de grande porte.

Os agent harnesses de IA, que são os control loops que impulsionam os LLMs, podem ser arquitetados tanto dentro quanto fora de um sandbox de execução. Cada uma dessas abordagens possui implicações distintas para a segurança e para ambientes multiusuário. A Mendral, empresa que desenvolve agentes multiusuário, escolheu executar o harness fora do sandbox com o objetivo de aprimorar a segurança, mantendo as credenciais separadas, além de possibilitar um gerenciamento mais eficiente do ciclo de vida do sandbox e simplificar o estado compartilhado.

A mudança em direção à programação agentic corre o risco de atrofiar o pensamento crítico e as habilidades de implementação dos desenvolvedores, ao mesmo tempo em que aumenta a complexidade do sistema e a dependência de fornecedor. Em vez de abdicar do controle total para a IA, os profissionais de desenvolvimento devem manter um envolvimento ativo na codificação manual para preservar sua expertise técnica e garantir a qualidade do software.

LLMs não representam um nível superior de abstração de programação. Enquanto as abstrações tradicionais são caracterizadas por funções determinísticas, onde uma entrada específica consistentemente gera uma saída desejada, os LLMs operam probabilisticamente. Eles oferecem apenas uma probabilidade P(y) de obter uma saída desejada, em vez de um resultado garantido, o que os diferencia fundamentalmente dos paradigmas de abstração convencionais no desenvolvimento de software.

O desenvolvimento de interfaces gráficas de usuário (GUIs) nativas em Windows, Linux e macOS tem se mostrado fragmentado e inconsistente, impulsionando a adoção generalizada de aplicações Electron que, por vezes, carecem de workflows essenciais baseados em teclado. Diante disso, as Interfaces de Usuário em Terminal (TUIs) estão vivenciando um ressurgimento notável. Elas se destacam como alternativas rápidas, automatizáveis e consistentemente funcionais, superando as limitações específicas de cada sistema operacional. Interessantemente, a inteligência artificial (IA) também está contribuindo para o retorno das aplicações desktop nativas, ao aprimorar significativamente os processos de desenvolvimento.

Interfaces de usuário de terminal (TUIs) modernas, construídas com frameworks declarativos, frequentemente se mostram inacessíveis para usuários com deficiência visual. Isso ocorre porque tais implementações tratam o terminal como um canvas 2D reativo, resultando em atualizações constantes e desorientadoras para leitores de tela, além de gerar problemas de performance significativos.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser

🐾 CEVIU IA

A OpenAI atualizou o Codex com Pets animados, que surgem como sobreposições na tela e interagem através de balões de mensagem curtos. Além disso, o Codex agora importa automaticamente arquivos de configuração de outros agentes de codificação e inclui um novo dicionário de ditado para aprimorar a precisão da entrada de voz. Essas atualizações visam melhorar a usabilidade e o apelo do Codex como uma aplicação de desktop abrangente.

A Anthropic parece ter iniciado uma nova rodada de red teaming em uma nova build interna. A empresa está programada para sediar sua conferência de desenvolvedores “Code with Claude” em São Francisco, em 6 de maio. O momento sugere que o modelo está sendo aprimorado antes de um anúncio previsto para o evento. A rodada de red teaming é consistente com a política de escalonamento responsável da empresa, que exige testes de jailbreak e stress tests em classificadores constitucionais antes de qualquer deployment de classe frontier.

O Google está testando um novo modelo Omni para geração de vídeo, com o potencial de unificar suas ferramentas de geração de vídeo e imagem. O modelo Omni surge na UI de geração de vídeo do Gemini, o que sugere que pode se tornar um nome de produto público. Um lançamento durante o Google I/O 2026 é uma possibilidade, em meio à crescente competição na geração de vídeo por IA.

Os mais recentes modelos de preview da DeepSeek, DeepSeek-V4-Pro e DeepSeek-V4-Flash, são ambos modelos Mixture of Experts de um milhão de tokens. O modelo Pro tem um total de 1.6 trilhão de parâmetros, com 49 bilhões ativos, enquanto o Flash possui 284 bilhões no total, com 13 bilhões ativos. O DeepSeek-V4-Pro é agora o maior modelo de pesos abertos e é também um modelo muito barato de operar.

Os large language models estão se tornando um dos maiores projetos de infraestrutura computacional de todos os tempos. Este é o primeiro artigo de uma série sobre a arquitetura de LLMs e suas implicações para o raciocínio. Ele explora por que a arquitetura Transformer foi tão impactante para os LLMs.

A Perplexity foca em Agent Skills modulares para aprimorar seus produtos de agentes de fronteira, com designs e hierarquias específicas para garantir experiências de usuário de alta qualidade. Ao contrário do software tradicional, o desenvolvimento de Skills prioriza princípios de design detalhados e específicos ao contexto, onde consultas reais e avaliações moldam sua necessidade e conteúdo. A manutenção dessas Skills envolve iteração constante, testes em múltiplos modelos e priorização da eficiência e simplicidade devido ao 'custo' inerente que cada Skill introduz.

Amjad Masad, da Replit, destaca um forte crescimento, aproximando-se de uma taxa de execução de um bilhão de dólares, e ostenta uma taxa de retenção de receita líquida de 300%. Ao contrário da Cursor, que enfrenta margens negativas, a Replit mantém margens brutas positivas e atrai usuários não técnicos com sua plataforma segura e de ponta a ponta. Embora Masad permaneça comprometido com a independência da Replit, ele reconhece discussões abertas com potenciais adquirentes e expressa frustração com as alegadas práticas discriminatórias da App Store da Apple, sugerindo possível ação legal.

Este artigo detalha o pipeline de inference, desde a tokenization e embeddings até as camadas de self-attention empilhadas. Em seguida, divide a geração em duas fases distintas na mesma GPU: o prefill compute-bound que processa todos os tokens de entrada em paralelo e o decode memory-bound que emite um token por vez.

O mode collapse ocorre quando modelos geram repetidamente as saídas mais comuns, resultando em resultados homogêneos. Isso é exemplificado por IAs que geram mais cães do que gatos devido a dados de treinamento desbalanceados. O fenômeno impacta domínios diversos, como a concessão de bolsas e a produção musical, à medida que os sistemas se tornam progressivamente especializados com base em produções anteriores e sucessos. Para combater o mode collapse, é crucial introduzir variabilidade ou alterar as pressões externas. Essas medidas visam diversificar as saídas e evitar a superespecialização dos modelos.

🤖 CEVIU Segurança da Informação

O Instituto de Segurança de IA (AISI) do Reino Unido deu continuidade à sua avaliação do Claude Mythos com uma análise do GPT-5.5 da OpenAI em seu cyber range. O modelo conseguiu completar trivialmente todos os desafios estilo CTF e, em 2 de 10 tentativas (comparado às 3 de 10 do Mythos), completou o desafio de ponta a ponta “The Last Ones”, que simula uma rede corporativa. No entanto, nenhum modelo ainda conseguiu resolver o segundo cyber range do AISI, que simula uma rede de Sistemas de Controle Industrial (ICS).

A equipe 313 do Iraque executou um ataque DDoS contra a infraestrutura do Ubuntu e da Canonical. As interrupções duraram mais de 20 horas, bloqueando o acesso a APIs de segurança e servidores de atualização, o que impediu a instalação ou atualização de pacotes nos servidores. Os atacantes utilizaram o Beamed, um serviço de DDoS-for-hire, que gerou 3.5 Tbps de tráfego.

A empresa de cibersegurança Trellix revelou acesso não autorizado a uma parte de seu repositório de código-fonte. A empresa não encontrou evidências de que o código tenha sido explorado ou que seu processo de release tenha sido comprometido. A Trellix notificou as autoridades policiais e está trabalhando com peritos forenses para investigar.

Comprometimentos recentes na cadeia de suprimentos npm, incluindo Axios (com mais de 57 milhões de downloads semanais e 84.000 dependentes), s1ngularity e ambas as ondas Shai-Hulud, transformaram os ranges de semantic versioning (^ e ~) em canais silenciosos de entrega de ataques, com versões maliciosas se propagando globalmente em minutos após a publicação. Períodos de espera para dependências (dependency cooldowns) impõem um atraso antes que novas versões lançadas se tornem instaláveis. Um mínimo de 12 horas teria bloqueado os ataques Axios e s1ngularity completamente, já que ambos foram detectados em 3 a 4 horas, embora uma semana seja o período recomendado. Defensores devem configurar min-release-age no npm 11.10.0+, minimumReleaseAge no pnpm, npmMinimalAgeGate no Yarn, ou as configurações de cooldown do Dependabot (que se estendem a GitHub Actions e Python), combinando os cooldowns com scanners de pacotes como GuardDog e bloqueadores em tempo de instalação como Supply-Chain Firewall, pois atacantes pacientes adaptarão suas táticas atrasando a execução do payload para além dessa janela.

A Ctrl-Alt-Intel monitorou um afiliado do RaaS Qilin em 5 diretórios abertos expostos de agosto de 2025 a março de 2026, registrando 1.929 invocações de exploit contra 918 IPs únicos de WatchGuard Firebox (71,5% na Alemanha, 28,1% nos EUA). O ataque utilizou o POC da watchTowr para CVE-2025-9242, juntamente com POCs para CVE-2025-14733, CVE-2025-40554 (SolarWinds), CVE-2025-59718 (FortiOS), CVE-2025-60021 (Apache bRPC), CVE-2026-24061 e CVE-2026-24423. A kill chain executou exploração IKE na porta 500 para forçar callbacks na porta 2007, implantou um binário Chisel renomeado (fos) para pivoting via SOCKS reverso, e distribuiu Sliver C2 a partir de servidores localizados em 31.57.147.229, 31.57.38.155, 23.27.140.108 e 23.27.143.170, com binários Qilin nomeados em referência às vítimas (kruss, qusar, tron, sssd) capazes de criptografar hosts Linux, ESXi e Nutanix AHV usando ChaCha20. Os defensores devem procurar por processos Sliver/Chisel em appliances de borda, monitorar o acesso a /etc/wg config.xml em WatchGuard, bloquear os IPs de C2 listados, aplicar patches para as sete CVEs imediatamente, e tratar firewalls/VPNs como lacunas de telemetria de alta prioridade, já que esses appliances raramente executam stacks de AV/EDR.

Rohitashokgowd publicou sete consultas KQL que revelam modos de falha que os health checks embutidos do Sentinel não detectam. Isso inclui regras "zumbis" silenciosas que são executadas com sucesso contra tabelas vazias (usando a coluna QueryResultAmount em _SentinelHealth), detectores "sombra" que geram alertas que nunca se tornam incidentes, e regras de "tudo é benigno" onde os dados de Classificação do analista mostram mais de 90% de fechamentos não acionáveis. Também são abordados feeds quebrados onde as regras consultam tabelas que pararam de ingerir dados. O autor também destaca regras desabilitadas e esquecidas (sinalizadas via SentinelAudit), detecções não rastreadas sem táticas MITRE ou mapeamentos de entidade, e coverage drift, onde o volume de alertas de uma técnica MITRE cai 60%+ entre janelas contínuas de 30 dias. Três das verificações dependem de um padrão de inventário de regras no qual uma Logic App agendada puxa definições de regras analíticas ARM para uma tabela personalizada do Log Analytics (SentinelAnalyticalRules_CL), permitindo que texto de consulta e metadados sejam combinados em KQL. Engenheiros de detecção devem executar essas consultas trimestralmente para identificar o perigoso cenário onde regras estão "verdes" e os dados fluem, mas o padrão de detecção parou de corresponder, a fim de aposentar, ajustar ou redirecionar as regras adequadamente, em vez de permitir que regras desabilitadas e feeds silenciosos mascarem a cobertura.

TrailTool é uma ferramenta AWS de código aberto que pré-processa logs do CloudTrail via Lambda e os armazena em cache no DynamoDB, agrupados por entidades como Pessoas, Sessões, Roles, Serviços e Recursos. Este processo permite que agentes de IA respondam a perguntas sobre padrões de acesso sem consumir contexto em consultas de logs brutos. A interface de linha de comando (CLI) da ferramenta oferece quatro fluxos de trabalho impulsionados por agentes: detecção de modificações de recursos por ClickOps; geração de políticas IAM de privilégio mínimo a partir da atividade de sessão usando mapeamentos iamlive; rascunho automático de correções de permissão para erros de AccessDenied; e validação de justificativas de break-glass, comparando a intenção declarada com a atividade real da sessão. Os defensores podem realizar o deploy da Lambda Ingestor via SAM e consultar com credenciais AWS padrão. Uma versão hospedada também está disponível em trailtool.io para equipes que desejam pular a etapa de deploy.

O pesquisador de segurança Jeremiah Fowler descobriu um banco de dados desprotegido e não criptografado contendo quase 87 mil capturas de tela do dispositivo de um usuário, tiradas por stalkerware. O banco de dados não parece estar afiliado à empresa de stalkerware nomeada nele, mas sim às atividades de um indivíduo privado. Fowler notificou a vítima e as autoridades policiais sobre o banco de dados.

Ryan Goldberg e Kevin Martin, dois profissionais de cibersegurança dos EUA, foram cada um sentenciados a quatro anos de prisão por implantar o ransomware ALPHV BlackCat como afiliados contra múltiplas vítimas americanas em 2023. Eles extorquiram US$ 1,2 milhão de uma vítima e vazaram dados de pacientes de um consultório médico.

🪐 CEVIU DevOps

A migração do Terraform para o OpenTofu é tipicamente uma substituição quase direta, exigindo atualizações de registry, mudanças em pipelines de CI/CD, alinhamento de versões e backups cuidadosos do estado. Plataformas de orquestração como Spacelift oferecem suporte para uma transição suave neste processo.

A programação fully agentic cria uma "dívida cognitiva" ao afastar os desenvolvedores do código, enfraquecendo o julgamento e as habilidades de debugging necessárias para supervisionar o trabalho gerado por IA. A abordagem mais eficaz é usar a IA como uma ferramenta secundária para planejamento, pesquisa e pequenas delegações, mantendo-se ativamente envolvido na implementação e gerando apenas código que você pode revisar completamente.

O Kubernetes v1.36 lançou os Pod-Level Resource Managers como uma funcionalidade alfa, permitindo que pods críticos para desempenho aloquem recursos exclusivos e alinhados com NUMA para os containers de aplicação principal, enquanto sidecars compartilham um pool de recursos separado no nível do pod. Essa melhoria resolve um compromisso de longa data, onde os usuários precisavam anteriormente desperdiçar recursos, atribuindo alocações de CPU exclusivas a cada container (incluindo sidecars leves), ou abrir mão da classe de QoS Guaranteed do pod. A funcionalidade é particularmente útil para aplicações como treinamento de ML, high-frequency trading e bancos de dados de baixa latência.

O crescimento acelerado impulsionado por IA está aumentando a carga e o ritmo operacional de sistemas em plataformas como GitHub e Anthropic, resultando em riscos de saturação, interrupções e estresse arquitetônico. Apesar de os LLMs impulsionarem a produtividade, eles podem, na verdade, exacerbar os desafios de confiabilidade em vez de os mitigar.

A Meta introduziu duas atualizações importantes em seu sistema de backup criptografado de ponta a ponta para WhatsApp e Messenger. As melhorias incluem a distribuição de chaves de frota over-the-air, que permite ao Messenger atualizar chaves de segurança HSM sem a necessidade de atualizações de aplicativo, utilizando pacotes de validação assinados tanto pela Cloudflare quanto pela Meta. Além disso, a Meta se comprometeu a publicar publicamente evidências de implantações seguras de frota HSM em seu blog. O Backup Key Vault, baseado em HSM, armazena os códigos de recuperação dos usuários em hardware resistente a adulterações que a Meta afirma que nem a empresa nem terceiros podem acessar, com o sistema implantado em múltiplos datacenters usando replicação por consenso majoritário.

Um substituto melhor para o GitHub deveria focar menos em recursos semelhantes a editores e mais na coordenação de mantenedores de código aberto entre projetos, especialmente em relação a dependências, usuários downstream, forks ativos, impacto de releases e sinais de migração. A ideia central é que a reutilização de software moderna ocorre através de manifests de pacotes e grafos de dependência. Assim, as plataformas de forja devem tratar as dependências como relacionamentos de primeira classe, incluindo testes downstream, feeds de dependentes, padrões de segurança mais robustos para CI, caching de pacotes e uma melhor visibilidade do status do projeto.

📉 CEVIU Empreendedores

A indústria moderna de SaaS foi inteiramente construída sobre o modelo de licenciamento por assento. Contudo, a Microsoft afirma que esse modelo está morrendo. No novo modelo da empresa, o assento permanece, mas se torna um mecanismo de empacotamento para consumo pré-pago. Acima de um certo nível, os usuários pagam por token, por ação de agente ou por resultado.

Atualmente, os compradores chegam à sua homepage com a comparação de produtos e serviços já feita. Eles utilizam assistentes de IA para criar listas de fornecedores, entender os prós e contras, e eliminar opções incompatíveis antes mesmo de um clique. Isso significa que o posicionamento da sua empresa é agora moldado pelo que os modelos de IA encontram em seu conteúdo: desde posts de blog e documentos de suporte até avaliações de terceiros e vídeos. Empresas estão percebendo o impacto direto. Uma delas dobrou a qualidade dos leads ao focar na edição de páginas que os LLMs já citavam, em vez de apenas buscar mais citações. Outra, com excesso de conteúdo desatualizado, notou que as respostas da IA estavam descrevendo seu produto de forma incorreta. A dissonância na mensagem, antes um problema de branding, agora se manifesta diretamente nas listas de seleção dos compradores impulsionadas pela IA.

O conceito de 'IA-first' questiona se a IA pode realizar o trabalho de um piloto humano. Já 'IA-only' representa fluxos de trabalho extensos nos quais nenhum humano participa diretamente do ciclo operacional. Os humanos ainda definem os objetivos, valores, restrições e condições para escalonamento, mas a execução ocorre de ponta a ponta nas máquinas. Isso muda o papel dos humanos de participantes nos fluxos de trabalho para o de guardiões do sistema.

Miura-Ko adapta o framework de autonomia de veículos autônomos à adoção de IA, classificando empresas em seis níveis com base no que a IA pode ver, fazer, quem pode estendê-la e como o organograma foi alterado. A maioria das empresas "IA-forward" ainda se encontra no Nível 1 de produtividade pessoal ou Nível 2 de silos funcionais. O Nível 3, por sua vez, exige que agentes atuem em CRMs, código e tickets por meio de MCP e habilidades compartilhadas desenvolvidas por não-engenheiros. O Nível 4 introduz um sistema operacional que se multiplica, onde equipes de finanças e AEs (Account Executives) entregam ferramentas internas de produção e agentes guiados por políticas corrigem problemas, com revisão humana apenas no momento do merge. Já o Nível 5, ainda hipotético, descreve um sistema que detecta problemas, age dentro da autoridade delegada e atualiza a memória compartilhada sem que um humano inicie o ciclo.

A IA tornou o conteúdo competente barato. O que ainda é escasso é uma forma clara de enxergar o mercado que os clientes começam a repetir para você. Um blog, podcast, conta de fundador ou evento não acumula valor apenas por ser 'útil'. O útil está por toda parte. Ele acumula valor quando oferece aos compradores uma perspectiva que eles não tinham, uma maneira de nomear o que já estavam sentindo. As abordagens da Stripe e da Notion para isso parecem estratégia de conteúdo, mas na verdade são posicionamento. Nomeie a crença meio-formada do cliente melhor do que ele consegue, e ele começará a usar suas palavras para explicar o problema.

Os Agentes Personalizados do Notion agora podem ler e responder em canais privados do Slack. Eles só podem acessar os canais privados para os quais são convidados. O Slack API Connector permite que os usuários encontrem respostas rápidas no Notion, utilizando informações de conversas do Slack. Este recurso está disponível apenas nos planos Business e Enterprise.

Os modelos de IA agora são bons e baratos o suficiente. Existem ótimas ferramentas que podem dar a qualquer empresa uma vantagem competitiva. É mais fácil do que nunca construir. Pegue um engenheiro de contato com o cliente (customer-facing) profundamente familiarizado com IA, dê a ele uma conta Vercel e um gasto ilimitado de token, e você ficará surpreso com o que ele pode entregar em um fim de semana.

📱 CEVIU Design

O suposto iPhone de 20º aniversário da Apple, previsto para 2027, deve apresentar um redesenho significativo dos modelos iPhone Pro e Pro Max, e não como um dispositivo autônomo. Este novo design poderá incluir uma tela quad-curved sem bordas e tecnologia de câmera sob o display, sinalizando que as principais inovações da Apple se direcionarão para sua linha Pro principal, em vez de edições especiais únicas.

KC Green, criador do icônico quadrinho 'This is fine', acusou a startup de IA Artisan de roubar sua arte para um anúncio de metrô que promovia sua ferramenta de vendas de IA, 'Ava the AI BDR'. O anúncio modificado alterou a legenda do quadrinho para 'meu pipeline está em chamas', levando Green a denunciar publicamente a campanha e afirmar que está buscando representação legal. A controvérsia se soma à crescente reputação da Artisan por marketing provocativo, após outdoors anteriores com os dizeres 'Parem de contratar humanos' que também geraram reações negativas.

Design nudges — microssinais como configurações padrão, hierarquias de cores e indicadores de progresso — moldam silenciosamente o comportamento do usuário com um impacto psicológico desproporcional. Embora não sejam inerentemente antiéticos, eles ultrapassam um limite quando removem o consentimento informado, enganam os usuários ou favorecem interesses comerciais em detrimento do bem-estar do usuário. Um framework de auditoria abrangendo intenção, clareza de escolha, gatilhos emocionais e sensibilidade cultural é proposto para ajudar designers a usar nudges com empatia e responsabilidade.

A estrutura da equipe de um Design System impacta significativamente seu sucesso, com três modelos principais: descentralizado, centralizado e externo. Modelos descentralizados permitem que múltiplas equipes contribuam diretamente, oferecendo agilidade e soluções focadas no produto, mas correm o risco de redundância e inconsistência. A chave é escolher uma estrutura organizacional que se alinhe às forças e ao estilo de colaboração da sua equipe.

No início de uma carreira em UX, o trabalho pode parecer sem direção sem frameworks sólidos. No entanto, modelos estabelecidos de Jakob Nielsen, Peter Morville e Jesse James Garrett oferecem estrutura, clareza e uma linguagem comum para avaliar o design. A indústria tende a abandonar essas bases comprovadas e respaldadas por pesquisa em favor de tendências mais recentes, resultando em práticas fragmentadas e decisões impulsionadas mais por opinião do que por princípios consistentes – mesmo que esses frameworks originais permaneçam altamente relevantes.

A maioria das narrativas em UX falha porque designers utilizam estruturas de entretenimento, como a Jornada do Herói, em vez de uma comunicação focada em negócios. Estruturas de histórias de ficção não são eficazes para conteúdo informativo, onde o público precisa compreender descobertas e soluções, e não apenas processar narrativas. Em vez de detalhar a jornada de pesquisa, comece com declarações impactantes sobre o valor para o negócio e, em seguida, justifique-as com as descobertas da UX.

A cultura visual tem sido moldada por princípios de otimização que se originaram da industrialização, passaram pelos movimentos modernista e minimalista, e agora dominam o design digital através de plataformas como o Instagram. Essa busca por ausência de atrito e eficiência transformou a forma como artistas criam, muitas vezes projetando para visualização em escala de miniatura e compartilhamento em redes sociais, em vez de espaços de galeria tradicionais. A estética da otimização tem colonizado o cotidiano, com plataformas impondo estruturas visuais que treinam nossa percepção e afetam como processamos experiências tanto online quanto offline.

A identidade de marca da Perpetual foi concebida sob o conceito de repetição e sistemas duradouros, inspirada no trabalho 'Powers of Ten' de Charles e Ray Eames. Utilizando grids, proporções e uma lógica de padrões em evolução, a abordagem cria uma linguagem de design coesa, mas flexível. Este sistema disciplinado abrange tipografia, naming, impressos, digitais e saídas físicas, equilibrando estrutura com detalhes lúdicos, permitindo que a marca evolua continuamente enquanto mantém consistência e relevância a longo prazo.

😢 CEVIU Marketing

🤝 CEVIU Cripto

Os Senadores Tillis (R-NC) e Alsobrooks (D-MD) finalizaram um compromisso sobre a provisão de rendimento de stablecoin que vinha bloqueando a Lei CLARITY por meses. A Seção 404 proíbe o pagamento de juros ou rendimento a clientes dos EUA apenas por manter stablecoins (ou qualquer coisa "economicamente equivalente a um depósito bancário com juros"), mas explicitamente isenta recompensas baseadas em atividades e transações ligadas à participação genuína na plataforma. A Coinbase, que relatou US$ 1,35 bilhão em receita de stablecoin em 2025, grande parte vinda da distribuição impulsionada por recompensas de USDC, endossou o acordo. Paul Grewal, CLO da empresa, afirmou que o acordo "preserva recompensas baseadas em atividades ligadas à participação real em plataformas de cripto".

A Coinbase e a Superstate lançarão o Coinbase Stablecoin Yield Fund (CUSHY) no segundo trimestre de 2026, visando investidores institucionais com estratégias de crédito denominadas em stablecoin. Este será o primeiro fundo externo emitido através da plataforma FundOS da Superstate, utilizando uma classe de ações tokenizadas. A estrutura de veículo de fundo regulamentado é a resposta da Coinbase ao CLARITY Act, que proíbe o rendimento de stablecoin que seja "econômica ou funcionalmente equivalente" a juros de depósito, mas permite arranjos de recompensa legítimos através de veículos de fundo regulamentados. O endosso da Coinbase ao CLARITY Act um dia antes do anúncio do CUSHY sinaliza um posicionamento coordenado entre o compromisso legislativo e o lançamento do produto.

A BlackRock protocolou uma carta de 17 páginas no último dia do prazo de 60 dias da OCC, manifestando oposição a um limite proposto de 20% para ativos de reserva tokenizados de emissores de stablecoins, conforme previsto na Lei GENIUS. Essa restrição impactaria diretamente produtos como o BUIDL, que lastreia mais de 90% do USDtb da Ethena e do JupUSD da Jupiter. Na mesma carta, a BlackRock solicitou à OCC a confirmação de que os ETFs de títulos do Tesouro se qualificam como reservas e a inclusão de notas do Tesouro de taxa flutuante de dois anos na lista de ativos elegíveis. A empresa argumenta que os riscos reais dos ativos de reserva estão relacionados à liquidez, duration e qualidade de crédito, e não ao fato de serem ou não tokenizados.

A redação final sobre stablecoins da CLARITY Act, agora encaminhada para a revisão do Comitê Bancário do Senado sob os Senadores Tillis e Alsobrooks, proíbe que provedores de serviços de ativos digitais, incluindo exchanges, corretoras e afiliadas, paguem juros ou rendimento sobre payment stablecoins. A lei inclui um teste "economicamente ou funcionalmente equivalente" para fechar soluções indiretas. Os bancos garantiram concessões reais com esta medida: plataformas centralizadas perdem o caminho direto para o rendimento, e novos requisitos de conformidade e divulgação adicionam overhead. No entanto, a proibição deixa intocados os protocolos DeFi, emissores estrangeiros e a migração de liquidação de dólar para as rails onchain. Isso significa que a disputa de infraestrutura para o movimento de dólar programável continua ocorrendo fora do perímetro regulatório que os bancos acabaram de reforçar.

As stablecoins processaram US$ 46 trilhões em transações em 2025, superando em três vezes o volume anual de US$ 16 trilhões da Visa. O GENIUS Act, assinado em 18 de julho, formalizou-as como instrumentos de pagamento, estabelecendo requisitos de reserva de 1:1 e permitindo que bancos as emitam e liquidem. Quatro protocolos competem atualmente pelos payment rails para agentes de IA: o x402 da Coinbase, o ACP da Stripe/OpenAI (que impulsiona o ChatGPT Instant Checkout), o AP2 do Google e o MPP da Stripe/Tempo. Segundo a Artemis, o x402 processa um volume diário de aproximadamente US$ 50.000. A projeção é que a oferta de stablecoins atinja US$ 420 bilhões até o final do ano, com os pagamentos de agentes sendo o principal impulsionador.

A segurança em DeFi enfrenta ameaças existenciais à medida que a IA diminui os custos de exploração. Esta proposta introduz uma camada de seguro baseada no uso e uma economia white-hat financiada para mitigar o risco sistêmico. Esses mecanismos visam restaurar a confiança da indústria e proteger os protocolos Ethereum de hacks catastróficos, incentivando a descoberta proativa de vulnerabilidades e a recuperação financeira.

No dia do TGE (Token Generation Event) da MegaETH, em 30 de abril, a DEX líder Kumbaya aplicou uma taxa de 1% em seu pool MEGA/USDM e reteve 50% desse valor. Isso contrasta com o padrão da indústria de captura de taxas de 15-25% e com os US$0,75 cobrados pela Prism sobre uma taxa de 0,3%. A estrutura de taxas da Kumbaya não estava listada no DefiLlama e carecia de documentação pública. Somente após o questionamento dos usuários, foi prometida a disponibilização da documentação para o dia seguinte, o que impediu os traders de comparar os custos no dia de maior volume da rede até então.

🤖 CEVIU Fintech

O Universal Commerce Protocol (UCP) emerge como o primeiro padrão setorial para o comércio agentic, permitindo que agentes de IA interajam diretamente com os sistemas dos varejistas, ao mesmo tempo em que preservam o controle dos varejistas sobre o checkout e os dados do cliente. Experimentos iniciais demonstram que experiências de IA controladas pelos varejistas superam significativamente os fluxos de checkout nativos de LLM em termos de conversão. Isso reforça a ideia de que os agentes são uma camada de descoberta, e não o ponto de venda. Embora a adoção ainda esteja em estágio inicial, o UCP posiciona o ecossistema para um comércio interoperável e impulsionado por agentes em escala.

Um grupo de ex-analistas de Wall Street transformou a frustração com o trabalho repetitivo em operações em uma startup de rápido crescimento que automatiza tarefas essenciais de banco de investimento usando IA. A plataforma da empresa pode gerar pitch decks, executar análises financeiras complexas e produzir pesquisas, ajudando grandes bancos e empresas de private equity a reduzir horas de trabalho manual e, ao mesmo tempo, escalar a produção.

Um avanço entre empresas cripto e bancos sobre como as recompensas de stablecoin devem ser gerenciadas está ajudando a reativar a legislação dos EUA que estava parada, visando regulamentar os ativos digitais. O acordo introduz limites mais rígidos para as recompensas, mas preserva a capacidade dos usuários de obter rendimento através do uso real da plataforma, abordando uma das questões mais controversas que impediam o progresso. Se o ímpeto for mantido, o projeto de lei mais amplo poderá avançar em breve no Senado e finalmente esclarecer como os reguladores dividirão a supervisão da indústria cripto.

Visa e Mastercard registraram um crescimento mais lento devido a uma queda nas viagens internacionais, ligada a tensões geopolíticas. No entanto, ambas as empresas estão investindo em stablecoins e agentic commerce como futuros motores de crescimento. A aquisição da BVNK pela Mastercard, no valor de US$ 1,8 bilhão, reforça sua estratégia de conectar sistemas fiat e blockchain. A Visa, por sua vez, espera que os pagamentos com stablecoin espelhem a economia atual dos cartões. Apesar da pressão macroeconômica de curto prazo, ambas as redes veem os ativos digitais e novos modelos de pagamento como cruciais para a expansão a longo prazo.

Pesquisas indicam que os altos custos dos pagamentos transfronteiriços são uma barreira significativa que impede a força de trabalho digital da África de participar plenamente da economia global. Reduzir esses atritos em 50% poderia gerar até 1,1 milhão de empregos remotos e impulsionar consideravelmente a receita de exportação, à medida que a infraestrutura fintech melhora a velocidade, o custo e a confiabilidade dos pagamentos. A oportunidade destaca os pagamentos como um facilitador central dos mercados de trabalho globais, não apenas como meras transações financeiras.

A Billtrust está aplicando IA para automatizar e otimizar contas a receber, enquadrando os pagamentos B2B como um problema complexo de ciência de dados multipartes, envolvendo compradores, fornecedores e bancos. Sua plataforma foca em fluxos de trabalho baseados em agentes, como comunicações automatizadas, otimização de pagamentos e, eventualmente, operações autônomas sob regras predefinidas. Essa mudança reflete uma demanda mais ampla por eficiência orientada por IA no setor financeiro, especialmente para grandes empresas que gerenciam altos volumes de faturas e dinâmicas de pagamento complexas.

Um banco challenger do Reino Unido está testando um sistema de IA que pode processar solicitações de empréstimo não estruturadas e fornecer decisões de crédito em minutos, sem intervenção humana. Pilotos iniciais mostram que cerca de metade das aplicações são totalmente gerenciadas de ponta a ponta, com as decisões sendo retornadas em aproximadamente 12 minutos, em vez de dias ou semanas, visando um segmento que os bancos tradicionais frequentemente evitam devido à sua complexidade.

A Blackstone está reestruturando-se para criar a Blackstone N1, uma nova divisão focada em investimentos em IA, incluindo empresas como OpenAI e Anthropic, ao mesmo tempo em que incorpora sua unidade de growth equity com desempenho abaixo do esperado. O grupo centralizará a estratégia de IA em private equity, growth e tactical opportunities, refletindo o papel da IA como um motor principal de retornos, especialmente em data centers e infraestrutura. A iniciativa sinaliza uma mudança mais ampla entre grandes gestoras de ativos para tratar a IA como uma vertical de investimento independente, e não apenas um subconjunto de tecnologia.

🔐 CEVIU TI

O Pentágono firmou acordos com Google, Microsoft, AWS, Nvidia, OpenAI, Reflection e SpaceX para integrar capacidades de IA em redes militares classificadas. Essa iniciativa demonstra a rapidez com que os fornecedores de infraestrutura e modelos de IA estão se tornando parte dos sistemas de segurança nacional.

A AWS está se preparando para uma demanda crescente por sistemas IA agentic, após seu acordo de infraestrutura com a OpenAI. O CEO Andy Jassy afirmou que a empresa continuará investindo pesadamente em infraestrutura de compute. Este acordo reforça a posição da AWS enquanto as empresas repensam suas estratégias multicloud de IA.

Os agentes de IA estão impulsionando as empresas a redesenhar a forma como o trabalho é executado, e não apenas a automatizar tarefas isoladas. Essa mudança aumenta a pressão sobre os executivos para esclarecer onde os humanos agregam julgamento especializado e onde os sistemas autônomos podem assumir operações repetíveis.

A postura do Google em relação ao trabalho de defesa mudou drasticamente desde a reação negativa ao Project Maven, com a empresa agora participando de esforços de IA para o Pentágono e segurança nacional. A conclusão mais ampla é que os principais laboratórios de IA e provedores de nuvem estão cada vez mais vinculados à infraestrutura governamental e de defesa.

A Cognizant concordou em adquirir a Astreya por cerca de US$ 600 milhões, visando fortalecer sua infraestrutura de IA e serviços de data center. O acordo reflete a crescente demanda por empresas de serviços capazes de dar suporte a laboratórios de IA, ambientes de automação e à modernização da infraestrutura corporativa.

A Gartner projeta que os gastos globais em TI atingirão US$ 6,31 trilhões em 2026, com a demanda por nuvem de hyperscalers impulsionando um aumento de mais de 50% nos investimentos em data centers. A infraestrutura de IA continua a remodelar os orçamentos de TI, especialmente em torno de compute, cloud e capacidade de data centers.

✂️ CEVIU Dados

O Pinterest desenvolveu o Feature Trimmer para remover dinamicamente features de baixo valor ou redundantes de requisições de treinamento e inference de ML em larga escala. Essa ferramenta reduz drasticamente o uso e o custo da largura de banda da rede, enquanto mantém o desempenho do modelo. O Feature Trimmer combina uma análise offline de importância de features com uma lógica de trimming online, resultando em uma redução substancial da largura de banda da rede e melhoria na latency do lado do cliente.

A Grab está operacionalizando a certificação de data mesh por meio de um grafo de metadados event-driven, construído sobre o DataHub. Essa abordagem é suportada por eventos de metadados baseados em Kafka, que alimentam o DataHub Actions para certificação contínua. Para os fluxos de trabalho de validação, a empresa utiliza o Temporal, enquanto eventos de conclusão de pipeline do Airflow e Lighthouse são empregados para acionar verificações de qualidade automatizadas. A premissa fundamental é que a confiança não é atribuída manualmente, mas sim calculada a partir de dados em tempo real sobre propriedade, linhagem, contratos, SLAs e a saúde dos testes. Além disso, as regras de contrato são diretamente vinculadas a endpoints de saúde concretos, garantindo uma validação contínua e automatizada.

A Faire reconstruiu seu stack de ranqueamento de busca, migrando do XGBoost para deep learning, a fim de otimizar melhor objetivos concorrentes como relevância, atualidade, descoberta de marcas e consistência entre superfícies. Essa migração exigiu a reestruturação dos pipelines de dados, da observability e do serviço em produção, incluindo uma infraestrutura customizada baseada em Docker, embeddings em memória compartilhada e sandboxing de CPU. Essas mudanças reduziram a latência de startup de 20-30 minutos para apenas alguns minutos. O novo stack resultou em ganhos mensuráveis, como um aumento de aproximadamente 2% no volume de pedidos na Busca de Produtos.

A IA está se tornando útil para a engenharia de analytics não substituindo o julgamento humano, mas eliminando o trabalho de auditoria repetitivo em torno da validação. O melhor padrão são os workflows assistidos por agentes, com foco em evidências, onde a IA executa verificações, investiga mudanças, demonstra seu trabalho, e os humanos ainda decidem o que é aceitável.

Frequentemente, o aconselhamento em engenharia de dados falha porque é concebido para um de cinco modelos operacionais distintos: equipes de analytics em estilo startup, ambientes corporativos legados, sistemas de produto/dados críticos para resultados, negócios regulados ou organizações de plataforma/data mesh. Cada um desses modelos possui prioridades diferentes — como velocidade, estabilidade, impacto, auditabilidade ou adoção —, e práticas que são consideradas "melhores" em um contexto podem se mostrar perigosas em outro. É crucial classificar seu ambiente antes de aplicar qualquer orientação, garantindo que as práticas de arquitetura, governança e entrega estejam alinhadas às restrições reais de cada cenário.

A Meta desenvolveu um "Segundo Cérebro" de IA interno para auxiliar seus profissionais do conhecimento a encontrar, sintetizar e raciocinar rapidamente sobre grandes volumes de informações e documentos internos da empresa. O sistema combina Geração Aumentada por Recuperação (RAG), busca avançada e capacidades baseadas em agentes, com atenção cuidadosa à privacidade, precisão e controles de nível empresarial.

A maioria dos sistemas RAG falha em produção porque as equipes implementam de forma rígida um vector DB, um modelo de embedding e uma estratégia de chunking sem observability ou avaliações repetíveis. O Weave CLI soluciona esse problema ao unificar 11 databases de vector, 5 provedores de embedding e agentes intercambiáveis em uma única interface configurável. Além disso, OpenTelemetry e Opik tracing são incorporados desde o primeiro dia.

O Polars oferece suporte robusto e integrado para a evolução de schema, lidando com alterações como a adição ou remoção de colunas, desvios de tipo (type drifts) e modificações que podem causar quebras (breaking changes). Para garantir que os pipelines não sejam interrompidos por mudanças nos schemas a montante (upstream), é possível configurar o Polars, dependendo do formato de dados, utilizando parâmetros específicos como `missing_columns="insert"`, `schema_mode="merge"`, `ScanCastOptions` e a concatenação `diagonal_relaxed`.

Apache Fluss é um "Kafka indexável" que combina ingestão de streaming horizontalmente escalável com armazenamento colunar, tabelas com chave primária, CDC e tiering opcional para S3 ou formatos de lakehouse como Iceberg e Paimon. Ele promete simplificar significativamente as cargas de trabalho de streaming com estado e lookup. Em produção no EKS, a integração com Flink requer a resolução de várias questões, como a ausência de JARs de conector, problemas de credencial/delegation-token do S3 e dependências adicionais. Apesar de seu potencial, o uso em produção da versão 0.9 ainda exige ajustes operacionais cuidadosos.

TurboQuant é um algoritmo de quantization e compressão projetado para caches Key-Value (KV) em grandes modelos de linguagem e sistemas de busca vector. Ele emprega o PolarQuant para inicialmente mapear vectors em coordenadas polares. Em seguida, aplica o QJL (Quantized Johnson-Lindenstrauss), que realiza uma correção mínima de 1 bit para eliminar vieses ocultos. Este processo permite uma compressão de até aproximadamente 3 bits por valor, com perda de precisão praticamente inexistente.

Plataformas de dados em nuvem como Snowflake, BigQuery, Redshift e Databricks tornaram o ELT o padrão, pois é mais simples, mais rápido para iterar e permite que as equipes utilizem o poder computacional escalável do data warehouse para as transformações.

A Neo4j lançou uma primeira leva de Agent Skills para manter agentes de codificação atualizados com o Cypher 25 e a sintaxe recente alinhada ao GQL, incluindo SHORTEST 3, REPEATABLE ELEMENTS, quantified path patterns e path projections.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser