O Traceroute funciona enviando pacotes com valores de TTL crescentes, fazendo com que cada roteador os descarte em sequência e retorne uma mensagem ICMP de "Time Exceeded". Isso revela o IP de cada hop até que o destino responda com uma mensagem ICMP diferente. Ao repetir este processo com múltiplas sondas e medir os tempos de resposta, o Traceroute mapeia o caminho e a latência do tráfego de rede, embora lacunas possam ocorrer quando os roteadores não enviam respostas.

CEVIU News - CEVIU DevOps - 10 de abril de 2026
🗺️ CEVIU DevOps
Databricks lançou o suporte em public preview para o Iceberg v3, que introduz Row Lineage para rastreamento de mudanças nos dados, Deletion Vectors para atualizações e deleções 10 vezes mais rápidas, e um tipo VARIANT para consulta de dados semi-estruturados sem imposição de schema. Essa atualização elimina o tradeoff de performance entre Delta Lake e Iceberg através da governança cross-engine do Unity Catalog, permitindo que as equipes escrevam dados uma vez e os leiam em múltiplas plataformas como Snowflake, BigQuery e Redshift sem replicação.
Pulumi agora oferece suporte a Bun como um runtime totalmente compatível, não apenas como um gerenciador de pacotes, a partir da versão 3.227.0. Isso permite que desenvolvedores executem programas Pulumi completos configurando `runtime: bun` no arquivo Pulumi.yaml, eliminando a necessidade de Node.js. A integração proporciona instalação de pacotes mais rápida e suporte nativo para TypeScript. No entanto, atualmente não há suporte para policy packs, serialização de funções ou componentes multi-linguagem, cenários para os quais alguns projetos ainda podem precisar de Node.js.
O Ingress NGINX atingiu o fim de vida (EOL) em março, exigindo que as organizações migrem urgentemente para a Kubernetes Gateway API. Esta necessidade surge devido a vulnerabilidades críticas, como CVE-2026-24512 e CVE-2026-3288, que agora não possuem mais correções suportadas. O artigo oferece um guia técnico de migração que aborda a seleção de controllers, o rastreamento de performance de baseline, estratégias de deployment paralelo e procedimentos de cutover de DNS, visando auxiliar as equipes na transição segura do controller de ingress depreciado.
Amazon S3 Files é uma nova funcionalidade que permite que qualquer bucket S3 seja montado e acessado como um sistema de arquivos completo diretamente de instâncias EC2, containers ou funções Lambda. Ele oferece latências de aproximadamente 1ms para dados ativos e sincronização bidirecional automática entre o sistema de arquivos e o bucket S3. O serviço está agora disponível em todas as Regiões AWS comerciais e elimina o dilema tradicional entre os benefícios do armazenamento de objetos do S3 e as capacidades interativas dos sistemas de arquivos, tornando-o particularmente útil para workloads colaborativos, como agentes de IA e pipelines de treinamento de ML, que exigem acesso compartilhado e de baixa latência aos dados do S3.
A PostHog resolveu grandes picos de latência ao identificar que tarefas Rayon CPU-bound estavam bloqueando os threads de I/O assíncronos do Tokio, causando throttling no scheduler e travamentos na aplicação, em vez de um problema de banco de dados.
A Meta evitou a "armadilha do fork" ao substituir uma ramificação divergente do WebRTC por uma arquitetura dual-stack, utilizando uma camada de shim que permite que versões legadas e upstream coexistam. Isso possibilitou testes A/B seguros e atualizações contínuas. Combinado com um sistema de feature-branch para o gerenciamento de patches, essa abordagem resultou em melhorias de performance, redução do tamanho do binário e aumento da segurança. Permitiu também um alinhamento contínuo com as releases upstream, eliminando a necessidade de migrações repetidas e custosas.
A Netflix reduziu uma carga massiva de queries redundantes no Apache Druid ao introduzir um caching com reconhecimento de intervalo (interval-aware caching). Essa nova estratégia reutiliza resultados pré-computados e segmentados por tempo (time-bucketed), consultando apenas dados recentes e utilizando TTLs exponenciais que refletem a frescura dos dados. A abordagem troca uma mínima desatualização (staleness) por ganhos significativos de eficiência. Isso resultou na redução do volume de queries, melhoria da latência e na mudança do scaling de infraestrutura de compute cara para uma infraestrutura de cache mais econômica.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
