A Netflix escalou suas operações de live streaming de um único programa por mês em 2023 para mais de 400 eventos em 2026, incluindo a transmissão de 70 eventos ao vivo apenas em março e atingindo 17,9 milhões de espectadores simultâneos em um jogo do World Baseball Classic no Japão. A empresa construiu uma infraestrutura operacional completa do zero. Isso envolveu uma evolução, partindo de engenheiros monitorando laptops em salas de reunião para o estabelecimento de Broadcast Operations Centers dedicados e um Live Command Center que processa até 38 milhões de eventos por segundo. Além disso, foram desenvolvidos papéis especializados, como operadores do Transmission Operations Center e Live Technical Launch Managers, para gerenciar múltiplos streams simultâneos.
CEVIU News
As melhores notícias de tecnologia, curadas diariamente para quem vive tech.
292 notícias encontradas
Docker Sandboxes apresenta um novo sistema de isolamento baseado em microVMs, fornecendo a cada agente de codificação de IA seu próprio kernel e um daemon Docker privado. Essa abordagem elimina as vulnerabilidades de segurança inerentes às configurações Docker-in-Docker. A empresa desenvolveu um monitor de máquina virtual (VMM) multiplataforma personalizado, executado nativamente em macOS, Windows e Linux. Isso permite cold starts rápidos, garantindo que os desenvolvedores não precisem comprometer segurança por performance.
O Datadog Database Monitoring para ClickHouse oferece visibilidade unificada da performance de queries, utilizando métricas agregadas e amostras de queries para identificar consultas dispendiosas e analisar o impacto na workload.
Cloudflare Artifacts, atualmente em beta privado, é um sistema de arquivos distribuído e versionado que funciona como um sistema de repositório compatível com Git, projetado especificamente para agentes de IA. Ele permite a criação programática de milhões de repositórios via uma REST API e roda em Durable Objects, utilizando um servidor Git customizado escrito em Zig e compilado para um binário WebAssembly de aproximadamente 100KB. A Cloudflare também está disponibilizando o ArtifactFS como open-source, um driver de sistema de arquivos capaz de montar grandes repositórios Git em segundos, realizando clones blobless e hidratando o conteúdo dos arquivos sob demanda. A empresa planeja cobrar US$ 0,15 por 1.000 operações e US$ 0,50 por GB/mês de armazenamento quando o serviço sair do beta, previsto para o início de maio.
A Vercel reportou um incidente de segurança envolvendo acesso não autorizado a alguns sistemas internos. O incidente foi rastreado até um aplicativo OAuth do Google Workspace de uma ferramenta de IA de terceiros comprometida. A empresa está investigando ativamente com especialistas externos e colaborando com os clientes afetados. Embora os serviços permaneçam operacionais, os usuários são aconselhados a revisar logs, rotacionar quaisquer segredos potencialmente expostos, proteger os deployments e verificar indicadores de comprometimento.
A Cloudflare lançou isitagentready.com e novos dados do Radar para medir a adoção de padrões de agentes de IA, revelando uma baixa prontidão com suporte mínimo para protocolos emergentes. A ferramenta pontua os sites em termos de descoberta, conteúdo, controle de acesso e capacidades, ao mesmo tempo que oferece soluções acionáveis e recursos de escaneamento compatíveis com agentes.
Cloudflare Flagship é um serviço de feature flag edge-native construído sobre OpenFeature, que permite a implantação autônoma e segura de código orientado por IA, através de rollouts controlados e avaliação local. O serviço resolve problemas de latência e escalabilidade, utilizando Workers, KV e Durable Objects para uma gestão de flags rápida e distribuída, sem dependências externas.
A Extensão OpAMP Gateway da Bindplane permite o gerenciamento de fleets em ambientes segmentados ou com firewall e melhora a escalabilidade ao consolidar as conexões de agentes. Ela expande as capacidades de control plane do OpAMP e pode ser contribuída para o projeto OpenTelemetry.
Flaky tests em pipelines de CI são frequentemente ignorados porque reproduzir e corrigir esses testes é demorado, causando desperdício de horas de desenvolvedores, recursos de CI e a perda de detecção de falhas reais.
A OpenAI lançou atualizações importantes para seu Agents SDK, que oferecem aos desenvolvedores uma infraestrutura padronizada para construir agentes de IA, com novas capacidades de execução em sandbox, ferramentas de filesystem e integrações com sete provedores de sandbox, incluindo E2B, Modal e Vercel.
O GitHub Copilot melhora a cobertura de testes ao gerar testes unitários a partir do código existente, reduzindo o esforço manual e transformando os testes em um workflow integrado que fortalece a confiabilidade por meio da criação mais rápida de casos de teste significativos e que cobrem branches.
O Rust 1.95.0 introduz funcionalidades como a macro cfg_select! para uma configuração em tempo de compilação mais limpa e um pattern matching aprimorado com if let guards em match, melhorando a expressividade e a ergonomia. A versão também estabiliza diversas APIs e métodos de coleção mutáveis, reforçando o foco do Rust em safety, performance e produtividade do desenvolvedor.
O Project Think é um SDK de agente de próxima geração que introduz primitivas como execução durável, sub-agentes, execução de código em sandbox e sessões persistentes. O objetivo é permitir agentes de IA de longa duração que não custam nada quando ociosos e escalam automaticamente, resolvendo o desafio econômico de executar milhões de sessões de agentes simultâneas que seriam insustentáveis aos custos atuais por container. A plataforma é construída sobre os Durable Objects da Cloudflare para dar a cada agente sua própria identidade e banco de dados SQLite. Novos recursos como Dynamic Workers (100x mais rápido que containers), resolução de npm em runtime e extensões auto-escritas permitem que os agentes criem suas próprias ferramentas e operem através de uma "escada de execução" de cinco níveis, desde operações de sistema de arquivos até acesso total ao sistema operacional.
O balanceamento de carga para grandes modelos de linguagem (LLM) exige estratégias de roteamento cientes de cache especializadas. Abordagens tradicionais round-robin podem degradar as taxas de acerto do cache de prompt de 50-90% para apenas 1/N em N réplicas, anulando os benefícios de custo e latência. Uma nova técnica, chamada roteamento preciso ciente de cache de prefixo — que utiliza árvores radix e eventos de cache KV em tempo real de motores de inference — pode melhorar o throughput em até 108% em comparação com o balanceamento de carga padrão do Kubernetes. Isso é alcançado garantindo que as requisições atinjam servidores que já possuem o histórico de conversação relevante em cache.
O Duolingo migrou mais de 500 serviços de backend do AWS ECS para Kubernetes usando EKS, adotando GitOps com Argo CD, pods exclusivamente IPv6 e uma arquitetura celular para isolar ambientes, enquanto apoiava as equipes de produto por meio de migrações faseadas e automatizadas.
O AWS Interconnect é um serviço gerenciado que oferece conexões privadas e de alta velocidade entre a AWS e outros provedores de cloud (iniciando com Google Cloud, e Azure e Oracle Cloud a partir de 2026), além de redes on-premises através de parceiros como a Lumen. O serviço provisiona automaticamente conexões redundantes com criptografia MACsec em múltiplas instalações, eliminando a configuração manual de túneis VPN e de network fabrics de terceiros que as empresas precisavam gerenciar antes.
A Grafana Labs destaca estratégias práticas de observability em Go, enfatizando a importância de iniciar com logs, evoluir para métricas, tracing e profiling, e utilizar ferramentas como pprof e eBPF para depurar sistemas complexos. A discussão ressalta a importância do contexto, das compensações no tratamento de erros e da escolha das técnicas adequadas à medida que a complexidade do sistema aumenta.
A Docker e a Arm lançaram uma cadeia de 7 ferramentas MCP (Model Context Protocol) que permite analisar Hugging Face Spaces para compatibilidade Arm64 em cerca de 15 minutos. Esta solução aborda um problema de deployment que afeta aproximadamente 80% dos Spaces baseados em Docker que nunca foram testados em hardware Arm.
O code review tradicional é inadequado para projetos de machine learning por não contemplar o contexto de dados, suposições e comportamento do sistema. Isso resulta em problemas que passam despercebidos, mesmo com código limpo. Revisões sensíveis ao contexto melhoram a confiabilidade ao integrar a intenção, a consistência dos dados e os casos de borda ao processo de avaliação.
Rastreadores de IA geram tráfego de alto volume, diverso e ineficiente, o que aumenta as ocorrências de cache miss em CDNs, degrada o desempenho e eleva a carga nos servidores de origem, em comparação com o tráfego humano. A Cloudflare propôs estratégias de cache cientes de IA, incluindo separação de tráfego e novos algoritmos de cache, visando equilibrar o desempenho ao suportar tanto requisições de IA quanto humanas.
