A plataforma de perguntas e respostas com IA do Notion escalou para milhões de usuários ao evoluir sua arquitetura de busca vetorial por meio de dupla ingestão, otimização de estado de página, migração para serverless e adoção do turbopuffer. Essas decisões resultaram em um aumento de 600 vezes no onboarding, redução de 60% nos custos de busca e melhoria da latência p50 para 50–70ms. Além disso, o uso do Ray e Anyscale levou a mais de 90% de redução nos custos de infraestrutura de embeddings. O sistema agora é mais simples, econômico e suporta recuperação de documentos semanticamente rica em tempo real e em escala empresarial.

CEVIU News - CEVIU Dados - 30 de março de 2026
⚡ CEVIU Dados
A adoção de IA é quase universal hoje em dia (99,5% usam ferramentas de IA, 82% diariamente ou mais), com o Claude dominando. No entanto, a IA não resolveu as partes realmente difíceis: sistemas legados, falta de liderança, requisitos inadequados, e modelagem de dados e camadas semânticas. A IA acelera a produção, mas corre o risco de criar mais dívida técnica e "pântanos de produção" se fundamentos como contexto, responsabilidade e arquitetura forem ignorados.
A EloElo desenvolveu um mecanismo de roteamento de tráfego de alto desempenho que atribui usuários a variantes de experimentos em tempo real, garante atribuição consistente onde necessário, acompanha métricas e suporta aumentos graduais de tráfego. A arquitetura evoluiu de uma V1 pesada em memória (Redis HashMaps) para uma V2 eficiente usando Redis BitFields (3 bits por usuário, particionada para escala), e uma V3 sem estado para experimentos não fixos.
Em vez de focar apenas no tempo de execução do banco de dados, a Datadog se concentrou na latência de consulta round-trip usando uma observabilidade personalizada para decompor essa latência em componentes. Isso revelou gargalos ocultos como contendas de conexão, picos de latência de rede e manipulação ineficiente de resultados.
Implementar um rastreamento detalhado, baseado em nós, dentro de workflows de extração em várias etapas, modelados como um ledger apenas com adição e serializável, permite visibilidade determinística em pipelines de dados movidos por LLM. Ao rastrear cada decisão, retry e roteamento de DLQ como nós distintos, não só se preservam cadeias causais e se permite a invalidação de cache eficiente e pormenorizada, como também se transforma a depuração e a capacidade de repetição, permitindo que as equipes auditem e executem novamente etapas de extração sem reprocessar o sistema inteiro.
A IA generativa torna o código mais acessível, mas o alinhamento arquitetural se torna um gargalo. A governança tradicional não escala. A solução é uma arquitetura declarativa, onde as decisões são codificadas como restrições legíveis por máquina, incorporadas no tooling de desenvolvimento e acessíveis a agentes. Isso desloca a governança da revisão humana para diretrizes automatizadas, permitindo equipes e agentes autônomos enquanto previne desvios. O caminho correto se torna o padrão, com "fatias" compostáveis para evolução segura.
A Fivetran está doando o SQLMesh, seu framework de transformação baseado em SQL adquirido com a Tobiko Data em setembro passado, para a Linux Foundation. O objetivo é promover uma governança neutra de fornecedor na camada de transformação. O SQLMesh introduz testes, versionamento e workflows similares ao Terraform para pipelines SQL. A estratégia visa moldar o padrão de infraestrutura de dados aberta, ao lado do dbt, e fomentar a adoção por meio da participação da comunidade.
Um pipeline modular e pronto para produção utilizando PyTorch DDP para treinamento multi-node e multi-GPU.
O LinkedIn desenvolveu agentes de IA para acelerar a experimentação de modelos e o trabalho de infraestrutura, focando na otimização de LLMs após o treinamento e na migração de grandes modelos do TensorFlow para o PyTorch. Seu principal agente, o Autopilot for Torch, gera códigos/configurações, executa verificadores automáticos para garantir correção (treinabilidade, estabilidade numérica e paridade de métricas) e recebe feedback estruturado para melhoria contínua.
Chaves primárias UUIDv4 aleatórias prejudicam o desempenho de bancos de dados ao causarem inserções aleatórias, divisões frequentes de páginas, fragmentação e cache ineficiente em motores de armazenamento B+ tree. IDs com ordem temporal (como UUIDv7/ULID) ou uma chave interna sequencial com um índice secundário de UUID restauram escritas sequenciais e melhoram significativamente a eficiência.
O Feast incorporou monitoramento ao feature server usando Prometheus e OpenTelemetry, tornando-o observável como qualquer API de produção. As equipes podem acompanhar latência, throughput, retrieval de features e saúde do sistema, permitindo SLOs adequados e alertas.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
