CEVIU News

CEVIU News - CEVIU Dados - 30 de março de 2026

11 notícias30 de março de 2026CEVIU Dados
Compartilhar:

CEVIU Dados

A plataforma de perguntas e respostas com IA do Notion escalou para milhões de usuários ao evoluir sua arquitetura de busca vetorial por meio de dupla ingestão, otimização de estado de página, migração para serverless e adoção do turbopuffer. Essas decisões resultaram em um aumento de 600 vezes no onboarding, redução de 60% nos custos de busca e melhoria da latência p50 para 50–70ms. Além disso, o uso do Ray e Anyscale levou a mais de 90% de redução nos custos de infraestrutura de embeddings. O sistema agora é mais simples, econômico e suporta recuperação de documentos semanticamente rica em tempo real e em escala empresarial.

A adoção de IA é quase universal hoje em dia (99,5% usam ferramentas de IA, 82% diariamente ou mais), com o Claude dominando. No entanto, a IA não resolveu as partes realmente difíceis: sistemas legados, falta de liderança, requisitos inadequados, e modelagem de dados e camadas semânticas. A IA acelera a produção, mas corre o risco de criar mais dívida técnica e "pântanos de produção" se fundamentos como contexto, responsabilidade e arquitetura forem ignorados.

A EloElo desenvolveu um mecanismo de roteamento de tráfego de alto desempenho que atribui usuários a variantes de experimentos em tempo real, garante atribuição consistente onde necessário, acompanha métricas e suporta aumentos graduais de tráfego. A arquitetura evoluiu de uma V1 pesada em memória (Redis HashMaps) para uma V2 eficiente usando Redis BitFields (3 bits por usuário, particionada para escala), e uma V3 sem estado para experimentos não fixos.

Em vez de focar apenas no tempo de execução do banco de dados, a Datadog se concentrou na latência de consulta round-trip usando uma observabilidade personalizada para decompor essa latência em componentes. Isso revelou gargalos ocultos como contendas de conexão, picos de latência de rede e manipulação ineficiente de resultados.

Implementar um rastreamento detalhado, baseado em nós, dentro de workflows de extração em várias etapas, modelados como um ledger apenas com adição e serializável, permite visibilidade determinística em pipelines de dados movidos por LLM. Ao rastrear cada decisão, retry e roteamento de DLQ como nós distintos, não só se preservam cadeias causais e se permite a invalidação de cache eficiente e pormenorizada, como também se transforma a depuração e a capacidade de repetição, permitindo que as equipes auditem e executem novamente etapas de extração sem reprocessar o sistema inteiro.

A IA generativa torna o código mais acessível, mas o alinhamento arquitetural se torna um gargalo. A governança tradicional não escala. A solução é uma arquitetura declarativa, onde as decisões são codificadas como restrições legíveis por máquina, incorporadas no tooling de desenvolvimento e acessíveis a agentes. Isso desloca a governança da revisão humana para diretrizes automatizadas, permitindo equipes e agentes autônomos enquanto previne desvios. O caminho correto se torna o padrão, com "fatias" compostáveis para evolução segura.

A Fivetran está doando o SQLMesh, seu framework de transformação baseado em SQL adquirido com a Tobiko Data em setembro passado, para a Linux Foundation. O objetivo é promover uma governança neutra de fornecedor na camada de transformação. O SQLMesh introduz testes, versionamento e workflows similares ao Terraform para pipelines SQL. A estratégia visa moldar o padrão de infraestrutura de dados aberta, ao lado do dbt, e fomentar a adoção por meio da participação da comunidade.

O LinkedIn desenvolveu agentes de IA para acelerar a experimentação de modelos e o trabalho de infraestrutura, focando na otimização de LLMs após o treinamento e na migração de grandes modelos do TensorFlow para o PyTorch. Seu principal agente, o Autopilot for Torch, gera códigos/configurações, executa verificadores automáticos para garantir correção (treinabilidade, estabilidade numérica e paridade de métricas) e recebe feedback estruturado para melhoria contínua.

Chaves primárias UUIDv4 aleatórias prejudicam o desempenho de bancos de dados ao causarem inserções aleatórias, divisões frequentes de páginas, fragmentação e cache ineficiente em motores de armazenamento B+ tree. IDs com ordem temporal (como UUIDv7/ULID) ou uma chave interna sequencial com um índice secundário de UUID restauram escritas sequenciais e melhoram significativamente a eficiência.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser