O Pinterest desenvolveu um modelo de retrieval two-tower dedicado para gerar candidatos a anúncios de compras mais eficazes, otimizados para conversões offsite. Essa abordagem supera os sinais tradicionais baseados em cliques e engajamento, que, embora abundantes, possuem baixa correlação com a intenção real de compra. O sistema utiliza uma arquitetura unificada multi-tarefa, incorporando camadas cruzadas paralelas DCN v2 e MLP, e emprega técnicas de treinamento inovadoras para lidar com dados de conversão esparsos e ruidosos, juntamente com uma função de perda aplicada em nível de anunciante.

CEVIU News - CEVIU Dados - 30 de abril de 2026
🎯 CEVIU Dados
A Vinted reconstruiu seu sistema de autocompletar busca, transicionando de sugestões estáticas e genéricas para uma abordagem híbrida. Esta nova abordagem combina um robusto modelo de pontuação heurística com um modelo Learning-to-Rank (LTR). As sugestões são pontuadas offline utilizando popularidade, taxa de sell-through e sinais de uso, e indexadas com técnicas inteligentes de prefix e fuzzy matching. Posteriormente, um modelo LightGBM é aplicado em tempo real, incorporando o comportamento e o contexto do usuário para re-rankear os resultados.
O Shopify Flow emprega um agente de IA que capacita os comerciantes a construir fluxos de automação utilizando linguagem natural, eliminando a necessidade de regras complexas. A Shopify aprimorou notavelmente este agente ao aplicar fine-tuning em um modelo de código aberto menor, utilizando dados específicos do domínio do Flow. Essa otimização resultou em uma precisão substancialmente maior, menor latência e custos reduzidos em comparação com modelos de propósito geral de grande porte.
Skipper é um engine de workflow leve e embarcado, projetado para oferecer execução durável e confiável para processos de negócio de longa duração, como sinistros de seguro e pagamentos. Em vez de depender de ferramentas de orquestração externas ou filas, o Skipper utiliza uma abordagem simples baseada em anotações para persistir o estado no banco de dados existente do serviço e alcança durabilidade por meio de um replay determinístico.
GraphRAG é mais eficaz quando as perguntas exigem raciocínio multi-hop através de documentos, relacionamentos entre entidades ou dependências de nível de sistema. Para buscas factuais simples, o Vector RAG é mais adequado, reservando o GraphRAG como um backend opcional para cenários mais complexos. Em um ambiente de produção, os principais desafios do GraphRAG incluem o alto custo de indexação, a dificuldade em realizar atualizações, a complexidade da avaliação multi-camadas e a necessidade de infraestrutura que geralmente opera com jobs em batch, em vez de execução direta no caminho da requisição. Para um uso bem-sucedido, é crucial definir um escopo de grafo seletivo, estabelecer políticas de atualização explícitas, garantir avaliações repetíveis e manter forte observability com rigorosos controles de custo.
As falhas em testes A/B são muito mais frequentemente causadas por infraestrutura deficiente e práticas de experimentação ruins do que pelas ideias sendo testadas. Falhas comuns incluem o Sample Ratio Mismatch (SRM) devido a randomização inadequada, early peeking que inflaciona falsos positivos, poder estatístico insuficiente e a otimização de métricas incorretas sem os devidos guardrails, levando a resultados enganosos.
As Atualizações HOT no PostgreSQL são uma otimização de armazenamento inteligente que permite que operações de UPDATE em colunas não indexadas evitem tocar os índices inteiramente, desde que a nova tupla se encaixe na mesma página que a antiga. Em vez de criar novas entradas de índice, o PostgreSQL marca a tupla antiga como HOT_UPDATED e posiciona uma tupla HEAP_ONLY na mesma página, formando uma cadeia que as varreduras podem seguir. Este mecanismo resulta em uma redução do tráfego de WAL, da manutenção de índices e do overhead de vacuuming.
As Materialized Tables no Apache Flink permitem que os usuários definam uma tabela diretamente com sua query de população, fazendo o embedding tanto do schema quanto da lógica de atualização contínua ou agendada dentro do catálogo. Isso simplifica os pipelines de ETL ao gerenciar automaticamente o ciclo de vida do job, a evolução do schema e as atualizações.
Uma arquitetura client-side utiliza SQLite compilado para WebAssembly no navegador, com o banco de dados persistido como um único arquivo binário no Google Drive do usuário. Em comparação com IndexedDB ou camadas de sincronização proprietárias, essa abordagem oferece verdadeira portabilidade e privacidade dos dados: o arquivo pode ser aberto em qualquer ferramenta SQLite, enquanto o acesso ao Drive é limitado via o escopo drive.file. O estado local é gravado no localStorage após cada mutação, a sincronização com o Drive é 'debounced' por 10 segundos, e a resolução de conflitos prioriza o Drive como fonte da verdade.
Sistemas de recomendação em tempo real precisam agora combinar features contextuais ricas com latência inferior a 100 ms em escala, frequentemente abrangendo bilhões de registros de interação. Para isso, feature stores atuam como a camada de consistência entre o treinamento offline e o serving online, reduzindo o training-serving skew, enquanto plataformas de batch computam features e embeddings de alto custo. O Redis é utilizado para busca de similaridade de vetores com baixa latency, retrieval de candidatos e caching de filtros de elegibilidade, mantendo os caminhos de requisição rápidos e eficientes.
O Service Telemetry Analyzer da Expedia emprega LLMs, combinados com dados de telemetria do Datadog, para agilizar a investigação de incidentes e diminuir o tempo de identificação e recuperação.
O Linux 7.0 acidentalmente cortou pela metade o desempenho do PostgreSQL porque uma mudança de agendamento aumentou o tempo de retenção dos spinlocks durante as falhas de página de memória, gerando um desperdício massivo de CPU. A solução encontrada para o problema é a migração para huge memory pages.
Receba as melhores notícias de tech
Conteúdo curado diariamente, direto no seu e-mail.
