Todas as notícias

CEVIU Dados

Big data, ciência de dados e engenharia de dados

139 notícias

Mover sistemas de IA autônoma de demonstrações impressionantes para uma produção confiável continua sendo mais difícil do que com o aprendizado de máquina tradicional. Os desafios são ampliados em áreas como coordenação, visibilidade, economia, testes e controle. Saídas probabilísticas dificultam testes determinísticos. LLM-as-judge e simulações ajudam, mas ainda necessitam de supervisão humana intensa e carecem de padronização.

O modelo holônico introduz uma arquitetura de quatro camadas para grafos de conhecimento RDF: interior, limite/membrana (via SHACL), projeção e contexto. Isso permite encapsulamento verdadeiro, governança de fronteiras e relacionamentos contextuais. Cada holon é uma entidade autossuficiente e parte de uma holarquia, facilitando consultas de multi-resolução, rastreamento de proveniência e autoridade federada. Portais habilitam a travessia controlada e anotada entre holons, resolvendo desafios de representação de contenção, autoridade e navegação que grafos RDF planos não conseguem abordar. Essa estrutura traz organização, escalabilidade e riqueza semântica cruciais para sistemas complexos de grafos multi-domínio.

O Discord doou seu poderoso motor de regras interno, Osprey, agora pronto para produção e melhorado pela comunidade, para o ROOST. Ele processa eventos de plataforma em tempo real, como logins e mensagens, para detectar ameaças instantaneamente. Avalia milhares de regras, sinaliza atividades suspeitas e apoia investigações com serviços de parceiros como Musubi e Zentropi.

O crescimento dos hyperscalers está próximo de seus limites de fluxo de caixa, incapaz de acompanhar o ritmo da demanda, tornando as neoclouds indispensáveis em um mercado estruturalmente limitado por oferta e geografia. A demanda por compute de IA fez com que o backlog do Azure aumentasse 1.150%, atingindo US$ 625 bilhões. Mesmo a Microsoft não consegue se autossuprir, promovendo parcerias rápidas com neoclouds como CoreWeave e Crusoe, cujos compromissos com GPUs já excedem US$ 131 bilhões. Grandes laboratórios de IA, como OpenAI e Anthropic, agora diversificam para além de dependências de uma única nuvem, enquanto as neoclouds fornecem 10% a 20% do capex de IA.

O Registro do Apache Airflow oferece um catálogo centralizado e pesquisável com 98 providers e mais de 1.600 módulos, incluindo operadores, hooks e módulos específicos para Amazon. Destaques incluem busca instantânea, páginas de providers com comandos de instalação com um clique, builders de conexão integrados gerando formatos URI, JSON ou Env Var, além de uma JSON API para integração programática com ferramentas e IDEs. Isso agiliza a descoberta, configuração e automação de módulos.

As cargas de trabalho de IA estão forçando uma convergência de domínios anteriormente separados (análises em tempo real, data warehousing e observability) em uma única plataforma de dados de alta concorrência e baixa latência. Isso ocorre porque sistemas antigos orientados por batch não conseguem lidar com rajadas de consultas interativas, grandes volumes de dados não amostrados ou atualizar em tempo real sem falhas.

A equipe de Analytics Data Warehouse da Grab implementou um sistema de IA multiagente capaz de resolver autonomamente até 40% das consultas de usuários repetitivas. Isso liberou centenas de horas de trabalho de engenharia mensalmente entre mais de 1.000 usuários e 15.000 tabelas. Agentes especializados substituem a triagem manual em tarefas que vão desde melhorias de código até investigações de linhagem de dados. Múltiplas camadas de proteção e um processo com supervisão humana garantem segurança, qualidade de dados e confiança dos usuários. ️

A Etsy migrou de um sistema legada de particionamento MySQL, que usava um banco de dados de índice não particionado como referência central para mais de 1.000 tabelas, para o Vitess. Com isso, eliminou o banco de dados de índice (ponto único de falha), automatizou o escalonamento, reduzindo-o de meses para dias, e abstraiu a complexidade do particionamento dos desenvolvedores. A equipe implementou índices personalizados de forma incremental e conseguiu a transição sem tempo de inatividade e sem movimentação massiva de dados.

Tracing distribuído, impulsionado pelo OpenTelemetry, é crucial para a observabilidade moderna, mas gera volumes massivos de dados que superam as capacidades atuais de consulta. A amostragem, especialmente via métodos de cabeça ou cauda, é essencial para controlar escala e custo: a amostragem de cabeça oferece uma seleção determinística e sem estado, enquanto a de cauda permite retenção com consciência de contexto, mas complica a arquitetura e operação, principalmente em ambientes multi-zona e na produção precisa de métricas RED. Implementações práticas demandam roteamento inteligente, extração de métricas antes da amostragem e compreensão clara dos trade-offs. Soluções emergentes como buffering em disco e amostragem baseada em exemplares oferecem melhorias incrementais.

Perguntas de competência são consultas explícitas e específicas de domínio que um sistema deve responder. Sistemas projetados sem estas perguntas frequentemente resultam em respostas imprecisas ou incompletas, pois suas decisões arquitetônicas se baseiam em suposições implícitas em vez de requisitos claros. A utilização de perguntas de competência oferece um framework rigoroso e testável que orienta o design de esquemas, valida a cobertura e assegura respostas acionáveis e rastreáveis, sendo crucial em bases de dados de vetores, grafos de conhecimento e pipelines de geração aumentada por retrieval.

Tansu.io apresenta um broker de mensagens compatível com Kafka e sem estado, onde a durabilidade é totalmente transferida para armazenamento externo, reduzindo radicalmente a necessidade de memória do broker para cerca de 20MB e permitindo implantações de escala zero em 10ms. Com backends de armazenamento plugáveis (S3, SQLite ou Postgres direto), o Tansu simplifica pipelines de streaming ao escrever registros validados (Avro, JSON ou Protobuf) diretamente em formatos de tabela abertos, como Iceberg e Delta Lake, e elimina o outbox transacional. Código disponível no GitHub. ️

O Reddit migrou sua frota Apache Kafka em escala de petabytes, com mais de 500 brokers, do Amazon EC2 para o Kubernetes. A transição foi realizada sem qualquer downtime, perda de dados ou alterações no lado do cliente . Para alcançar isso, a equipe implementou uma fachada DNS para abstração de conexão contínua, dobrou o tamanho do cluster com brokers EC2 de IDs mais altos para liberar IDs mais baixos, e fez um fork do operador Strimzi para permitir uma operação mista EC2-Kubernetes .

Claude Code é um poderoso impulsionador de produtividade para prototipagem rápida, iteração e gerenciamento de tarefas repetitivas na engenharia de dados. No entanto, carece de julgamento, confiança e confiabilidade para trabalho de produção não supervisionado devido a saídas que parecem corretas mas estão erradas, perda de dados silenciosa e não determinismo. Assim, Claude Code se posiciona como uma forte ferramenta "companheira" hoje, mas ainda não como um substituto completo.

O Ranking Engineer Agent (REA) da Meta é um agente de IA que acelera o ranking de anúncios gerenciando o ciclo de vida completo de ML com quase nenhuma intervenção humana. O REA utiliza o framework Confucius para acesso persistente a estados e ferramentas, gerando hipóteses de alta qualidade a partir de insights históricos com o ML Research Agent. Este processo segue um Framework de Planejamento de Três Fases (Validação → Combinação → Exploração), operando dentro de orçamentos de compute definidos e lidando autonomamente com erros através de runbooks.

Pgit é um CLI similar ao Git que armazena repositórios em PostgreSQL com compressão delta integrada. Isso torna todo o histórico de commits consultável via SQL, muitas vezes igualando ou superando a melhor compressão do Git. A ferramenta viabiliza análises de código poderosas, permitindo que desenvolvedores e agentes de IA consultem instantaneamente o histórico, detectem padrões e gerem insights sem a necessidade de custom tooling.

A forte dependência de ferramentas de codificação de IA em gigantes da tecnologia como Anthropic, Amazon, Uber e Meta está impulsionando aumentos significativos na produção de código – engenheiros classificados como "power users" de IA produzem 52% mais pull requests. No entanto, essa dependência também está levando a quedas notáveis na qualidade do software, aumento de interrupções e crescimento da dívida técnica. Na Anthropic, mais de 80% do código de produção é gerado por IA, resultando em bugs críticos de UX que afetam milhões de usuários. Similarmente, a Amazon tem observado um aumento nos SEVs (Severity Events) e agora exige revisão sênior para códigos assistidos por IA. Essas tendências destacam a necessidade de uma supervisão arquitetural mais rigorosa, validação de código e maior ênfase na garantia de qualidade.

Agentes de IA modernos em ferramentas como Snowflake Cortex, Copilot, Claude e Slack são vulneráveis a ataques de prompt injection que podem contornar as salvaguardas, executar malware e exfiltrar dados sensíveis. Um exemplo real demonstra como um prompt injetado enganou o Cortex para executar código malicioso fora de sua sandbox sem aprovação do usuário, permitindo que atacantes roubem ou destruam dados usando as credenciais da vítima.

A codificação assistida por IA impulsionou um aumento de 34% ano a ano nos segredos vazados em 2025. Commits feitos com Claude Code apresentaram uma taxa de vazamento de 3,2% (mais que o dobro da linha de base de 1,5%), resultando em quase 29 milhões de credenciais expostas detectadas no GitHub. Vazamentos envolvendo credenciais de serviços de IA saltaram 81% ano a ano, e repositórios internos foram seis vezes mais propensos a conter segredos hardcoded. Lacunas persistentes na remediação, com 64% dos segredos válidos de 2022 ainda não revogados, destacam falhas críticas na governança e na gestão de NHI.

Outras categorias