CEVIU News

CEVIU News - CEVIU Segurança da Informação - 13 de maio de 2026

11 notícias13 de maio de 2026CEVIU Segurança da Informação
Compartilhar:

🎮 CEVIU Segurança da Informação

O grupo APT ScarCruft (APT37), alinhado à Coreia do Norte, comprometeu o sqgame[.]net, uma plataforma de jogos para coreanos étnicos na região de Yanbian, na China, trojalizando seu pacote de atualização do Windows e dois jogos de cartas Android para implantar o backdoor BirdCall — com a versão Android marcando uma nova adição ao arsenal do grupo. A cadeia do Windows passa por um downloader que verifica sandbox até chegar ao RokRAT e depois ao BirdCall, enquanto o BirdCall Android abusa do Zoho WorkDrive via HTTPS para C&C e exfiltra contatos, SMS, logs de chamadas, screenshots, gravações de microfone (limitadas às 19h-22h horário local) e arquivos com extensões .doc/.docx/.xlsx/.pptx/.hwp/.pdf/.p12, visando desertores e refugiados. Defensores devem procurar APKs originários do sqgame e o mono.dll trojanizado (SHA-1 95BDB94F6767A3CCE6D92363BBF5BC84B786BDB0), bloquear a infraestrutura C2 listada, incluindo domínios sul-coreanos comprometidos (1980food.co[.]kr, inodea[.]com e lawwell.co[.]kr), e sinalizar tráfego de API Zoho WorkDrive de saída de endpoints não empresariais.

A Cyera descobriu a CVE-2026-7482 no Ollama, um vazamento de memória que permite atacantes extrair todo o heap do processo sem credenciais. O Ollama roda LLMs localmente e tem 170.000 stars no GitHub, mais de 100 milhões de downloads Docker e 300.000 servidores expostos. O bug está no pacote unsafe do Go durante quantization de tensor GGUF. Atacantes fazem upload de um arquivo GGUF malformado com valores de tensor inflados, causando leitura fora dos limites que captura memória heap contendo prompts de usuário, prompts de sistema e variáveis de ambiente. Eles nomeiam o modelo como URI HTTP e fazem push para seu próprio servidor via /api/push, exfiltrando tudo em três chamadas API. Os dados vazados incluem chaves API, código proprietário e contratos de clientes de empresas que usam Ollama como chat IA interno.

A varejista de moda Zara anunciou que sofreu um vazamento de dados de 197 mil indivíduos devido ao comprometimento de bancos de dados de um antigo provedor de tecnologia, que continham informações sobre relacionamentos comerciais com clientes em diferentes mercados. Os dados incluem 197 mil endereços de email únicos, localizações geográficas, compras e tickets de suporte. O grupo ShinyHunters afirma ter obtido acesso aos dados através de um token de autenticação comprometido da Anodot.

Uma operação de phishing de quatro anos, apelidada de Operation HookedWing, roubou mais de 2.000 credenciais de usuários em mais de 500 organizações dos setores de aviação, infraestrutura crítica, energia, finanças, governo, logística e tecnologia. O atacante usa emails temáticos de RH ou colegas que direcionam para páginas hospedadas no GitHub imitando o Outlook, com loaders customizados por organização vítima. As landing pages validam dados, injetam formulários PHP, capturam credenciais, endereços IP e dados de geolocalização, enviando registros completos para servidores C2 do atacante.

A Back Engineering Labs publicou uma abordagem genérica de devirtualização estática para Themida e CodeVirtualizer (extensível a VMProtect, vxlang, EagleVM e outros protetores baseados em VM) que deliberadamente evita pattern-matching de handlers. Em vez disso, eleva instruções nativas para a SSA IR do BLARE2 com todos os registros simbólicos e RSP concretizado, executando promoção de constantes, constant folding, eliminação de dead store (limitada a seções VM-privadas), combinação de instruções e branch folding até convergência, até que endereços de handler, matemática VPC e lógica de dispatch colapsem em fluxo de controle concreto. O conhecimento específico da VM é necessário apenas para o handler VJCC do Themida (que escreve uma branch_taken_flag antes de avançar o VIP, forçando exploração de ambos os caminhos) e para classificação VMEXIT via deslocamento RSP do initRSP. Defensores e engenheiros reversos podem estudar os binários de amostra liberados no GitHub. Autores de ferramentas red-team devem notar que alvos de branch codificados com MBA não derrotam mais de forma confiável a avaliação simbólica, exigindo construções anti-simbólicas mais fortes para resistir a esta classe de pipeline.

Um setup baseado em MCP com Claude Code integra mais de 300 ferramentas em cinco VMs Proxmox para automatizar pesquisa de vulnerabilidades de ponta a ponta, desde staging de binários até fuzzing, triagem de crashes, conhecimento baseado em RAG e relatórios. Os achados começam em um "hallucination bin" e devem passar por verificações rigorosas de PoC, explorabilidade e baixo privilégio antes da promoção, mantendo baixos os falsos positivos. As campanhas já produziram múltiplas CVEs de OOM da biblioteca padrão Go, uma cadeia 0-day SYSTEM de OEM Windows e problemas de plataforma de apps macOS, enquanto TokenBurn rastreia uso de tokens e custo por achado para manter todo o pipeline economicamente viável.

A ClearSecLabs contesta a tese de Thomas Ptacek de que "pesquisa de vulnerabilidades morreu", argumentando que o pânico com IA ecoa ciclos anteriores com decompiladores Hex-Rays, AFL/libFuzzer e CodeQL/Semgrep, que automatizaram o trabalho básico tornando o julgamento humano mais valioso. O autor reconhece que LLMs são qualitativamente diferentes, citando 500+ vulnerabilidades validadas pela Anthropic, IA encontrando 12 de 12 zero-days do OpenSSL antes dos humanos, e descoberta do CVE-2026-4747 pelo Claude Mythos, mas contra-argumenta que defensores têm as mesmas ferramentas, descoberta de novas classes de bugs ainda requer criatividade humana, e IA em pipelines CI/CD estruturalmente favorece a defesa. Profissionais devem tratar isso como argumento de equilíbrio: investir em direcionamento de agentes ao invés de competir contra eles, combinar pattern-matching de LLM com intuição de domínio para falhas lógicas, e esperar enxurrada de relatórios de baixa qualidade gerados por IA que defensores precisarão filtrar.

Antes dos modelos mais recentes, os LLMs seguiam uma curva de preço/desempenho onde modelos mais caros tinham melhor performance. Com a introdução de novos modelos top como GPT-5.5 e Opus 4.7, que trouxeram grandes aumentos de preço, e Deepseek V4-Pro e V4-flash, muito mais baratos, os modelos se dividiram entre caros de alta performance e muito baratos, sem meio-termo claro. A OpenAI argumenta que o diferencial é que Codex (e similarmente o ecossistema Claude) busca fornecer um stack completo, enquanto outros modelos (como Deepseek) oferecem apenas um componente.

Receba as melhores notícias de tech

Conteúdo curado diariamente, direto no seu e-mail.

Conteúdo curado diariamenteDiversas categoriasCancele quando quiser