Sobre LLMs e Pesquisa de Vulnerabilidades
Um especialista argumenta que LLMs de fronteira impulsionaram a pesquisa de vulnerabilidades através de três capacidades: compreensão da estrutura do código, análise estatística de taint e raciocínio em tempo de teste que se aproxima da execução simbólica, possibilitadas por arquiteturas MoE, grandes janelas de contexto e cadeias de raciocínio de RL. O autor refuta a ideia de que apenas a genialidade humana pode encontrar novas vulnerabilidades, mostrando que tipos comuns de bugs como HTTP request smuggling e prototype pollution RCE são compostos por primitivas conhecidas, recombinadas criativamente, refletindo o raciocínio composicional que os modelos agora dominam. A principal vantagem mudou da arquitetura para a expertise de domínio em contexto e compute de inference, à medida que o raciocínio em tempo de teste melhora com orçamentos de token mais longos, permitindo que os modelos encontrem bugs que execuções mais curtas perdem.
- Categoria
- CEVIU Segurança da Informação
- Publicado
- 08 de abril de 2026
- Fonte
- CEVIU Segurança da Informação
