Avançando Modelos de Linguagem Aumentados por Busca
A Perplexity desenvolveu um pipeline de dois estágios para modelos de linguagem aumentados por busca. Esse pipeline emprega um Supervised Fine-Tuning (SFT) inicial, seguido por Reinforcement Learning (RL), com o objetivo de otimizar a precisão factual, a preferência do usuário e a eficiência no uso de ferramentas.
Essa abordagem, que começou a ser aplicada com os modelos Qwen3, separa a conformidade da melhoria na busca, visando alcançar maior precisão sem comprometer os guardrails. Os modelos demonstraram maior acurácia em benchmarks como FRAMES e FACTS OPEN, além de um custo por consulta reduzido e uma eficiência aprimorada no uso de ferramentas em comparação com modelos existentes como o GPT-5.4.
- Categoria
- CEVIU IA
- Publicado
- 23 de abril de 2026
- Fonte
- CEVIU IA
