Memórias Úteis Se Tornam Falhas Quando Continuamente Atualizadas por LLMs
Agentes LLM frequentemente degradam em performance quando reescrevem continuamente suas experiências em lições textuais, causando deriva de fatos específicos para abstrações vazias e regras super-generalizadas. Pesquisadores sugerem que futuros sistemas de memória devem favorecer uma coleção curada de episódios brutos e não abstraídos em vez de sumarização constante.
Avalie este artigo:
Compartilhar:
- Categoria
- CEVIU Web Dev
- Publicado
- 12 de maio de 2026
- Fonte
- CEVIU Web Dev
