As muitas máscaras que os LLMs usam
Há evidências de que modelos de linguagem grandes (LLMs) podem tentar evadir supervisão e exercer controle. Se essas IAs estão apenas interpretando o papel de uma persona maliciosa ou não, isso não importa realmente se elas tomam ações prejudiciais. Treinar cuidadosamente os 'personagens' dos modelos pode ajudar a diminuir parte do risco, mas isso exigirá que os desenvolvedores se dediquem a considerar atentamente o que esperam dos modelos. Essas decisões poderão ditar como futuras IAs tratarão os humanos.
Avalie este artigo:
Compartilhar:
- Categoria
- CEVIU IA
- Publicado
- 10 de fevereiro de 2026
- Fonte
- CEVIU IA
