I am starting to think sycophancy is going to be a bigger problem than pure hallucination as LLMs improve.
— Ethan Mollick (@emollick) July 13, 2025
Models that won’t tell you directly when you are wrong (and justify your correctness) are ultimately more dangerous to decision-making than models that are sometimes wrong.
Interessante!!!
No passado dia 7 numa reunião usei este mesmo termo "sicofantismo" acerca dos LLMs.
Escrevemos um erro no prompt e eles (os LLMs) usam-no acriticamente e nunca nos contradizem, ecoam passivamente os nossos erros (utilizadores) em vez de desafiar as falsas suposições — muito à semelhança da lisonja sem sinceridade.


Sem comentários:
Enviar um comentário