(논문 요약) Why Language Models Hallucinate (Paper)
핵심 내용
- Pretrain 시 error-free corpora 를 전부 암기하더라도 epistemic error 는 방지할수 없음.
- Post-train 시 정답을 1, 오답을 0으로 주므로, 잘 모르더라도 답을 내도록 편향되게 학습됨.
- 논문에서는 여러 lower bound 계산함
(논문 요약) Why Language Models Hallucinate (Paper)