(논문 요약) Efficient Tool Use with Chain-of-Abstraction Reasoning (Paper)
핵심 내용
모델: LLaMa-2-7B, LLaMa-2-Chat-7B, LLaMa-2-Chat-70B
컨셉: reasoning chains with abstract placeholders.
Finetuning 데이터: LLaMa-70B 답변 -> tool 사용 부분을 abstract placeholders 로 치환 (math derivations, statements based on Wikipedia references)
실험
- 타 방법론과 비교 (큰 모델에서는 소폭상승, 작은 모델에서 대폭상승)