(논문 요약) Make Your LLM Fully Utilize the Context (Paper)

핵심 내용

  • Problems: lost in the middle (가운데 있는 문장에서 정보를 얻어내야할때 잘 못함)

  • Method: INformation-INtensive (IN2) training
    • fine-grained information awareness on a short segment (∼128 tokens) within a synthesized long context (4K−32K tokens)
    • the integration and reasoning of information from two or more short segments
    • Mistral-7B 에 적용하여 성능 개선
  • Data: chunking 후, GPT4 로 question, answer set 생성. chunk 는 long context 에 숨김.

실험

  • 저자가 만든 task
  • 저자 task 에서는 성능이 가장 좋음.
  • short-context 에서 성능이 떨어지는 경향성은 없어보임.

  • benchmark 에서는 gpt-4 가 더 나음.