Self-Rewarding Language Models 논문리뷰
https://arxiv.org/pdf/2401.10020요약 : self-alignment, AI 피드백, DPO pair dataset 생성 iterativelyRM의 preference data의 학습bottlenecked by human performance level(2024 초기논문 관계상)또한 이 RM은 frozen -> policy(LLM)의 학습중 cannot improveDPO가 RM이 필요하지는 않지만 pair dataset을 준비하기 위해 LLM-as-a-Judge prompting을 통해 스스로 reward 즉 pair 데이터셋을 생성 즉 프롬프트에 답변을 llm이 생성하고 이 llm을 사용해 evaluate해 reward를 매긴후 select한 데이터셋을 DPO로 사용하는 구조..