카테고리 없음

Self-Rewarding Language Models 논문리뷰

jinuklee 2024. 8. 18. 23:06

https://arxiv.org/pdf/2401.10020

요약 : self-alignment, AI 피드백, DPO pair dataset 생성 iteratively

RM의 preference data의 학습

bottlenecked by human performance level

(2024 초기논문 관계상)

또한 이 RM은 frozen -> policy(LLM)의 학습중 cannot improve

DPO가 RM이 필요하지는 않지만  pair dataset을 준비하기 위해 LLM-as-a-Judge prompting을 통해 스스로 reward 즉 pair 데이터셋을 생성

 

즉 프롬프트에 답변을 llm이 생성하고 이 llm을 사용해 evaluate해 reward를 매긴후 select한 데이터셋을 DPO로 사용하는 구조

또한 policy, reward가 하나임으로 the reward model itself가 향상가능하다는 점 훈련을 통해