論文の概要: Axiomatic Preference Modeling for Longform Question Answering
- arxiv url: http://arxiv.org/abs/2312.02206v1
- Date: Sat, 2 Dec 2023 23:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 18:22:22.663678
- Title: Axiomatic Preference Modeling for Longform Question Answering
- Title(参考訳): 長文質問応答に対する公理的選好モデル
- Authors: Corby Rosset, Guoqing Zheng, Victor Dibia, Ahmed Awadallah, Paul
Bennett
- Abstract要約: そこで我々は,人間の嗜好を維持するために,多種多様な嗜好信号を生成するための公理的枠組みを開発した。
我々はこれらの公理的信号を用いて、長大な質問に対する回答を評価するためのモデルを訓練する。
提案手法は,GPT-4よりも高い頻度で,ゴールドアノテートされた選好ラベルに適合する約220万のパラメータを持つ選好モデルである。
- 参考スコア(独自算出の注目度): 15.675861802061078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The remarkable abilities of large language models (LLMs) like GPT-4 partially
stem from post-training processes like Reinforcement Learning from Human
Feedback (RLHF) involving human preferences encoded in a reward model. However,
these reward models (RMs) often lack direct knowledge of why, or under what
principles, the preferences annotations were made. In this study, we identify
principles that guide RMs to better align with human preferences, and then
develop an axiomatic framework to generate a rich variety of preference signals
to uphold them. We use these axiomatic signals to train a model for scoring
answers to longform questions. Our approach yields a Preference Model with only
about 220M parameters that agrees with gold human-annotated preference labels
more often than GPT-4. The contributions of this work include: training a
standalone preference model that can score human- and LLM-generated answers on
the same scale; developing an axiomatic framework for generating training data
pairs tailored to certain principles; and showing that a small amount of
axiomatic signals can help small models outperform GPT-4 in preference scoring.
We release our model on huggingface:
https://huggingface.co/corbyrosset/axiomatic_preference_model
- Abstract(参考訳): GPT-4のような大きな言語モデル(LLM)の顕著な能力は、報酬モデルに符号化された人間の嗜好を含む強化学習(RLHF)のようなポストトレーニングプロセスに由来する。
しかし、これらの報酬モデル(rms)は、しばしば、なぜ、どんな原則の下で、優先アノテーションが作られたのか、直接の知識を欠いている。
本研究では,人間の嗜好に合致するようにrmsを指導する原則を特定し,それを維持するために多様な選好信号を生成するための公理的枠組みを開発する。
我々はこれらの公理信号を用いて、長大な質問に対する回答を評価するためのモデルを訓練する。
提案手法は,gpt-4よりもゴールド・ヒューマン・アノテート・プレファレンスラベルに合致するパラメータが約220mの選好モデルを生成する。
この研究の貢献は、人間とLLMが生成する回答を同じスケールで評価できるスタンドアロンの選好モデルをトレーニングすること、特定の原則に合わせたトレーニングデータペアを生成するための公理的フレームワークを開発すること、少数の公理的信号が小さなモデルにおいて、選好スコアにおいてGPT-4より優れていることを示すことである。
huggingfaceのモデルは、https://huggingface.co/corbyrosset/axiomatic_preference_modelです。
関連論文リスト
- Principled RLHF from Heterogeneous Feedback via Personalization and Preference Aggregation [23.337350061258903]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムを人間の価値と整合させる効果的な手法である。
本稿では、人間の嗜好に固有の異質性や、フィードバックの提供における潜在的な戦略的行動から、この問題に対処することに焦点を当てる。
本研究では, 個人化に基づく手法と集約に基づく手法の2つの枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:57:23Z) - RewardBench: Evaluating Reward Models for Language Modeling [100.28366840977966]
本稿では,報酬モデル評価のためのベンチマークデータセットとコードベースであるRewardBenchを紹介する。
RewardBenchデータセットは、チャット、推論、安全性にまたがる、プロンプト・ウィン・ローズ・トリオのコレクションである。
RewardBenchのリーダーボードでは、様々な方法で訓練された報酬モデルを評価する。
論文 参考訳(メタデータ) (2024-03-20T17:49:54Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z) - Personalized Language Modeling from Personalized Human Feedback [55.458647587228185]
個人化された人間のフィードバックから学習するタスクを紹介し、この文脈でバニラRLHFが問題となる理由を説明する。
本稿では,ユーザモデルと言語(あるいは報酬)モデルを共同で学習する必要がある一般パーソナライズ-RLHFフレームワークを提案する。
提案手法の有効性を実証するために,注釈付き好みと注釈付き情報を用いた実世界のテキスト要約データを用いて検証を行った。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - SALMON: Self-Alignment with Instructable Reward Models [80.83323636730341]
本稿では,基本言語モデルと人間の監督を最小限に整合させる新しいアプローチ,すなわちSALMONを提案する。
私たちはDromedary-2という名のAIアシスタントを開発しており、コンテキスト内学習には6つの例と31の人間定義原則しかありません。
論文 参考訳(メタデータ) (2023-10-09T17:56:53Z) - RRHF: Rank Responses to Align Language Models with Human Feedback
without tears [69.68672043223249]
InstructGPTは、SFT(Supervised Fine-Tuning)、報酬モデルトレーニング、PPO(Proximal Policy Optimization)など、いくつかの段階を通じてRLHFを実装している。
本稿では,条件付き確率の対数を用いて,異なるソースからのサンプル応答をスコアするRRHFという新しい学習パラダイムを提案する。
我々は、Helpful and Harmlessデータセット上でRRHFを評価し、報酬モデルスコアと人間ラベルによるPPOと同等のアライメント性能を示す。
論文 参考訳(メタデータ) (2023-04-11T15:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。