論文の概要: On the Pros and Cons of Active Learning for Moral Preference Elicitation
- arxiv url: http://arxiv.org/abs/2407.18889v1
- Date: Fri, 26 Jul 2024 17:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 12:39:55.430952
- Title: On the Pros and Cons of Active Learning for Moral Preference Elicitation
- Title(参考訳): モーラルな選好励磁のための能動学習の課題と課題
- Authors: Vijay Keswani, Vincent Conitzer, Hoda Heidari, Jana Schaich Borg, Walter Sinnott-Armstrong,
- Abstract要約: 道徳的嗜好の誘惑に対する積極的学習の使用は、その根底にある道徳的嗜好に関する特定の仮定に依存していると論じる。
これらの仮定は特定の領域において好意的推論に適しているが、道徳心理学に関する先行研究は、道徳的判断には有効でないことを示唆している。
- 参考スコア(独自算出の注目度): 32.969662205265166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational preference elicitation methods are tools used to learn people's preferences quantitatively in a given context. Recent works on preference elicitation advocate for active learning as an efficient method to iteratively construct queries (framed as comparisons between context-specific cases) that are likely to be most informative about an agent's underlying preferences. In this work, we argue that the use of active learning for moral preference elicitation relies on certain assumptions about the underlying moral preferences, which can be violated in practice. Specifically, we highlight the following common assumptions (a) preferences are stable over time and not sensitive to the sequence of presented queries, (b) the appropriate hypothesis class is chosen to model moral preferences, and (c) noise in the agent's responses is limited. While these assumptions can be appropriate for preference elicitation in certain domains, prior research on moral psychology suggests they may not be valid for moral judgments. Through a synthetic simulation of preferences that violate the above assumptions, we observe that active learning can have similar or worse performance than a basic random query selection method in certain settings. Yet, simulation results also demonstrate that active learning can still be viable if the degree of instability or noise is relatively small and when the agent's preferences can be approximately represented with the hypothesis class used for learning. Our study highlights the nuances associated with effective moral preference elicitation in practice and advocates for the cautious use of active learning as a methodology to learn moral preferences.
- Abstract(参考訳): 計算的嗜好推論法(英: Computational preference elicitation method)は、ある状況下で人々の嗜好を定量的に学習するために用いられるツールである。
近年の選好選好に関する研究は、エージェントの根底にある嗜好に最も有意義なクエリを反復的に構築する効率的な方法として、アクティブラーニングを提唱している。
本論では,道徳的嗜好の誘惑に積極的学習を用いることは,その根底にある道徳的嗜好に関する特定の仮定に依拠し,実際に違反する可能性があると論じる。
具体的には、以下の一般的な仮定を強調します。
a) 好みは時間とともに安定しており、提示されたクエリのシーケンスに敏感ではない。
(b)道徳的嗜好をモデル化する適切な仮説類を選択し、
(c) エージェントの応答のノイズは限られている。
これらの仮定は特定の領域において好意的推論に適しているが、道徳心理学に関する先行研究は、道徳的判断には有効でないことを示唆している。
上記の仮定に反する選好の合成シミュレーションにより、ある設定における基本的ランダムなクエリ選択法と、アクティブラーニングが類似または悪質な性能を持つことを観察する。
しかし、シミュレーションの結果は、不安定性やノイズの程度が比較的小さい場合や、エージェントの好みが学習に使用される仮説クラスとほぼ一致する場合においても、アクティブラーニングは引き続き有効であることを示した。
本研究は、実践における効果的な道徳的嗜好誘発に関連するニュアンスを強調し、道徳的嗜好を学習する方法論としてアクティブラーニングの慎重な利用を提唱する。
関連論文リスト
- Preference Optimization as Probabilistic Inference [21.95277469346728]
本稿では,好ましくない例や好ましくない例を活用できる手法を提案する。
この柔軟性により、生成言語モデルをトレーニングするなど、さまざまな形式のフィードバックとモデルでシナリオに適用することが可能になります。
論文 参考訳(メタデータ) (2024-10-05T14:04:03Z) - Learning Linear Utility Functions From Pairwise Comparison Queries [35.01228510505625]
線形効用関数のペア比較クエリによる学習可能性について検討する。
受動的学習環境では、線形ユーティリティは第一の目的に対して効率的に学習可能であることを示す。
この場合、第2の目的であっても効率よく学習できることを示し、ノイズフリーおよびノイズの多いクエリ応答設定のためのアルゴリズムを提示する。
論文 参考訳(メタデータ) (2024-05-04T08:43:45Z) - A First Look at Selection Bias in Preference Elicitation for Recommendation [64.44255178199846]
選好選好における選好バイアスの影響について検討した。
大きなハードルは、好みの推論インタラクションを持つ公開データセットがないことです。
本稿では,トピックに基づく選好提案プロセスのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-05-01T14:56:56Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Reinforcement Learning Fine-tuning of Language Models is Biased Towards
More Extractable Features [0.5937476291232802]
我々は,大規模言語モデルの教師付き微調整における帰納的バイアスを規定する原則が,強化学習を用いた微調整プロセスにおいても適用できるかどうかを考察する。
これらの仮説の強い証拠となる統計的に有意な相関関係を見いだす。
論文 参考訳(メタデータ) (2023-11-07T15:00:39Z) - Generative Slate Recommendation with Reinforcement Learning [49.75985313698214]
強化学習アルゴリズムは、レコメンデータシステムのユーザエンゲージメントを最適化するために使用することができる。
しかし、RLアプローチはスレートレコメンデーションシナリオでは難解である。
この設定では、アクションはアイテムの組み合わせを含むことができるスレートに対応する。
本研究では,変分オートエンコーダによって学習された連続低次元ラテント空間におけるスレートの符号化を提案する。
我々は、(i)以前の作業で要求される仮定を緩和し、(ii)完全なスレートをモデル化することで、アクション選択の品質を向上させることができる。
論文 参考訳(メタデータ) (2023-01-20T15:28:09Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Exploration and preference satisfaction trade-off in reward-free
learning [3.4998703934432682]
共役前駆体を用いた選好学習機構を備えたモデルベースベイズエージェントを提案する。
OpenAI Gym FrozenLakeと3Dのミニワールド環境において、ボラティリティと非ボラティリティについて説明する。
実験の結果,学習可能な(再帰的でない)嗜好は,探索と嗜好満足度とのトレードオフを伴っていることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T13:24:58Z) - Online Active Model Selection for Pre-trained Classifiers [72.84853880948894]
我々は,任意のラウンドにおいて高い確率で最良のモデルをラベル付けし,出力する情報的サンプルを積極的に選択するオンライン選択的サンプリング手法を設計する。
我々のアルゴリズムは、敵とストリームの両方のオンライン予測タスクに利用できる。
論文 参考訳(メタデータ) (2020-10-19T19:53:15Z) - Let Me At Least Learn What You Really Like: Dealing With Noisy Humans
When Learning Preferences [0.76146285961466]
本稿では,予測出力値を用いて選好の学習を高速化する不確実性サンプリングの修正を提案する。
提案手法を不確実サンプリングベースラインと比較し,提案手法の各コンポーネントの有効性を検証するためのアブレーション試験を行った。
論文 参考訳(メタデータ) (2020-02-15T00:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。