論文の概要: Comparative Explanations: Explanation Guided Decision Making for Human-in-the-Loop Preference Selection
- arxiv url: http://arxiv.org/abs/2504.03744v1
- Date: Tue, 01 Apr 2025 15:23:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:18.217753
- Title: Comparative Explanations: Explanation Guided Decision Making for Human-in-the-Loop Preference Selection
- Title(参考訳): ヒューマン・イン・ザ・ループの選好選択のための説明指導による意思決定
- Authors: Tanmay Chakraborty, Christian Wirth, Christin Seifert,
- Abstract要約: 本稿では,MOLONE(Multi-Output LOcal Narrative Explanation)を紹介する。
MOLONEは、PBO(Human-in-the-loop Preference Bayesian Optimization)における選好選択を高めるために設計された新しい比較説明法である。
MOLONEは、より効率的な選択肢の同定を容易にすることにより、ループ内シナリオの収束を著しく促進することを示す。
- 参考スコア(独自算出の注目度): 3.5141722408241858
- License:
- Abstract: This paper introduces Multi-Output LOcal Narrative Explanation (MOLONE), a novel comparative explanation method designed to enhance preference selection in human-in-the-loop Preference Bayesian optimization (PBO). The preference elicitation in PBO is a non-trivial task because it involves navigating implicit trade-offs between vector-valued outcomes, subjective priorities of decision-makers, and decision-makers' uncertainty in preference selection. Existing explainable AI (XAI) methods for BO primarily focus on input feature importance, neglecting the crucial role of outputs (objectives) in human preference elicitation. MOLONE addresses this gap by providing explanations that highlight both input and output importance, enabling decision-makers to understand the trade-offs between competing objectives and make more informed preference selections. MOLONE focuses on local explanations, comparing the importance of input features and outcomes across candidate samples within a local neighborhood of the search space, thus capturing nuanced differences relevant to preference-based decision-making. We evaluate MOLONE within a PBO framework using benchmark multi-objective optimization functions, demonstrating its effectiveness in improving convergence compared to noisy preference selections. Furthermore, a user study confirms that MOLONE significantly accelerates convergence in human-in-the-loop scenarios by facilitating more efficient identification of preferred options.
- Abstract(参考訳): 本稿では,PBO最適化における選好選択の促進を目的とした,MOLONE(Multi-Output LOcal Narrative Explanation)を提案する。
PBOの選好は、ベクトル値の結果、意思決定者の主観的な優先順位、選好選択における意思決定者の不確実性の間の暗黙のトレードオフをナビゲートするので、非自明な作業である。
BOの既存の説明可能なAI(XAI)手法は、主に入力特徴の重要性に焦点を合わせ、人間の嗜好の誘惑において出力(目的物)の重要な役割を無視する。
MOLONEは、入力と出力の両方の重要性を強調した説明を提供することで、このギャップに対処する。
MOLONEは局所的な説明に焦点をあて、検索空間の局所的な近傍にある候補サンプル間での入力特徴と結果の重要さを比較し、好みに基づく意思決定に関連する微妙な違いを捉えている。
ベンチマーク多目的最適化関数を用いたPBOフレームワークにおけるMOLONEの評価を行い、ノイズ選択よりも収束性を向上させる効果を示した。
さらに、ユーザ調査により、MOLONEはより効率的な選択肢の識別を容易にすることにより、ループ内シナリオの収束を著しく加速することを確認した。
関連論文リスト
- VPO: Leveraging the Number of Votes in Preference Optimization [5.200545764106177]
本稿では,ユーザの投票データを活用し,多様な主観的嗜好に適合する手法を提案する。
我々は,議論を呼んでいる世代対と明らかな世代対を区別するために,双方の投票数を組み込んだVoteベースのPreference Optimizationフレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-30T10:39:34Z) - Uncovering Factor Level Preferences to Improve Human-Model Alignment [58.50191593880829]
PROFILEは、好みを駆動する特定の要因の影響を明らかにし、定量化するフレームワークである。
ProFILE の因子レベル分析は、人間モデルのアライメントと不適応の背後にある 'なぜ' を説明している。
我々は、不整合要因に対処するなど、要因レベルの洞察の活用が、人間の嗜好との整合性をいかに改善するかを実証する。
論文 参考訳(メタデータ) (2024-10-09T15:02:34Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Bridging and Modeling Correlations in Pairwise Data for Direct Preference Optimization [75.1240295759264]
本稿では,BMC という名前のペアデータにおけるブリッジ・アンド・モデリングの効果的なフレームワークを提案する。
目的の修正によって、ペアの選好信号の一貫性と情報性が向上する。
DPOだけではこれらの相関をモデル化し、ニュアンス付き変動を捉えるには不十分である。
論文 参考訳(メタデータ) (2024-08-14T11:29:47Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Value Preferences Estimation and Disambiguation in Hybrid Participatory Systems [3.7846812749505134]
参加者が選択を行い、その選択に対するモチベーションを提供するハイブリッド参加システムを構想する。
参加者の選択とモチベーションの衝突を検出する状況に焦点を当てる。
本研究では,検出された不整合に対処しながら,参加者と対話して値の選好を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T17:16:28Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Inferring Preferences from Demonstrations in Multi-objective
Reinforcement Learning: A Dynamic Weight-based Approach [0.0]
多目的意思決定において、選好推論は、異なる目的のために意思決定者の選好を推測する過程である。
本研究では,多目的意思決定問題に作用するエージェントの選好を推測する動的重みに基づく選好推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-27T11:55:07Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - Preference Exploration for Efficient Bayesian Optimization with Multiple
Outcomes [17.300690315775572]
意思決定者が好むベクトル値結果を生成する実験の最適化を検討する。
これらの選好は、閉じた形では知られていないが、DMに結果ベクトルのペアよりも好みを表現するように求めることで推定できるユーティリティ関数によって符号化される。
我々は,インタラクティブなリアルタイム嗜好学習とDMを交互に行う新しいフレームワークを開発した。
論文 参考訳(メタデータ) (2022-03-21T23:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。