論文の概要: ValuePilot: A Two-Phase Framework for Value-Driven Decision-Making
- arxiv url: http://arxiv.org/abs/2512.13716v1
- Date: Tue, 09 Dec 2025 12:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.389836
- Title: ValuePilot: A Two-Phase Framework for Value-Driven Decision-Making
- Title(参考訳): ValuePilot: 価値駆動意思決定のための2相フレームワーク
- Authors: Yitong Luo, Ziang Chen, Hou Hei Lam, Jiayu zhan, Junqi Wang, Zhenliang Zhang, Xue Feng,
- Abstract要約: パーソナライズされた意思決定に対する価値駆動型アプローチを提案する。
人間の値は安定的で伝達可能な信号として機能し、一貫性と一般化可能な振る舞いをサポートする。
本稿では、データセット生成ツールキット(DGT)と意思決定モジュール(DMM)からなる2段階フレームワークであるValuePilotを紹介する。
- 参考スコア(独自算出の注目度): 11.176700333939278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized decision-making is essential for human-AI interaction, enabling AI agents to act in alignment with individual users' value preferences. As AI systems expand into real-world applications, adapting to personalized values beyond task completion or collective alignment has become a critical challenge. We address this by proposing a value-driven approach to personalized decision-making. Human values serve as stable, transferable signals that support consistent and generalizable behavior across contexts. Compared to task-oriented paradigms driven by external rewards and incentives, value-driven decision-making enhances interpretability and enables agents to act appropriately even in novel scenarios. We introduce ValuePilot, a two-phase framework consisting of a dataset generation toolkit (DGT) and a decision-making module (DMM). DGT constructs diverse, value-annotated scenarios from a human-LLM collaborative pipeline. DMM learns to evaluate actions based on personal value preferences, enabling context-sensitive, individualized decisions. When evaluated on previously unseen scenarios, DMM outperforms strong LLM baselines, including GPT-5, Claude-Sonnet-4, Gemini-2-flash, and Llama-3.1-70b, in aligning with human action choices. Our results demonstrate that value-driven decision-making is an effective and extensible engineering pathway toward building interpretable, personalized AI agents.
- Abstract(参考訳): パーソナライズされた意思決定は、人間とAIのインタラクションに不可欠であり、AIエージェントは個々のユーザの価値観の好みに合わせて行動することができる。
AIシステムが現実世界のアプリケーションに展開するにつれ、タスクの完了や集合的アライメントを超えてパーソナライズされた値に適応することが、重要な課題となっている。
私たちは、パーソナライズされた意思決定に価値駆動のアプローチを提案することで、この問題に対処します。
人間の値は、コンテキスト間の一貫性と一般化可能な振る舞いをサポートする安定で転送可能な信号として機能する。
外部報酬やインセンティブによって駆動されるタスク指向のパラダイムと比較して、価値駆動型意思決定は解釈可能性を高め、新しいシナリオにおいてもエージェントが適切に行動できるようにする。
本稿では,データセット生成ツールキット(DGT)と意思決定モジュール(DMM)からなる2段階フレームワークであるValuePilotを紹介する。
DGTは、人間とLLMのコラボレーティブパイプラインから、さまざまな価値アノテートシナリオを構築する。
DMMは個人価値の選好に基づいて行動を評価することを学び、文脈に敏感で個人化された決定を可能にする。
前例のないシナリオで評価すると、DMMは人間の行動選択に合わせて、GPT-5、Claude-Sonnet-4、Gemini-2-flash、Llama-3.1-70bなどの強力なLCMベースラインよりも優れている。
我々の結果は、価値駆動意思決定が、解釈可能なパーソナライズされたAIエージェントを構築するための効果的で拡張可能なエンジニアリングパスであることを実証している。
関連論文リスト
- How can we assess human-agent interactions? Case studies in software agent design [52.953425368394306]
我々は,人間とエージェントの相互作用の厳密な評価に向けて,二つの大きな一歩を踏み出した。
エージェント設計のより効率的な人間中心評価のためのフレームワークであるPULSEを提案する。
私たちは、オープンソースのソフトウェアエージェントOpenHandsを中心に構築された大規模なWebプラットフォームにフレームワークをデプロイします。
論文 参考訳(メタデータ) (2025-10-10T19:04:28Z) - Boosting Virtual Agent Learning and Reasoning: A Step-Wise, Multi-Dimensional, and Generalist Reward Model with Benchmark [72.46357004059661]
Generalist Virtual Agents (GVA) は自律的なタスク実行において大きな可能性を示している。
これらの課題に対処するため,ステップワイズ多次元ジェネラリスト・リワードモデルを提案する。
同様に、エージェントトレーニング用のきめ細かい信号を提供し、推論時間スケーリングのためのより良いアクションを選択することができる。
論文 参考訳(メタデータ) (2025-03-24T13:30:47Z) - ValuePilot: A Two-Phase Framework for Value-Driven Decision-Making [4.392948275297139]
本稿では、データセット生成ツールキットDGTと、生成されたデータに基づいて訓練された意思決定モジュールDMMからなる2相値駆動意思決定フレームワークを提案する。
DGTは、データセットの有効性を保証するために、自動フィルタリング技術と人間のキュレーションを使用して、価値次元に基づいてシナリオを生成し、現実世界のタスクを密にミラーリングすることができる。
生成されたデータセットでは、シナリオ固有の値を認識し、アクションの実現可能性を計算し、複数の値次元間のトレードオフをナビゲートして、パーソナライズされた決定を行う。
論文 参考訳(メタデータ) (2025-03-06T16:02:53Z) - Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Rational Decision-Making Agent with Internalized Utility Judgment [88.01612847081677]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Learning to Advise Humans in High-Stakes Settings [8.921629768446625]
高度なAI支援意思決定(AIaDM)設定の専門家意思決定者(DM)は、最終的な決定を行う前に、AIシステムからレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIaDMモデルを開発する上で鍵となる、これらの設定の異なる特性を特定します。
論文 参考訳(メタデータ) (2022-10-23T20:46:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。