論文の概要: Towards Cognitively-Faithful Decision-Making Models to Improve AI Alignment
- arxiv url: http://arxiv.org/abs/2509.04445v1
- Date: Thu, 04 Sep 2025 17:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.25418
- Title: Towards Cognitively-Faithful Decision-Making Models to Improve AI Alignment
- Title(参考訳): AIアライメント改善のための認知的意思決定モデルに向けて
- Authors: Cyrus Cousins, Vijay Keswani, Vincent Conitzer, Hoda Heidari, Jana Schaich Borg, Walter Sinnott-Armstrong,
- Abstract要約: 対比較から認知に忠実な意思決定プロセスを学ぶための公理的アプローチを提案する。
提案したモデルが,人間のペアによる意思決定の事前モデルと一致しているか,あるいは精度を超越しているかを示す。
- 参考スコア(独自算出の注目度): 35.506295119331064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent AI work trends towards incorporating human-centric objectives, with the explicit goal of aligning AI models to personal preferences and societal values. Using standard preference elicitation methods, researchers and practitioners build models of human decisions and judgments, which are then used to align AI behavior with that of humans. However, models commonly used in such elicitation processes often do not capture the true cognitive processes of human decision making, such as when people use heuristics to simplify information associated with a decision problem. As a result, models learned from people's decisions often do not align with their cognitive processes, and can not be used to validate the learning framework for generalization to other decision-making tasks. To address this limitation, we take an axiomatic approach to learning cognitively faithful decision processes from pairwise comparisons. Building on the vast literature characterizing the cognitive processes that contribute to human decision-making, and recent work characterizing such processes in pairwise comparison tasks, we define a class of models in which individual features are first processed and compared across alternatives, and then the processed features are then aggregated via a fixed rule, such as the Bradley-Terry rule. This structured processing of information ensures such models are realistic and feasible candidates to represent underlying human decision-making processes. We demonstrate the efficacy of this modeling approach in learning interpretable models of human decision making in a kidney allocation task, and show that our proposed models match or surpass the accuracy of prior models of human pairwise decision-making.
- Abstract(参考訳): 最近のAIワークトレンドは、AIモデルを個人の好みや社会的価値に合わせることを明確に目標として、人間中心の目標を取り入れることに向けられている。
研究者と実践者は、標準的な選好推論手法を使用して、人間の判断と判断のモデルを構築し、AIの振る舞いと人間の行動の整合に使用する。
しかしながら、そのような推論プロセスでよく使われるモデルは、人間の意思決定の真の認知過程を捉えないことが多い。
結果として、人々の意思決定から学んだモデルは、認知プロセスと一致せず、他の意思決定タスクに一般化するための学習フレームワークを検証するために使用できないことが多い。
この制限に対処するために、私たちは、ペアワイズ比較から認知的に忠実な意思決定プロセスを学ぶために、公理的なアプローチを取ります。
人間の意思決定に寄与する認知過程を特徴づける膨大な文献と、そのようなプロセスをペアワイズ比較タスクで特徴づける最近の研究に基づいて、個々の特徴を最初に処理し、代替品間で比較するモデルのクラスを定義し、次に処理された特徴をBradley-Terryルールのような固定された規則によって集約する。
この構造化された情報処理により、そのようなモデルは現実的で実現可能な候補であり、基礎となる人間の意思決定プロセスを表現することができる。
本研究では,腎臓割当作業における人的意思決定の解釈可能なモデル学習における本手法の有効性を実証し,提案モデルが従来の人的決定の精度と一致しているか,上回っていることを示す。
関連論文リスト
- When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Exploring the Lands Between: A Method for Finding Differences between AI-Decisions and Human Ratings through Generated Samples [45.209635328908746]
生成モデルの潜在空間におけるサンプルを見つける手法を提案する。
これらのサンプルを意思決定モデルと人間のレーダの両方に提示することにより、その決定が人間の直感と一致する領域を特定することができる。
本手法を顔認識モデルに適用し,100人の被験者から11,200人の評価データを収集する。
論文 参考訳(メタデータ) (2024-09-19T14:14:08Z) - Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - From DDMs to DNNs: Using process data and models of decision-making to improve human-AI interactions [1.024113475677323]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。