論文の概要: Admissibility Alignment
- arxiv url: http://arxiv.org/abs/2601.01816v1
- Date: Mon, 05 Jan 2026 05:58:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.778739
- Title: Admissibility Alignment
- Title(参考訳): 適応性アライメント
- Authors: Chris Duffey,
- Abstract要約: 本稿では,不確実性を考慮した意思決定のための新しい制御プレーンシステムアーキテクチャMAP-AIを提案する。
モンテカルロによる結果分布の推定と、許容性制御された政策選択を通じてアライメントを実施する。
本研究では,アライメント評価を意思決定自体に統合し,適応性制御された行動選択機構を実現する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Admissibility Alignment: a reframing of AI alignment as a property of admissible action and decision selection over distributions of outcomes under uncertainty, evaluated through the behavior of candidate policies. We present MAP-AI (Monte Carlo Alignment for Policy) as a canonical system architecture for operationalizing admissibility alignment, formalizing alignment as a probabilistic, decision-theoretic property rather than a static or binary condition. MAP-AI, a new control-plane system architecture for aligned decision-making under uncertainty, enforces alignment through Monte Carlo estimation of outcome distributions and admissibility-controlled policy selection rather than static model-level constraints. The framework evaluates decision policies across ensembles of plausible futures, explicitly modeling uncertainty, intervention effects, value ambiguity, and governance constraints. Alignment is assessed through distributional properties including expected utility, variance, tail risk, and probability of misalignment rather than accuracy or ranking performance. This approach distinguishes probabilistic prediction from decision reasoning under uncertainty and provides an executable methodology for evaluating trust and alignment in enterprise and institutional AI systems. The result is a practical foundation for governing AI systems whose impact is determined not by individual forecasts, but by policy behavior across distributions and tail events. Finally, we show how distributional alignment evaluation can be integrated into decision-making itself, yielding an admissibility-controlled action selection mechanism that alters policy behavior under uncertainty without retraining or modifying underlying models.
- Abstract(参考訳): 本稿では,不確実性のある結果の分布に対するAIアライメントと決定選択の属性としてのAIアライメントの再フレーミングを,候補ポリシーの動作を通じて評価する。
我々はMAP-AI(Monte Carlo Alignment for Policy)を適応性アライメントを運用するための標準システムアーキテクチャとして提示し、アライメントを静的条件やバイナリ条件ではなく確率論的、決定論的特性として定式化する。
MAP-AIは、不確実性の下で意思決定を整列するための新しい制御プレーンシステムアーキテクチャであり、モンテカルロによる結果分布の推定と、静的モデルレベルの制約よりも許容性制御されたポリシー選択を通じてアライメントを強制する。
このフレームワークは、不確実性、介入効果、価値あいまいさ、ガバナンスの制約を明示的にモデル化し、妥当な未来をまとめて決定ポリシーを評価する。
アライメントは、期待効用、分散、テールリスク、誤アライメントの確率などの分布特性を通じて評価される。
このアプローチは、不確実性の下での意思決定推論から確率的予測を区別し、企業や機関のAIシステムにおける信頼と整合性を評価する実行可能な方法論を提供する。
その結果、個々の予測ではなく、分布や尾のイベントを越えた政策行動によって影響が決定されるAIシステムを管理するための実践的な基礎となります。
最後に,分散アライメント評価を意思決定自体に組み込むことにより,不確実性の下での政策行動を変化させる適応性制御された行動選択機構を実現する。
関連論文リスト
- Conformalized Decision Risk Assessment [5.391713612899277]
本稿では,任意の候補決定を定量化する新しいフレームワークCREDOを紹介し,その決定が最適以下である確率の分布自由上限について紹介する。
逆最適化幾何と共形予測と生成モデリングを組み合わせることで、CREDOは統計的に厳密で実用的な解釈が可能なリスク証明書を生成する。
論文 参考訳(メタデータ) (2025-05-19T15:24:38Z) - Uncertainty Quantification and Causal Considerations for Off-Policy Decision Making [4.514386953429771]
オフ政治評価(OPE)は、異なる政策の下で収集されたデータを用いて、新しい政策のパフォーマンスを評価する。
既存のOPE手法は、統計的不確実性や因果的考慮から生じるいくつかの制限に悩まされている。
結果の限界分布に着目して分散を低減する新しい OPE 手法である Marginal Ratio (MR) 推定器を導入する。
次に,OPEにおける不確実性定量化の原理的アプローチである Conformal Off-Policy Prediction (COPP) を提案する。
最後に, 政策外の意思決定における因果不確定性に対処する。
論文 参考訳(メタデータ) (2025-02-09T20:05:19Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Predictive Performance Comparison of Decision Policies Under Confounding [32.21041697921289]
そこで本稿では, 意思決定ポリシーの予測性能を, 様々な現代的な識別手法で比較する手法を提案する。
我々の手法の鍵は、政策比較において安全に無視できる不確実性領域が存在するという洞察である。
論文 参考訳(メタデータ) (2024-04-01T01:27:07Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - An Offline Risk-aware Policy Selection Method for Bayesian Markov
Decision Processes [0.0]
Exploitation vs. Caution (EvC) はベイズ形式主義のモデル不確実性をエレガントに取り入れたパラダイムである。
我々は,多種多様なMDPクラスを提供する異なる離散的かつシンプルな環境において,最先端のアプローチでEvCを検証する。
テストシナリオでは、EvCは堅牢なポリシーを選択することができ、実践者にとって有用なツールとして際立っている。
論文 参考訳(メタデータ) (2021-05-27T20:12:20Z) - Identification of Unexpected Decisions in Partially Observable
Monte-Carlo Planning: a Rule-Based Approach [78.05638156687343]
本稿では,POMCPポリシーをトレースを検査して分析する手法を提案する。
提案手法は, 政策行動の局所的特性を探索し, 予期せぬ決定を識別する。
我々は,POMDPの標準ベンチマークであるTigerに対するアプローチと,移動ロボットナビゲーションに関する現実の問題を評価した。
論文 参考訳(メタデータ) (2020-12-23T15:09:28Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。