論文の概要: What Capable Agents Must Know: Selection Theorems for Robust Decision-Making under Uncertainty
- arxiv url: http://arxiv.org/abs/2603.02491v1
- Date: Tue, 03 Mar 2026 00:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.588799
- Title: What Capable Agents Must Know: Selection Theorems for Robust Decision-Making under Uncertainty
- Title(参考訳): 不確実性の下でのロバストな意思決定のための選択理論
- Authors: Aran Nayebi,
- Abstract要約: 我々は「選択定理」を証明し、低い「平均的な後悔」がエージェントに予測的、構造化された内部状態を実装することを強制することを示す。
後悔は、最適当量に対する確率質量を制限することを示し、高マージンな結果の分離に必要な予測的区別を強制する。
- 参考スコア(独自算出の注目度): 1.6868147729303773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial agents become increasingly capable, what internal structure is *necessary* for an agent to act competently under uncertainty? Classical results show that optimal control can be *implemented* using belief states or world models, but not that such representations are required. We prove quantitative "selection theorems" showing that low *average-case regret* on structured families of action-conditioned prediction tasks forces an agent to implement a predictive, structured internal state. Our results cover stochastic policies, partial observability, and evaluation under task distributions, without assuming optimality, determinism, or access to an explicit model. Technically, we reduce predictive modeling to binary "betting" decisions and show that regret bounds limit probability mass on suboptimal bets, enforcing the predictive distinctions needed to separate high-margin outcomes. In fully observed settings, this yields approximate recovery of the interventional transition kernel; under partial observability, it implies necessity of belief-like memory and predictive state, addressing an open question in prior world-model recovery work.
- Abstract(参考訳): 人工エージェントがますます有能になるにつれて、エージェントが不確実性の下で有能に振る舞うために必要な内部構造は?
古典的な結果は、最適な制御は、信念状態や世界モデルを使って*実装できるが、そのような表現は必須ではないことを示している。
我々は、行動条件付き予測タスクの構造化されたファミリーにおける低*平均ケース後悔*がエージェントに予測的、構造化された内部状態を実装するよう強制することを示す定量的な「選択定理」を証明した。
本研究は、最適性、決定性、明示的モデルへのアクセスを前提とせず、確率的ポリシー、部分的可観測性、タスク分布による評価を網羅する。
技術的には、予測モデリングを二分的「賭け」決定に還元し、後悔は準最適賭けの確率質量を制限することを示し、高マージンな結果の分離に必要な予測的区別を強制する。
完全に観察された環境では、これは介入遷移カーネルを近似的に回復させ、部分的な可観測性の下では、信念のような記憶と予測状態が必要であり、以前の世界モデル回復作業におけるオープンな問題に対処する。
関連論文リスト
- The Illusion of Certainty: Uncertainty quantification for LLMs fails under ambiguity [48.899855816199484]
そこで本研究では,第1の曖昧な質問応答(QA)データセットであるMAQA*とAmbigQA*を紹介する。
予測分布とアンサンブルに基づく推定器は、あいまいさの下では基本的に限定的であることを示す。
論文 参考訳(メタデータ) (2025-11-06T14:46:35Z) - How Far Are We from Generating Missing Modalities with Foundation Models? [49.425856207329524]
欠落したモダリティの再構築に適したエージェントフレームワークを提案する。
本手法は, 画像再構成に要するFIDを少なくとも14%, MERを少なくとも10%削減する。
論文 参考訳(メタデータ) (2025-06-04T03:22:44Z) - Conformalized Decision Risk Assessment [5.391713612899277]
本稿では,任意の候補決定を定量化する新しいフレームワークCREDOを紹介し,その決定が最適以下である確率の分布自由上限について紹介する。
逆最適化幾何と共形予測と生成モデリングを組み合わせることで、CREDOは統計的に厳密で実用的な解釈が可能なリスク証明書を生成する。
論文 参考訳(メタデータ) (2025-05-19T15:24:38Z) - Model uncertainty quantification using feature confidence sets for outcome excursions [0.0]
本稿では,連続的および二項的結果の不確かさを定量化するための,新しいモデルに依存しない枠組みを提案する。
シミュレーションを通じて検証され、住宅価格予測や医療における敗血症診断の時間といったコンテキストにおける実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2025-04-28T04:08:07Z) - Truthful Elicitation of Imprecise Forecasts [11.153198087930756]
我々は,信頼の集合として与えられる不正確な予測を評価するための枠組みを提案する。
集約手順上でランダム化される適切なスコアリングルールを用いて,不正確予測の真正推論が達成可能であることを示す。
論文 参考訳(メタデータ) (2025-03-20T17:53:35Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Discretization-Induced Dirichlet Posterior for Robust Uncertainty
Quantification on Regression [17.49026509916207]
不確実性定量化は、現実世界のアプリケーションにディープニューラルネットワーク(DNN)をデプロイするために重要である。
視覚回帰タスクでは、現在のAuxUE設計は、主にアレタリック不確実性推定に採用されている。
回帰タスクにおけるより堅牢な不確実性定量化のための一般化されたAuxUEスキームを提案する。
論文 参考訳(メタデータ) (2023-08-17T15:54:11Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Uncertainty estimation under model misspecification in neural network
regression [3.2622301272834524]
モデル選択が不確実性評価に与える影響について検討する。
モデルミスセグメンテーションでは,アレータリック不確実性は適切に捉えられていない。
論文 参考訳(メタデータ) (2021-11-23T10:18:41Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Alternative Microfoundations for Strategic Classification [33.67797984699066]
完全な情報を持つ合理的なエージェントは、決定規則に対する集合的応答において不連続を生じさせることを示す。
標準的なマイクロファウンデーションの下での最適決定ルールは、社会的負担として知られる負の外部性の尺度を最大化する。
我々のモデルは、分析的トラクタビリティを保持し、安定点に関するより堅牢な洞察をもたらし、最適性において社会的負担を低くする。
論文 参考訳(メタデータ) (2021-06-24T00:30:58Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。