論文の概要: Probably Approximately Correct Maximum A Posteriori Inference
- arxiv url: http://arxiv.org/abs/2601.16083v1
- Date: Thu, 22 Jan 2026 16:28:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.651214
- Title: Probably Approximately Correct Maximum A Posteriori Inference
- Title(参考訳): 腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下腹腔鏡下CT下
- Authors: Matthew Shorvon, Frederik Mallmann-Trenn, David S. Watson,
- Abstract要約: 分布の条件モード($mathitmaximum a reari$ (MAP) assignment)は確率的推論の基本的なタスクである。
我々はMAP推論のための$mathitprobably approximately correct$ (PAC)アルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 4.740962650068888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing the conditional mode of a distribution, better known as the $\mathit{maximum\ a\ posteriori}$ (MAP) assignment, is a fundamental task in probabilistic inference. However, MAP estimation is generally intractable, and remains hard even under many common structural constraints and approximation schemes. We introduce $\mathit{probably\ approximately\ correct}$ (PAC) algorithms for MAP inference that provide provably optimal solutions under variable and fixed computational budgets. We characterize tractability conditions for PAC-MAP using information theoretic measures that can be estimated from finite samples. Our PAC-MAP solvers are efficiently implemented using probabilistic circuits with appropriate architectures. The randomization strategies we develop can be used either as standalone MAP inference techniques or to improve on popular heuristics, fortifying their solutions with rigorous guarantees. Experiments confirm the benefits of our method in a range of benchmarks.
- Abstract(参考訳): 分布の条件モードを計算する、よりよく知られた$\mathit{maximum\ a\ reari}$ (MAP) は確率的推論の基本的なタスクである。
しかし、MAP推定は一般に難解であり、多くの共通構造制約や近似スキームの下でも難しいままである。
我々はMAP推論のための$\mathit{probably\ approximately\ correct}$ (PAC)アルゴリズムを導入する。
有限標本から推定できる情報理論を用いたPAC-MAPのトラクタビリティ条件を特徴付ける。
PAC-MAPソルバは、適切なアーキテクチャを持つ確率回路を用いて効率よく実装される。
私たちが開発しているランダム化戦略は、スタンドアローンのMAP推論技術や、一般的なヒューリスティックスの改善に利用でき、厳密な保証でソリューションを固めることができる。
実験により,本手法の利点をベンチマークで確認した。
関連論文リスト
- Outcome-Based Online Reinforcement Learning: Algorithms and Fundamental Limits [58.63897489864948]
結果に基づくフィードバックによる強化学習は、根本的な課題に直面します。
適切なアクションにクレジットを割り当てるには?
本稿では,一般関数近似を用いたオンラインRLにおけるこの問題の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-26T17:44:08Z) - Online POMDP Planning with Anytime Deterministic Optimality Guarantees [13.824288326240927]
近似解と最適解の間の離散POMDPに対する決定論的関係を導出する。
我々の導出は、新しいアルゴリズムセットの道を提供し、既存のアルゴリズムにアタッチできることを示します。
論文 参考訳(メタデータ) (2023-10-03T04:40:38Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Adversarial Robustness Guarantees for Gaussian Processes [22.403365399119107]
ガウス過程(GP)は、モデルの不確実性の原理的計算を可能にし、安全性に重要なアプリケーションに魅力的です。
境界付き摂動に対するモデル決定の不変性として定義されるGPの対向的堅牢性を分析するためのフレームワークを提案する。
我々は境界を洗練し、任意の$epsilon > 0$に対して、我々のアルゴリズムが有限個の反復で実際の値に$epsilon$-closeの値に収束することを保証していることを示す分岐とバウンドのスキームを開発する。
論文 参考訳(メタデータ) (2021-04-07T15:14:56Z) - Solving Inverse Problems by Joint Posterior Maximization with
Autoencoding Prior [0.0]
JPal Autoencoder (VAE) が先行する画像における不適切な逆問題解決の問題に対処する。
本手法は,提案した目的関数を満たすのに十分であることを示す。
結果は、より堅牢な見積もりを提供するアプローチの堅牢性も示しています。
論文 参考訳(メタデータ) (2021-03-02T11:18:34Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。