論文の概要: When Do Credal Sets Stabilize? Fixed-Point Theorems for Credal Set Updates
- arxiv url: http://arxiv.org/abs/2510.04769v1
- Date: Mon, 06 Oct 2025 12:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.862907
- Title: When Do Credal Sets Stabilize? Fixed-Point Theorems for Credal Set Updates
- Title(参考訳): クレーダセットはいつ安定するか? クレーダセット更新のための固定点定理
- Authors: Michele Caprio, Siu Lun Chau, Krikamol Muandet,
- Abstract要約: インプレクションと曖昧さの存在下で、不正確な確率的信念を表現するための一般的な枠組みとして、クレダーセットが出現してきた。
学習過程に不正確さを組み込むことは不確実性の表現を豊かにするだけでなく、安定性が出現する構造的条件も明らかにする。
- 参考スコア(独自算出の注目度): 12.230769294623121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning algorithms rely on iterative updates of uncertainty representations, ranging from variational inference and expectation-maximization, to reinforcement learning, continual learning, and multi-agent learning. In the presence of imprecision and ambiguity, credal sets -- closed, convex sets of probability distributions -- have emerged as a popular framework for representing imprecise probabilistic beliefs. Under such imprecision, many learning problems in imprecise probabilistic machine learning (IPML) may be viewed as processes involving successive applications of update rules on credal sets. This naturally raises the question of whether this iterative process converges to stable fixed points -- or, more generally, under what conditions on the updating mechanism such fixed points exist, and whether they can be attained. We provide the first analysis of this problem and illustrate our findings using Credal Bayesian Deep Learning as a concrete example. Our work demonstrates that incorporating imprecision into the learning process not only enriches the representation of uncertainty, but also reveals structural conditions under which stability emerges, thereby offering new insights into the dynamics of iterative learning under imprecision.
- Abstract(参考訳): 多くの機械学習アルゴリズムは、変分推論や予測最大化から強化学習、連続学習、マルチエージェント学習まで、不確実性表現の反復的な更新に依存している。
インプレクションと曖昧さの存在下では、不正確な確率的信念を表現するための一般的な枠組みとして、クローズドで凸な確率分布の集合(英語版)が出現している。
このような不正確さの下では、不正確な確率的機械学習(IPML)における多くの学習問題を、クレダル集合上の更新規則の連続的な適用を含むプロセスと見なすことができる。
これは自然に、この反復過程が安定な不動点に収束するかどうか、あるいはより一般的には、そのような不動点の更新機構のどの条件が存在するか、そしてそれらを達成することができるかという問題を提起する。
本稿では,この問題を初めて解析し,具体的な例としてクレダルベイズ深層学習 (Credal Bayesian Deep Learning) について述べる。
本研究は,不確定性の表現を学習プロセスに組み込むことで,不確実性の表現を豊かにするだけでなく,安定性が出現する構造的条件を明らかにし,即時学習の力学に対する新たな洞察を提供する。
関連論文リスト
- Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning [1.2183405753834562]
この論文は、不確実性推定が機械学習(ML)システムの安全性と信頼性を高める方法について考察する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
本稿では,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック禁忌手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T02:33:53Z) - Variation Due to Regularization Tractably Recovers Bayesian Deep Learning [44.16006844888796]
本稿では,正規化による変動に基づく大規模ネットワークの不確実性定量化手法を提案する。
正規化変動(RegVar)は、無限小極限においてベイズ深層学習におけるラプラス近似を正確に回復する厳密な不確実性を推定する。
複数のデータセットにまたがる実験により、RegVarは不確実な予測を効果的に識別するだけでなく、学習した表現の安定性に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-15T20:47:39Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Uncertainty Estimation and Calibration with Finite-State Probabilistic
RNNs [29.84563789289183]
不確かさの定量化は、信頼性と信頼性のある機械学習システムを構築するために不可欠である。
本稿では、リカレントニューラルネットワーク(RNN)における離散状態遷移による不確実性の推定を提案する。
モデルの不確実性は、繰り返し状態遷移分布からサンプリングするたびに、予測を数回実行することで定量化することができる。
論文 参考訳(メタデータ) (2020-11-24T10:35:28Z) - Representations for Stable Off-Policy Reinforcement Learning [37.561660796265]
関数近似による強化学習は不安定であり、また分岐することもある。
本研究では,非政治学習においても,標準的TDアルゴリズムが安定な非自明な状態表現を示す。
我々はこれらの安定表現が勾配降下を用いて学習できることを実証的に示すことで結論付けた。
論文 参考訳(メタデータ) (2020-07-10T17:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。