論文の概要: Variance-Gated Ensembles: An Epistemic-Aware Framework for Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2602.08142v1
- Date: Sun, 08 Feb 2026 22:05:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.997838
- Title: Variance-Gated Ensembles: An Epistemic-Aware Framework for Uncertainty Estimation
- Title(参考訳): 可変ゲート型アンサンブル:不確実性推定のための認識型フレームワーク
- Authors: H. Martin Gillis, Isaac Xu, Thomas Trappenberg,
- Abstract要約: VGE(Variance-Gated Ensembles)は、アンサンブル統計から計算した信号-雑音ゲートを介して、てんかん感受性を注入する直感的なフレームワークである。
我々は、アンサンブルサンプル平均と分散によるエンドツーエンドのトレーニングを可能にする閉形式ベクトル-ヤコビアン積を導出した。
- 参考スコア(独自算出の注目度): 0.6340400318304492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning applications require fast and reliable per-sample uncertainty estimation. A common approach is to use predictive distributions from Bayesian or approximation methods and additively decompose uncertainty into aleatoric (i.e., data-related) and epistemic (i.e., model-related) components. However, additive decomposition has recently been questioned, with evidence that it breaks down when using finite-ensemble sampling and/or mismatched predictive distributions. This paper introduces Variance-Gated Ensembles (VGE), an intuitive, differentiable framework that injects epistemic sensitivity via a signal-to-noise gate computed from ensemble statistics. VGE provides: (i) a Variance-Gated Margin Uncertainty (VGMU) score that couples decision margins with ensemble predictive variance; and (ii) a Variance-Gated Normalization (VGN) layer that generalizes the variance-gated uncertainty mechanism to training via per-class, learnable normalization of ensemble member probabilities. We derive closed-form vector-Jacobian products enabling end-to-end training through ensemble sample mean and variance. VGE matches or exceeds state-of-the-art information-theoretic baselines while remaining computationally efficient. As a result, VGE provides a practical and scalable approach to epistemic-aware uncertainty estimation in ensemble models. An open-source implementation is available at: https://github.com/nextdevai/vge.
- Abstract(参考訳): 機械学習アプリケーションは、高速で信頼性の高いサンプルごとの不確実性推定を必要とする。
一般的なアプローチは、ベイズあるいは近似法からの予測分布を使用し、不確実性をアレラトリック(すなわちデータ関連)とてんかん(すなわちモデル関連)に加法的に分解することである。
しかし, 有限アンサンブルサンプリングおよび/またはミスマッチした予測分布を用いると, 崩壊する証拠があるなど, 最近, 加法分解が疑問視されている。
本稿では,VGE(Variance-Gated Ensembles)について紹介する。
VGEは次のように提供する。
(i)決定マージンの差を予測差のアンサンブルと対応させる可変ゲット・マージン不確実性スコア
(II)分散ゲート不確実性機構をクラスごとの学習可能なアンサンブルメンバー確率の正規化によるトレーニングに一般化する分散ゲート正規化(VGN)層。
我々は、アンサンブルサンプル平均と分散によるエンドツーエンドのトレーニングを可能にする閉形式ベクトル-ヤコビアン積を導出した。
VGEは計算効率を保ちながら最先端の情報理論ベースラインに適合または超過する。
結果として、VGEは、アンサンブルモデルにおけるてんかんを意識した不確実性推定のための実用的でスケーラブルなアプローチを提供する。
オープンソース実装は、https://github.com/nextdevai/vge.comで公開されている。
関連論文リスト
- In-Context Learning Is Provably Bayesian Inference: A Generalization Theory for Meta-Learning [51.56484100374058]
本稿では,ICLリスクをベイズギャップとポストリアバリアンスの2つのコンポーネントに分割する基本的リスク分解を導入する。
一様アテンション変換器の場合、このギャップの非漸近上界を導出し、事前学習プロンプトの数への依存を明確にする。
後方変動は本質的なタスクの不確実性を表すモデルに依存しないリスクである。
論文 参考訳(メタデータ) (2025-10-13T03:42:31Z) - Multidimensional Uncertainty Quantification via Optimal Transport [87.97146725546502]
相補的なUQ測度をベクトルに積み重ねることで,不確実性定量化(UQ)の多次元的考察を行う。
VecUQ-OTは、個々の測定が失敗しても高い効率を示す。
論文 参考訳(メタデータ) (2025-09-26T14:09:03Z) - Uncertainty Estimation using Variance-Gated Distributions [0.6340400318304492]
クラス確率分布の信号対雑音比に基づく不確実性推定と分解のための直感的なフレームワークを提案する。
本稿では,アンサンブルから導かれる信頼因子による予測をスケールする分散化指標を提案する。
論文 参考訳(メタデータ) (2025-09-07T16:19:21Z) - MVG-CRPS: A Robust Loss Function for Multivariate Probabilistic Forecasting [17.212396544233307]
本稿では,MVG分布の厳密なスコアリングルールであるMVG-CRPSを提案する。
MVG-CRPSはニューラルネットワークの出力の観点からクローズドフォーム表現を認め、ディープラーニングフレームワークにシームレスに統合する。
論文 参考訳(メタデータ) (2024-10-11T15:10:20Z) - Uncertainty Estimation and Out-of-Distribution Detection for LiDAR Scene Semantic Segmentation [0.6144680854063939]
新しい環境で安全なナビゲーションを行うには、自動運転車やロボットが環境を正確に解釈する必要がある。
そこで本研究では,分布内(ID)と分布外(OOD)を区別する手法を提案する。
一つの決定論的モデルの特徴空間を用いて、疫学とアレター的不確実性の両方を定量化する。
論文 参考訳(メタデータ) (2024-10-11T10:19:24Z) - Invariant Probabilistic Prediction [45.90606906307022]
任意の分布シフトは、一般に不変かつ頑健な確率的予測を認めないことを示す。
Invariant probabilistic predictions called IPP, and study the consistency of the underlying parameters。
論文 参考訳(メタデータ) (2023-09-18T18:50:24Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Uncertainty Estimates of Predictions via a General Bias-Variance
Decomposition [7.811916700683125]
本稿では,適切なスコアに対するバイアス分散分解を導入し,分散項としてブレグマン情報を導出する。
モデルアンサンブルや信頼領域を含む下流タスクにおけるこの分解の実践的妥当性を示す。
論文 参考訳(メタデータ) (2022-10-21T21:24:37Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - CovarianceNet: Conditional Generative Model for Correct Covariance
Prediction in Human Motion Prediction [71.31516599226606]
本稿では,将来の軌道の予測分布に関連する不確かさを正確に予測する手法を提案する。
我々のアプローチであるCovariaceNetは、ガウス潜在変数を持つ条件付き生成モデルに基づいている。
論文 参考訳(メタデータ) (2021-09-07T09:38:24Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。