論文の概要: Evaluating Aleatoric Uncertainty via Conditional Generative Models
- arxiv url: http://arxiv.org/abs/2206.04287v1
- Date: Thu, 9 Jun 2022 05:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:32:13.767769
- Title: Evaluating Aleatoric Uncertainty via Conditional Generative Models
- Title(参考訳): 条件生成モデルによるアレオータの不確かさの評価
- Authors: Ziyi Huang, Henry Lam, Haofeng Zhang
- Abstract要約: 本研究では,アレータティック不確実性推定のための条件生成モデルについて検討する。
本稿では,2つの条件分布間の差を測定するための2つの指標を提案する。
我々は,我々の測定値が条件分布の相違を正確に測定する方法を数値的に示す。
- 参考スコア(独自算出の注目度): 15.494774321257939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aleatoric uncertainty quantification seeks for distributional knowledge of
random responses, which is important for reliability analysis and robustness
improvement in machine learning applications. Previous research on aleatoric
uncertainty estimation mainly targets closed-formed conditional densities or
variances, which requires strong restrictions on the data distribution or
dimensionality. To overcome these restrictions, we study conditional generative
models for aleatoric uncertainty estimation. We introduce two metrics to
measure the discrepancy between two conditional distributions that suit these
models. Both metrics can be easily and unbiasedly computed via Monte Carlo
simulation of the conditional generative models, thus facilitating their
evaluation and training. We demonstrate numerically how our metrics provide
correct measurements of conditional distributional discrepancies and can be
used to train conditional models competitive against existing benchmarks.
- Abstract(参考訳): aleatoric uncertainty quantificationはランダム応答の分布的知識を求めており、機械学習アプリケーションにおける信頼性分析とロバスト性改善に重要である。
aleatoric uncertainty estimation の以前の研究は、主に閉形式条件密度や分散を対象とし、データ分布や次元に強い制限を必要とする。
これらの制約を克服するため,アレータティック不確実性推定のための条件付き生成モデルについて検討した。
これらのモデルに適合する2つの条件分布間の差を測定するための2つの指標を導入する。
両方のメトリクスは条件付き生成モデルのモンテカルロシミュレーションによって容易に、不偏に計算できるため、評価と訓練が容易になる。
既存のベンチマークと競合する条件付モデルのトレーニングに使用できる,条件付分布の不一致の正確な測定を行うための指標を数値的に示す。
関連論文リスト
- Uncertainty Quantification of Surrogate Models using Conformal Prediction [7.445864392018774]
我々は,モデルに依存しない方法で予測を満足する共形予測フレームワークを定式化し,ほぼゼロの計算コストを必要とする。
本稿では,決定論的モデルに対する統計的に有効なエラーバーを提供するとともに,確率論的モデルのエラーバーに対する保証を作成することを検討する。
論文 参考訳(メタデータ) (2024-08-19T10:46:19Z) - Beyond Calibration: Assessing the Probabilistic Fit of Neural Regressors via Conditional Congruence [2.2359781747539396]
ディープネットワークは、しばしば過剰な自信と不一致な予測分布に悩まされる。
本稿では,条件付きカーネルの平均埋め込みを用いて,学習した予測分布とデータセットにおける経験的条件分布との距離を推定する,条件付きコングルーエンス誤差(CCE)について紹介する。
本研究では,1)データ生成プロセスが知られている場合の分布間の不一致を正確に定量化し,2)実世界の高次元画像回帰タスクに効果的にスケールし,3)未知のインスタンス上でのモデルの信頼性を評価することができることを示す。
論文 参考訳(メタデータ) (2024-05-20T23:30:07Z) - Quantifying Distribution Shifts and Uncertainties for Enhanced Model Robustness in Machine Learning Applications [0.0]
本研究では,合成データを用いたモデル適応と一般化について検討する。
我々は、データ類似性を評価するために、Kullback-Leiblerの発散、Jensen-Shannon距離、Mahalanobis距離などの量的尺度を用いる。
本研究は,マハラノビス距離などの統計指標を用いて,モデル予測が低誤差の「補間体制」内にあるか,あるいは高誤差の「補間体制」が分布変化とモデル不確実性を評価するための補完的手法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-03T10:05:31Z) - Deep Evidential Learning for Bayesian Quantile Regression [3.6294895527930504]
1つの決定論的フォワードパスモデルから正確な不確実性を推定することが望ましい。
本稿では,ガウス的仮定を使わずに連続目標分布の量子化を推定できるディープベイズ量子回帰モデルを提案する。
論文 参考訳(メタデータ) (2023-08-21T11:42:16Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - User-defined Event Sampling and Uncertainty Quantification in Diffusion
Models for Physical Dynamical Systems [49.75149094527068]
拡散モデルを用いて予測を行い,カオス力学系に対する不確かさの定量化が可能であることを示す。
本研究では,雑音レベルが低下するにつれて真の分布に収束する条件付きスコア関数の確率的近似法を開発する。
推論時に非線形ユーザ定義イベントを条件付きでサンプリングすることができ、分布の尾部からサンプリングした場合でもデータ統計と一致させることができる。
論文 参考訳(メタデータ) (2023-06-13T03:42:03Z) - Sufficient Identification Conditions and Semiparametric Estimation under
Missing Not at Random Mechanisms [4.211128681972148]
統計的に有効な分析を行うことは、MNARデータの存在において困難である。
従来のMNARモデルを2つの方法で一般化したMNARモデルを考える。
そこで本稿では,確率比をパラメータとして,そのようなモデルで符号化された独立性制約をテストする手法を提案する。
論文 参考訳(メタデータ) (2023-06-10T13:46:16Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。