論文の概要: Evidential Uncertainty Quantification: A Variance-Based Perspective
- arxiv url: http://arxiv.org/abs/2311.11367v1
- Date: Sun, 19 Nov 2023 16:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:44:19.930888
- Title: Evidential Uncertainty Quantification: A Variance-Based Perspective
- Title(参考訳): 証拠不確かさの定量化:変数に基づく視点
- Authors: Ruxiao Duan, Brian Caffo, Harrison X. Bai, Haris I. Sair, Craig Jones
- Abstract要約: 回帰から分類への分散に基づくアプローチを適応し,クラスレベルでの分類の不確実性を定量化する。
クロスドメインデータセットの実験は、分散ベースのアプローチが、アクティブドメイン適応におけるエントロピーベースのデータセットと同等の精度をもたらすだけでなく、より正確な結果をもたらすことを示すために行われた。
- 参考スコア(独自算出の注目度): 0.43536523356694407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification of deep neural networks has become an active field
of research and plays a crucial role in various downstream tasks such as active
learning. Recent advances in evidential deep learning shed light on the direct
quantification of aleatoric and epistemic uncertainties with a single forward
pass of the model. Most traditional approaches adopt an entropy-based method to
derive evidential uncertainty in classification, quantifying uncertainty at the
sample level. However, the variance-based method that has been widely applied
in regression problems is seldom used in the classification setting. In this
work, we adapt the variance-based approach from regression to classification,
quantifying classification uncertainty at the class level. The variance
decomposition technique in regression is extended to class covariance
decomposition in classification based on the law of total covariance, and the
class correlation is also derived from the covariance. Experiments on
cross-domain datasets are conducted to illustrate that the variance-based
approach not only results in similar accuracy as the entropy-based one in
active domain adaptation but also brings information about class-wise
uncertainties as well as between-class correlations. The code is available at
https://github.com/KerryDRX/EvidentialADA. This alternative means of evidential
uncertainty quantification will give researchers more options when class
uncertainties and correlations are important in their applications.
- Abstract(参考訳): 深層ニューラルネットワークの不確かさの定量化は研究の活発な分野となり、アクティブラーニングのような下流の様々なタスクにおいて重要な役割を担っている。
近年の顕在的深層学習の進歩は, モデルの1つの前方通過による動脈およびてんかんの不確かさの直接定量化に寄与している。
ほとんどの伝統的なアプローチでは、エントロピーに基づく方法で分類における明白な不確かさを導き、サンプルレベルでの不確かさを定量化している。
しかし,回帰問題に広く適用されている分散ベースの手法は,分類設定においてほとんど用いられない。
本研究では,回帰から分類へ分散ベースのアプローチを適用し,クラスレベルでの分類の不確かさを定量化する。
回帰における分散分解手法は、全共分散の法則に基づく分類におけるクラス共分散分解に拡張され、クラス相関も共分散から導出される。
クロスドメインデータセットの実験は、分散ベースのアプローチが、アクティブドメイン適応におけるエントロピーベースのアプローチと同等の精度をもたらすだけでなく、クラスワイドの不確実性やクラス間の相関に関する情報をもたらすことを示す。
コードはhttps://github.com/kerrydrx/evidentialadaで入手できる。
この明らかな不確実性定量化の代替手段は、クラスの不確実性や相関が応用において重要である場合、研究者により多くの選択肢を与える。
関連論文リスト
- Evaluation of uncertainty estimations for Gaussian process regression based machine learning interatomic potentials [0.0]
機械学習の原子間ポテンシャルの不確実性推定は、導入した追加モデルエラーの定量化に不可欠である。
我々は、クーロンおよびSOAP表現を持つGPRモデルを、ポテンシャルエネルギー表面と分子の励起エネルギーを予測する入力として考える。
我々は,GPRの分散とアンサンブルに基づく不確かさが誤差とどのように関係しているか,また,固定された構成空間から最も不確実なサンプルを選択することによりモデル性能が向上するかを評価する。
論文 参考訳(メタデータ) (2024-10-27T10:06:09Z) - Instance-wise Uncertainty for Class Imbalance in Semantic Segmentation [4.147659576493158]
最先端の手法はますます深層学習モデルに依存しており、不確実性を誤って推定し、予測を過度に信ずることが知られている。
これは、固有のクラス不均衡のため、セマンティックセグメンテーションにおいて特に問題となる。
セマンティックセグメンテーションに特化して設計された新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:38:32Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Intra-Class Uncertainty Loss Function for Classification [6.523198497365588]
特にアンバランスクラスを含むデータセットでは、クラス内の不確実性/可変性は考慮されない。
本フレームワークでは,各クラスの深いネットワークによって抽出された特徴を,独立なガウス分布によって特徴付ける。
提案手法は,より優れたクラス表現を学習することで,分類性能の向上を示す。
論文 参考訳(メタデータ) (2021-04-12T09:02:41Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。