論文の概要: Uncertainty Estimation by Density Aware Evidential Deep Learning
- arxiv url: http://arxiv.org/abs/2409.08754v1
- Date: Fri, 13 Sep 2024 12:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 16:49:03.771519
- Title: Uncertainty Estimation by Density Aware Evidential Deep Learning
- Title(参考訳): 情報深層学習を考慮した密度認識による不確かさ推定
- Authors: Taeseong Yoon, Heeyoung Kim,
- Abstract要約: Evidential Deep Learning (EDL) は不確実性評価において顕著な成功を収めた。
本稿では,DAEDL(Dedentity Aware Evidential Deep Learning)と呼ばれる新しい手法を提案する。
DAEDLは、テスト例の特徴空間密度と予測段階におけるEDLの出力を統合する。
これは、不確実性推定と分類に関連する様々な下流タスクにまたがる最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 7.328039160501826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evidential deep learning (EDL) has shown remarkable success in uncertainty estimation. However, there is still room for improvement, particularly in out-of-distribution (OOD) detection and classification tasks. The limited OOD detection performance of EDL arises from its inability to reflect the distance between the testing example and training data when quantifying uncertainty, while its limited classification performance stems from its parameterization of the concentration parameters. To address these limitations, we propose a novel method called Density Aware Evidential Deep Learning (DAEDL). DAEDL integrates the feature space density of the testing example with the output of EDL during the prediction stage, while using a novel parameterization that resolves the issues in the conventional parameterization. We prove that DAEDL enjoys a number of favorable theoretical properties. DAEDL demonstrates state-of-the-art performance across diverse downstream tasks related to uncertainty estimation and classification
- Abstract(参考訳): Evidential Deep Learning (EDL) は不確実性評価において顕著な成功を収めた。
しかし、特にアウト・オブ・ディストリビューション(OOD)の検出と分類タスクにおいて、改善の余地は残っている。
EDLの限られたOOD検出性能は、不確実性を定量化する際の試験例とトレーニングデータの距離を反映できないことに起因するが、その限定された分類性能は、その濃度パラメータのパラメータ化に由来する。
これらの制約に対処するため,本研究では,DAEDL(Dedentity Aware Evidential Deep Learning)と呼ばれる新しい手法を提案する。
DAEDLはテスト例の特徴空間密度を予測段階のEDLの出力と統合し、従来のパラメータ化の問題を解決する新しいパラメータ化を使用する。
DAEDLが多くの理論的性質を享受していることを証明する。
DAEDLは不確実性推定と分類に関連する様々な下流タスクにまたがる最先端性能を実証する
関連論文リスト
- Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Probabilistic Contrastive Learning with Explicit Concentration on the Hypersphere [3.572499139455308]
本稿では,球面空間に表現を埋め込むことにより,不確実性を比較学習に取り入れる新たな視点を提案する。
我々は、濃度パラメータであるカッパを直接解釈可能な尺度として利用し、不確実性を明示的に定量化する。
論文 参考訳(メタデータ) (2024-05-26T07:08:13Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Are Uncertainty Quantification Capabilities of Evidential Deep Learning a Mirage? [35.15844215216846]
EDL法は,特定の目的関数を最小化することにより,予測分布上のメタ分布を学習する。
近年の研究では、学習した不確実性は信頼できないと結論づける既存の方法の限界が特定されている。
本研究では,多種多様な目的関数を統一することにより,多種多様なEDL手法の挙動をより深く理解する。
我々は,EDL法が下流タスクに実証的に有効であるとしても,不確実な定量化能力に乏しいにもかかわらず,これは発生すると結論付けた。
論文 参考訳(メタデータ) (2024-02-09T03:23:39Z) - Knowledge from Uncertainty in Evidential Deep Learning [10.751990848772028]
本研究は,Evidential Deep Learning(EDL)における不確実性から生じる明らかな信号を明らかにする。
EDLは、現在のテストサンプルに対する信頼性を提供するために設計された、不確実性を認識したディープラーニングアプローチのクラスの一例である。
論文 参考訳(メタデータ) (2023-10-19T11:41:52Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。