論文の概要: Quantifying Adversarial Uncertainty in Evidential Deep Learning using Conflict Resolution
- arxiv url: http://arxiv.org/abs/2506.05937v1
- Date: Fri, 06 Jun 2025 10:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.415093
- Title: Quantifying Adversarial Uncertainty in Evidential Deep Learning using Conflict Resolution
- Title(参考訳): 衝突分解能を用いた情報深層学習における逆不確かさの定量化
- Authors: Charmaine Barker, Daniel Bethell, Simos Gerasimou,
- Abstract要約: C-EDL (Conflict-aware Evidential Deep Learning) は、ポストホック後の不確実性定量化手法である。
C-EDLは入力毎に多様なタスク保存変換を生成し、不一致を定量化して不確実性推定を校正する。
実験により,C-EDLは最先端のEDLと競争ベースラインを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 2.321323878201932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliability of deep learning models is critical for deployment in high-stakes applications, where out-of-distribution or adversarial inputs may lead to detrimental outcomes. Evidential Deep Learning, an efficient paradigm for uncertainty quantification, models predictions as Dirichlet distributions of a single forward pass. However, EDL is particularly vulnerable to adversarially perturbed inputs, making overconfident errors. Conflict-aware Evidential Deep Learning (C-EDL) is a lightweight post-hoc uncertainty quantification approach that mitigates these issues, enhancing adversarial and OOD robustness without retraining. C-EDL generates diverse, task-preserving transformations per input and quantifies representational disagreement to calibrate uncertainty estimates when needed. C-EDL's conflict-aware prediction adjustment improves detection of OOD and adversarial inputs, maintaining high in-distribution accuracy and low computational overhead. Our experimental evaluation shows that C-EDL significantly outperforms state-of-the-art EDL variants and competitive baselines, achieving substantial reductions in coverage for OOD data (up to 55%) and adversarial data (up to 90%), across a range of datasets, attack types, and uncertainty metrics.
- Abstract(参考訳): ディープラーニングモデルの信頼性は、アウト・オブ・ディストリビューションや敵対的な入力が有害な結果をもたらすような、高度なアプリケーションへのデプロイに不可欠である。
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、不確実性定量化のための効率的なパラダイムであり、単一の前方パスのディリクレ分布として予測をモデル化する。
しかし、EDLは特に逆の摂動入力に弱いため、過度に自信過剰なエラーを引き起こす。
C-EDL(Conflict-Aware Evidential Deep Learning)は、これらの問題を緩和する軽量なポストホック不確実性定量化手法である。
C-EDLは入力毎に多種多様なタスク保存変換を生成し、表現の不一致を定量化し、必要に応じて不確実性推定を校正する。
C-EDLのコンフリクト対応予測調整は、OODと逆入力の検出を改善し、高い分布精度と計算オーバーヘッドを維持できる。
実験により、C-EDLは最先端のEDLと競争ベースラインを大きく上回り、OODデータ(最大55%)と敵データ(最大90%)のカバー範囲を、さまざまなデータセット、攻撃タイプ、不確実性メトリクスで大幅に削減した。
関連論文リスト
- Towards Harmonized Uncertainty Estimation for Large Language Models [22.58034272573749]
不確実性推定によって世代間の信頼性を定量化することが不可欠である。
CUE(Corrector for Uncertainity Estimation:不確かさ推定のためのコレクタ)を提案する。
論文 参考訳(メタデータ) (2025-05-25T10:17:57Z) - Calibrating LLMs with Information-Theoretic Evidential Deep Learning [22.263501423275784]
微調整された大きな言語モデル(LLM)は、特に小さなデータセットでトレーニングされた場合、自信過剰を示すことが多い。
Evidential Deep Learning (EDL)は、不確実性を認識したアプローチであり、単一の前方通過における不確実性推定を可能にする。
情報ボトルネック(IB)を組み込んだEDLの正規化を提案する。
論文 参考訳(メタデータ) (2025-02-10T11:00:24Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。