論文の概要: Guided Uncertainty Learning Using a Post-Hoc Evidential Meta-Model
- arxiv url: http://arxiv.org/abs/2509.24492v1
- Date: Mon, 29 Sep 2025 09:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.883993
- Title: Guided Uncertainty Learning Using a Post-Hoc Evidential Meta-Model
- Title(参考訳): ポスト・ホック・エビデンシャル・メタモデルを用いたガイド付き不確実性学習
- Authors: Charmaine Barker, Daniel Bethell, Simos Gerasimou,
- Abstract要約: GUIDEは,凍結したディープラーニングモデルに適応し,いつ,いつ,不確実かを明確に学習する,軽量な顕在学習メタモデルアプローチである。
GUIDEはリトレーニングもアーキテクチャの変更も必要とせず、ベースとなるディープラーニングモデルに対して手動の中間層選択も必要ありません。
さまざまなベンチマークで最先端のアプローチを一貫して上回ります。
- 参考スコア(独自算出の注目度): 3.2116198597240846
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable uncertainty quantification remains a major obstacle to the deployment of deep learning models under distributional shift. Existing post-hoc approaches that retrofit pretrained models either inherit misplaced confidence or merely reshape predictions, without teaching the model when to be uncertain. We introduce GUIDE, a lightweight evidential learning meta-model approach that attaches to a frozen deep learning model and explicitly learns how and when to be uncertain. GUIDE identifies salient internal features via a calibration stage, and then employs these features to construct a noise-driven curriculum that teaches the model how and when to express uncertainty. GUIDE requires no retraining, no architectural modifications, and no manual intermediate-layer selection to the base deep learning model, thus ensuring broad applicability and minimal user intervention. The resulting model avoids distilling overconfidence from the base model, improves out-of-distribution detection by ~77% and adversarial attack detection by ~80%, while preserving in-distribution performance. Across diverse benchmarks, GUIDE consistently outperforms state-of-the-art approaches, evidencing the need for actively guiding uncertainty to close the gap between predictive confidence and reliability.
- Abstract(参考訳): 信頼性の高い不確実性定量化は、分散シフトの下でのディープラーニングモデルの展開において、依然として大きな障害となっている。
事前訓練されたモデルに適合する既存のポストホックアプローチは、不確実なタイミングでモデルを教えることなく、誤った信頼を継承するか、単に予測を形作るだけである。
GUIDEは,凍結したディープラーニングモデルに適応し,いつ,いつ,不確実かを明確に学習する,軽量な顕在学習メタモデルアプローチである。
GUIDEは、キャリブレーション段階を通じて健全な内部特徴を特定し、次にこれらの特徴を用いて、不確実性を表現する方法とタイミングをモデルに教えるノイズ駆動型カリキュラムを構築する。
GUIDEはリトレーニングもアーキテクチャの変更も必要とせず、ベースとなるディープラーニングモデルに手動の中間層選択も必要とせず、広い適用性と最小限のユーザ介入が保証される。
その結果、ベースモデルからの蒸留過信を回避し、分布外検出を約77%改善し、敵攻撃検出を約80%改善し、分布内性能を維持した。
さまざまなベンチマークにおいて、GUIDEは最先端のアプローチを一貫して上回り、予測信頼性と信頼性のギャップを埋めるために、積極的に不確実性を導く必要がある。
関連論文リスト
- Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - An Ambiguity Measure for Recognizing the Unknowns in Deep Learning [0.0]
深層ニューラルネットワークの学習範囲から, 深部ニューラルネットワークの理解について検討する。
任意のモデルに対する入力のあいまいさを定量化する尺度を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:57:12Z) - Post-hoc Uncertainty Learning using a Dirichlet Meta-Model [28.522673618527417]
本研究では,不確実性定量化能力の優れた事前学習モデルを構築するための新しいベイズメタモデルを提案する。
提案手法は追加のトレーニングデータを必要としないため,不確かさの定量化に十分な柔軟性がある。
提案するメタモデルアプローチの柔軟性と,これらのアプリケーションに対する優れた経験的性能を実証する。
論文 参考訳(メタデータ) (2022-12-14T17:34:11Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。