論文の概要: Uncertainty-Aware Subset Selection for Robust Visual Explainability under Distribution Shifts
- arxiv url: http://arxiv.org/abs/2512.08445v1
- Date: Tue, 09 Dec 2025 10:19:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.915231
- Title: Uncertainty-Aware Subset Selection for Robust Visual Explainability under Distribution Shifts
- Title(参考訳): 分布シフト下でのロバストな視覚的説明可能性のための不確実性を考慮したサブセット選択
- Authors: Madhav Gupta, Vishak Prasad C, Ganesh Ramakrishnan,
- Abstract要約: サブセット選択に基づく手法は、ディープビジョンモデルを説明するために広く用いられている。
本稿では,部分モジュラ部分集合選択と階層的,勾配に基づく不確実性推定を組み合わせたフレームワークを提案する。
提案手法は,適応重み摂動による不確実性を推定し,これらの推定値を用いて部分モジュラー最適化を導出する。
- 参考スコア(独自算出の注目度): 15.077604091703797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subset selection-based methods are widely used to explain deep vision models: they attribute predictions by highlighting the most influential image regions and support object-level explanations. While these methods perform well in in-distribution (ID) settings, their behavior under out-of-distribution (OOD) conditions remains poorly understood. Through extensive experiments across multiple ID-OOD sets, we find that reliability of the existing subset based methods degrades markedly, yielding redundant, unstable, and uncertainty-sensitive explanations. To address these shortcomings, we introduce a framework that combines submodular subset selection with layer-wise, gradient-based uncertainty estimation to improve robustness and fidelity without requiring additional training or auxiliary models. Our approach estimates uncertainty via adaptive weight perturbations and uses these estimates to guide submodular optimization, ensuring diverse and informative subset selection. Empirical evaluations show that, beyond mitigating the weaknesses of existing methods under OOD scenarios, our framework also yields improvements in ID settings. These findings highlight limitations of current subset-based approaches and demonstrate how uncertainty-driven optimization can enhance attribution and object-level interpretability, paving the way for more transparent and trustworthy AI in real-world vision applications.
- Abstract(参考訳): サブセット選択に基づく手法は、ディープビジョンモデルを説明するために広く用いられており、最も影響力のある画像領域を強調し、オブジェクトレベルの説明をサポートすることで、予測を属性付けする。
これらの手法は, 分布内(ID)設定でよく機能するが, 分布外(OOD)条件下での挙動はよく分かっていない。
複数のID-OODセットにわたる広範な実験により、既存のサブセットベースのメソッドの信頼性が著しく低下し、冗長で不安定で不確実性に敏感な説明が得られることがわかった。
これらの欠点に対処するために、サブモジュラー部分集合選択と階層的に勾配に基づく不確実性推定を組み合わせるフレームワークを導入し、追加のトレーニングや補助モデルを必要とせず、堅牢性と忠実性を改善する。
提案手法は,適応重み摂動による不確実性を推定し,これらの推定値を用いて部分モジュラー最適化を導出し,多種多様な情報的部分選択を確実にする。
経験的評価は,OODシナリオ下での既存手法の弱点を緩和するだけでなく,ID設定の改善ももたらしていることを示している。
これらの発見は、現在のサブセットベースのアプローチの限界を強調し、不確実性駆動の最適化が属性とオブジェクトレベルの解釈可能性を高め、現実世界の視覚アプリケーションにおいてより透明で信頼できるAIを実現する方法を示す。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Exploring Semantic-constrained Adversarial Example with Instruction Uncertainty Reduction [51.50282796099369]
本稿では,多次元命令の不確実性低減フレームワークを開発し,意味論的に制約された逆の例を生成する。
言語誘導サンプリングプロセスの予測により、設計したResAdv-DDIMサンプルにより最適化プロセスが安定化される。
セマンティック制約付き3次元逆数例の参照フリー生成を初めて実現した。
論文 参考訳(メタデータ) (2025-10-27T04:02:52Z) - DEFNet: Multitasks-based Deep Evidential Fusion Network for Blind Image Quality Assessment [5.517243185525322]
ブラインド画像品質評価(BIQA)手法は、しばしば性能向上のために補助的なタスクを組み込む。
本稿では,BIQAのためのマルチタスクに基づくディープ・エビデンシャル・フュージョン・ネットワーク(DEFNet)を提案する。
論文 参考訳(メタデータ) (2025-07-25T16:36:45Z) - Extending Epistemic Uncertainty Beyond Parameters Would Assist in Designing Reliable LLMs [40.7342896954488]
我々は、不確実性を推論し、不確実性の再現性を明確化するコヒーレントな基盤を提供する枠組みの採用を提唱する。
受動的回避よりも能動的解決をサポートすることで、より信頼性が高く透明で広く適用可能なLCMシステムへの扉を開くことができる。
論文 参考訳(メタデータ) (2025-06-09T05:52:03Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Epistemic Uncertainty-aware Recommendation Systems via Bayesian Deep Ensemble Learning [2.3310092106321365]
より堅牢で信頼性の高い予測を生成するために,アンサンブルに基づくスーパーモデルを提案する。
また,ユーザとアイテムの埋め込みに対して,解釈可能な非線形マッチング手法を導入する。
論文 参考訳(メタデータ) (2025-04-14T23:04:35Z) - Uncertainty Guided Refinement for Fine-Grained Salient Object Detection [35.6505339733396]
我々は、正当性物体検出(SOD)に対する不確実性誘導学習手法を導入する。
我々は、新しい不確実性ガイド型リファインメント注意ネットワーク(UGRAN)を設計する。
7つのベンチマークデータセットの実験は、最先端の方法論よりも提案されたUGRANの方が優れていることを示している。
論文 参考訳(メタデータ) (2025-04-13T17:34:37Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。