論文の概要: SCAN: Visual Explanations with Self-Confidence and Analysis Networks
- arxiv url: http://arxiv.org/abs/2603.06523v1
- Date: Wed, 04 Mar 2026 17:17:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.37357
- Title: SCAN: Visual Explanations with Self-Confidence and Analysis Networks
- Title(参考訳): SCAN: 自己信頼と分析ネットワークによる視覚的説明
- Authors: Gwanghee Lee, Sungyoon Jeong, Kyoungson Jhang,
- Abstract要約: 自己信頼と分析ネットワーク(SCAN)は、畳み込みニューラルネットワークとトランスフォーマーアーキテクチャの両方の制限を克服する、新しいユニバーサルフレームワークである。
SCANは、AUC-D、Negative AUC、Drop%、Win%など、さまざまな定量的メトリクスにおいて、一貫して優れたパフォーマンスを実現している。
既存の方法よりも明らかに、オブジェクトに焦点を当てた説明が得られます。
- 参考スコア(独自算出の注目度): 0.764671395172401
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable AI (XAI) has become essential in computer vision to make the decision-making processes of deep learning models transparent. However, current visual explanation (XAI) methods face a critical trade-off between the high fidelity of architecture-specific methods and the broad applicability of universal ones. This often results in abstract or fragmented explanations and makes it difficult to compare explanatory power across diverse model families, such as CNNs and Transformers. This paper introduces the Self-Confidence and Analysis Networks (SCAN), a novel universal framework that overcomes these limitations for both convolutional neural network and transformer architectures. SCAN utilizes an AutoEncoder-based approach to reconstruct features from a model's intermediate layers. Guided by the Information Bottleneck principle, it generates a high-resolution Self-Confidence Map that identifies information-rich regions. Extensive experiments on diverse architectures and datasets demonstrate that SCAN consistently achieves outstanding performance on various quantitative metrics such as AUC-D, Negative AUC, Drop%, and Win%. Qualitatively, it produces significantly clearer, object-focused explanations than existing methods. By providing a unified framework that is both architecturally universal and highly faithful, SCAN enhances model transparency and offers a more reliable tool for understanding the decision-making processes of complex neural networks.
- Abstract(参考訳): XAI(Explainable AI)は、ディープラーニングモデルの意思決定プロセスを透過的にするために、コンピュータビジョンにおいて欠かせないものとなっている。
しかしながら、現在の視覚的説明法(XAI)は、アーキテクチャ固有の手法の忠実度の高さと普遍的な手法の適用性の間に重要なトレードオフに直面している。
これはしばしば抽象的あるいは断片的な説明をもたらし、CNNやTransformersのような様々なモデルファミリ間の説明力を比較するのが難しくなる。
本稿では、畳み込みニューラルネットワークとトランスフォーマーアーキテクチャの両方の制約を克服する新しいユニバーサルフレームワークである自己信頼分析ネットワーク(SCAN)を紹介する。
SCANはAutoEncoderベースのアプローチを使用して、モデルの中間層から機能を再構築する。
Information Bottleneckの原則によってガイドされ、情報豊富な地域を識別する高解像度の自己信頼マップを生成する。
多様なアーキテクチャとデータセットに関する大規模な実験により、SCANはAUC-D、Negative AUC、Drop%、Win%といった様々な定量的メトリクスにおいて、一貫して優れたパフォーマンスを達成している。
定性的には、既存の方法よりも明らかに、オブジェクトに焦点を当てた説明を生成する。
SCANは、アーキテクチャ的に普遍的かつ高度に忠実な統一フレームワークを提供することで、モデルの透明性を高め、複雑なニューラルネットワークの意思決定プロセスを理解するためのより信頼性の高いツールを提供する。
関連論文リスト
- A Cosine Network for Image Super-Resolution [77.21621944789466]
画像超解像(CSRNet)のためのコサインネットワークを提案する。
補完構造情報を抽出するため、奇異なブロックや異種ブロックも設計する。
CSRNetは画像超解像における最先端の手法と競合する。
論文 参考訳(メタデータ) (2026-01-23T02:58:57Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Concept-Based Mechanistic Interpretability Using Structured Knowledge Graphs [3.429783703166407]
我々のフレームワークは、内部モデルコンポーネントを通して高レベルのセマンティック属性がどのように出現し、相互作用し、伝播するかを分析することによって、モデル行動のグローバルな分離を可能にします。
重要なイノベーションは、私たちがBAGELと名付けた視覚化プラットフォームです。
私たちのフレームワークはモデルに依存しないスケーラブルで、データセットバイアスの存在下でディープラーニングモデルがどのように一般化(あるいは失敗)するかを深く理解するのに役立ちます。
論文 参考訳(メタデータ) (2025-07-08T09:30:20Z) - DLBacktrace: A Model Agnostic Explainability for any Deep Learning Models [1.747623282473278]
深層学習モデル決定に対する明確な洞察を提供するために設計された,モデルに依存しない手法であるDLBacktraceを紹介する。
本稿では,DLBacktraceの概要を概説し,その性能を既存の解釈可能性手法と比較する。
その結果,DLBacktraceは多種多様なタスクにおけるモデル行動の理解を効果的に促進することを示した。
論文 参考訳(メタデータ) (2024-11-19T16:54:30Z) - QIXAI: A Quantum-Inspired Framework for Enhancing Classical and Quantum Model Transparency and Understanding [0.0]
ディープラーニングモデルは、解釈可能性の欠如によってしばしば妨げられ、それらを"ブラックボックス"にする。
本稿では、量子インスピレーションによるニューラルネットワークの解釈性向上のための新しいアプローチであるQIXAIフレームワークを紹介する。
このフレームワークは量子システムと古典システムの両方に適用され、様々なモデルにおける解釈可能性と透明性を改善する可能性を示している。
論文 参考訳(メタデータ) (2024-10-21T21:55:09Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference Analysis for No-Reference Image Quality Assessment [78.21609845377644]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Manipulating Feature Visualizations with Gradient Slingshots [53.94925202421929]
特徴可視化(FV)は、ディープニューラルネットワーク(DNN)で学んだ概念を解釈するための広く使われている手法である。
本稿では,モデルアーキテクチャを変更したり,性能を著しく劣化させたりすることなくFVの操作を可能にする新しい手法,Gradient Slingshotsを提案する。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。