論文の概要: A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts
- arxiv url: http://arxiv.org/abs/2105.00290v1
- Date: Sat, 1 May 2021 15:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:22:54.385480
- Title: A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts
- Title(参考訳): ニューラルネットワークの推論を覗く - 構造的視覚概念による解釈-
- Authors: Yunhao Ge, Yao Xiao, Zhi Xu, Meng Zheng, Srikrishna Karanam, Terrence
Chen, Laurent Itti, Ziyan Wu
- Abstract要約: 直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
- 参考スコア(独自算出の注目度): 38.215184251799194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite substantial progress in applying neural networks (NN) to a wide
variety of areas, they still largely suffer from a lack of transparency and
interpretability. While recent developments in explainable artificial
intelligence attempt to bridge this gap (e.g., by visualizing the correlation
between input pixels and final outputs), these approaches are limited to
explaining low-level relationships, and crucially, do not provide insights on
error correction. In this work, we propose a framework (VRX) to interpret
classification NNs with intuitive structural visual concepts. Given a trained
classification model, the proposed VRX extracts relevant class-specific visual
concepts and organizes them using structural concept graphs (SCG) based on
pairwise concept relationships. By means of knowledge distillation, we show VRX
can take a step towards mimicking the reasoning process of NNs and provide
logical, concept-level explanations for final model decisions. With extensive
experiments, we empirically show VRX can meaningfully answer "why" and "why
not" questions about the prediction, providing easy-to-understand insights
about the reasoning process. We also show that these insights can potentially
provide guidance on improving NN's performance.
- Abstract(参考訳): ニューラルネットワーク(NN)を幅広い分野に適用する大きな進歩にもかかわらず、透明性と解釈可能性の欠如に悩まされている。
最近では、このギャップを埋めようとする説明可能な人工知能(例えば、入力ピクセルと最終的な出力との相関を可視化するなど)が開発されているが、これらのアプローチは低レベルの関係を説明することに限定されており、重要な点として、エラー訂正に関する洞察を与えていない。
本研究では,直感的な構造的視覚概念を用いて分類NNを解釈するフレームワーク(VRX)を提案する。
学習された分類モデルにより、VRXは関連クラス固有の視覚概念を抽出し、ペアの概念関係に基づいた構造概念グラフ(SCG)を用いてそれらを整理する。
知識蒸留により,vrx は nn の推論過程を模倣し,最終的なモデル決定に論理的かつ概念レベルな説明を与えるための一歩を踏み出すことができることを示した。
広範な実験により、VRXは予測に関する「なぜ」および「なぜ」疑問に有意義に答えることができ、推論プロセスについての理解が容易であることを実証的に示します。
また、これらの知見がNNのパフォーマンス向上に関するガイダンスを提供する可能性があることも示しています。
関連論文リスト
- Less is More: Discovering Concise Network Explanations [26.126343100127936]
本稿では,人間の理解可能な視覚的説明を生成するための新しいアプローチであるDiscovering Conceptual Network Explanations (DCNE)を紹介する。
本手法は,クラス間の識別に重要な視覚的説明を自動的に見つける。
DCNEは、ニューラルネットワークの決定を人間にアクセスし、解釈できるようにするための一歩である。
論文 参考訳(メタデータ) (2024-05-24T06:10:23Z) - Everybody Needs a Little HELP: Explaining Graphs via Hierarchical
Concepts [12.365451175795338]
グラフニューラルネットワーク(GNN)は、薬物発見、ソーシャルネットワーク分析、旅行時間推定などの領域でブレークスルーをもたらしている。
人間の信頼を妨げる解釈性が欠如しているため、高い判断を下すような設定にデプロイされる。
HELPは、異なるGNN層の概念が後続のステップで新しい概念にどのように構成されるかを明らかにする、本質的に解釈可能な新しいグラフプーリング手法である。
論文 参考訳(メタデータ) (2023-11-25T20:06:46Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - SUNY: A Visual Interpretation Framework for Convolutional Neural Networks from a Necessary and Sufficient Perspective [23.175703929763888]
本稿では,より優れた人間の理解に向けた説明を合理化するための因果関係駆動型フレームワークSUNYを提案する。
CNNモデルの入力特徴や内部フィルタを仮説的原因として用いて、SUNYは必要な視点と十分な視点の両方について双方向の定量化による説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T05:54:52Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - Neuro-Symbolic Visual Reasoning: Disentangling "Visual" from "Reasoning" [49.76230210108583]
本稿では,視覚的質問応答(VQA)の推論的側面をその知覚から分離し,評価する枠組みを提案する。
また,不完全な知覚においても,モデルが推論問題に答えられるような,新しいトップダウンキャリブレーション手法を提案する。
難易度の高いGQAデータセットでは、このフレームワークがよく知られたVQAモデル間の深い非絡み合いの比較に使用される。
論文 参考訳(メタデータ) (2020-06-20T08:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。