論文の概要: WWW: A Unified Framework for Explaining What, Where and Why of Neural Networks by Interpretation of Neuron Concepts
- arxiv url: http://arxiv.org/abs/2402.18956v2
- Date: Thu, 11 Apr 2024 10:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 18:26:07.378973
- Title: WWW: A Unified Framework for Explaining What, Where and Why of Neural Networks by Interpretation of Neuron Concepts
- Title(参考訳): WWW:ニューロン概念の解釈によるニューラルネットワークのどの、どこで、なぜかを説明する統一フレームワーク
- Authors: Yong Hyun Ahn, Hyeon Bae Kim, Seong Tae Kim,
- Abstract要約: 我々は、人間の理解可能な言葉でニューラルネットワーク決定の'What'、'where'、'why'を提供する新しいフレームワークWWWを提案する。
WWWは、適応的なコサイン類似性と閾値技術を用いて、概念発見のための適応的選択を利用する。
WWWは、グローバルな解釈からローカライズされた説明方法を導入し、"What"、"where"、"why"を説明する統一的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 3.2627279988912194
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in neural networks have showcased their remarkable capabilities across various domains. Despite these successes, the "black box" problem still remains. Addressing this, we propose a novel framework, WWW, that offers the 'what', 'where', and 'why' of the neural network decisions in human-understandable terms. Specifically, WWW utilizes adaptive selection for concept discovery, employing adaptive cosine similarity and thresholding techniques to effectively explain 'what'. To address the 'where' and 'why', we proposed a novel combination of neuron activation maps (NAMs) with Shapley values, generating localized concept maps and heatmaps for individual inputs. Furthermore, WWW introduces a method for predicting uncertainty, leveraging heatmap similarities to estimate 'how' reliable the prediction is. Experimental evaluations of WWW demonstrate superior performance in both quantitative and qualitative metrics, outperforming existing methods in interpretability. WWW provides a unified solution for explaining 'what', 'where', and 'why', introducing a method for localized explanations from global interpretations and offering a plug-and-play solution adaptable to various architectures.
- Abstract(参考訳): ニューラルネットワークの最近の進歩は、様々な領域でその顕著な能力を示している。
これらの成功にもかかわらず、「ブラックボックス」問題はまだ残っている。
これに対応するために、人間の理解可能な言葉でニューラルネットワーク決定の'What'、'where'、'why'を提供する新しいフレームワークWWWを提案する。
特にWWWは、適応的コサイン類似性としきい値を用いた概念発見のための適応的選択を利用して「何」を効果的に説明する。
そこで我々は,ニューロン活性化マップ(NAM)とShapley値の組み合わせを新たに提案し,各入力に対して局所化された概念マップとヒートマップを生成する。
さらに、WWWは不確実性を予測する手法を導入し、ヒートマップの類似性を利用して予測の「信頼性」を推定する。
WWWの実験的評価は、定量化と定性化の両方において優れた性能を示し、解釈可能性において既存の手法よりも優れていた。
WWWは、グローバルな解釈からローカライズされた説明法を導入し、様々なアーキテクチャに対応可能なプラグアンドプレイソリューションを提供するため、"What"、"where"、"why"を説明する統一的なソリューションを提供する。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Locally Testing Model Detections for Semantic Global Concepts [3.112979958793927]
本稿では,グローバルな概念エンコーディングを単一ネットワーク入力の局所処理にリンクするフレームワークを提案する。
提案手法は,セマンティック概念のモデル内符号化を完全に網羅する利点がある。
その結果, 個々のグローバルな概念エンコーディングの局所的認識と使用法に大きな違いが認められた。
論文 参考訳(メタデータ) (2024-05-27T12:52:45Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - Explaining Deep Convolutional Neural Networks for Image Classification
by Evolving Local Interpretable Model-agnostic Explanations [7.474973880539888]
提案手法はモデルに依存しない、すなわち、深い畳み込みニューラルネットワークモデルを説明するために利用することができる。
ImageNetからランダムに選択された4つの画像の進化した局所的説明を示す。
提案手法は,LIMEの10倍以上高速な局所的な説明を1分以内で得ることができる。
論文 参考訳(メタデータ) (2022-11-28T08:56:00Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Explaining Deep Neural Networks for Point Clouds using Gradient-based
Visualisations [1.2891210250935146]
本研究では,非構造化3次元データの分類を目的としたネットワークの粗い視覚的説明を生成する手法を提案する。
提案手法では,最終特徴写像層に逆流する勾配を用いて,これらの値を入力点クラウド内の対応する点の寄与としてマップする。
このアプローチの汎用性は、シングルオブジェクトネットワークのPointNet、PointNet++、DGCNN、a'scene'ネットワークのVoteNetなど、さまざまなポイントクラウド分類ネットワークでテストされている。
論文 参考訳(メタデータ) (2022-07-26T15:42:08Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。