論文の概要: Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models
- arxiv url: http://arxiv.org/abs/2211.10807v1
- Date: Sat, 19 Nov 2022 21:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:53:25.963326
- Title: Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models
- Title(参考訳): 非負の概念活性化ベクトルとCNNモデルの決定木を用いた概念ベース説明
- Authors: Gayda Mutahar, Tim Miller
- Abstract要約: 本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
- 参考スコア(独自算出の注目度): 4.452019519213712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper evaluates whether training a decision tree based on concepts
extracted from a concept-based explainer can increase interpretability for
Convolutional Neural Networks (CNNs) models and boost the fidelity and
performance of the used explainer. CNNs for computer vision have shown
exceptional performance in critical industries. However, it is a significant
barrier when deploying CNNs due to their complexity and lack of
interpretability. Recent studies to explain computer vision models have shifted
from extracting low-level features (pixel-based explanations) to mid-or
high-level features (concept-based explanations). The current research
direction tends to use extracted features in developing approximation
algorithms such as linear or decision tree models to interpret an original
model. In this work, we modify one of the state-of-the-art concept-based
explanations and propose an alternative framework named TreeICE. We design a
systematic evaluation based on the requirements of fidelity (approximate models
to original model's labels), performance (approximate models to ground-truth
labels), and interpretability (meaningful of approximate models to humans). We
conduct computational evaluation (for fidelity and performance) and human
subject experiments (for interpretability) We find that Tree-ICE outperforms
the baseline in interpretability and generates more human readable explanations
in the form of a semantic tree structure. This work features how important to
have more understandable explanations when interpretability is crucial.
- Abstract(参考訳): 本稿では,概念に基づく説明文から抽出した概念に基づいて決定木をトレーニングすることで,畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高め,使用済み説明文の忠実度と性能を高めることができるかを評価する。
コンピュータビジョンのためのCNNは、重要な産業において例外的な性能を示している。
しかし、CNNのデプロイには複雑さと解釈可能性の欠如が大きな障壁となっている。
コンピュータビジョンモデルを説明する最近の研究は、低レベル特徴(ピクセルベース説明)から中レベル特徴(概念ベース説明)へと移行している。
現在の研究方向は、線形木モデルや決定木モデルのような近似アルゴリズムを開発する際に抽出された特徴を用いる傾向にある。
本稿では,最先端概念に基づく説明の1つを修正し,treeice という代替フレームワークを提案する。
本研究では, 忠実度(原モデルラベルへの近似モデル), 性能(地木ラベルへの近似モデル), 解釈可能性(人間への近似モデルの意味)の要件に基づいて, 体系的な評価を設計する。
我々は、木氷が解釈可能性においてベースラインを上回っており、意味木構造という形でより可読性のある説明を生成することを見出し、計算的評価(忠実性と性能)と人間の主題実験(解釈可能性)を行う。
この作業は、解釈可能性が非常に重要である場合に、より理解可能な説明を持つことがいかに重要であるかを特徴としている。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Invertible Concept-based Explanations for CNN Models with Non-negative
Concept Activation Vectors [24.581839689833572]
コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)モデルは強力だが、最も基本的な形式では説明不可能である。
近似線形モデルの特徴的重要性による最近の説明に関する研究は、入力レベル特徴から概念活性化ベクトル(CAV)の形で中間層特徴写像から特徴へと移行した。
本稿では,Ghorbani etal.のACEアルゴリズムを再考し,その欠点を克服するために,別の非可逆的概念ベース説明(ICE)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-27T17:57:26Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。