論文の概要: Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models
- arxiv url: http://arxiv.org/abs/2211.10807v1
- Date: Sat, 19 Nov 2022 21:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:53:25.963326
- Title: Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models
- Title(参考訳): 非負の概念活性化ベクトルとCNNモデルの決定木を用いた概念ベース説明
- Authors: Gayda Mutahar, Tim Miller
- Abstract要約: 本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
- 参考スコア(独自算出の注目度): 4.452019519213712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper evaluates whether training a decision tree based on concepts
extracted from a concept-based explainer can increase interpretability for
Convolutional Neural Networks (CNNs) models and boost the fidelity and
performance of the used explainer. CNNs for computer vision have shown
exceptional performance in critical industries. However, it is a significant
barrier when deploying CNNs due to their complexity and lack of
interpretability. Recent studies to explain computer vision models have shifted
from extracting low-level features (pixel-based explanations) to mid-or
high-level features (concept-based explanations). The current research
direction tends to use extracted features in developing approximation
algorithms such as linear or decision tree models to interpret an original
model. In this work, we modify one of the state-of-the-art concept-based
explanations and propose an alternative framework named TreeICE. We design a
systematic evaluation based on the requirements of fidelity (approximate models
to original model's labels), performance (approximate models to ground-truth
labels), and interpretability (meaningful of approximate models to humans). We
conduct computational evaluation (for fidelity and performance) and human
subject experiments (for interpretability) We find that Tree-ICE outperforms
the baseline in interpretability and generates more human readable explanations
in the form of a semantic tree structure. This work features how important to
have more understandable explanations when interpretability is crucial.
- Abstract(参考訳): 本稿では,概念に基づく説明文から抽出した概念に基づいて決定木をトレーニングすることで,畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高め,使用済み説明文の忠実度と性能を高めることができるかを評価する。
コンピュータビジョンのためのCNNは、重要な産業において例外的な性能を示している。
しかし、CNNのデプロイには複雑さと解釈可能性の欠如が大きな障壁となっている。
コンピュータビジョンモデルを説明する最近の研究は、低レベル特徴(ピクセルベース説明)から中レベル特徴(概念ベース説明)へと移行している。
現在の研究方向は、線形木モデルや決定木モデルのような近似アルゴリズムを開発する際に抽出された特徴を用いる傾向にある。
本稿では,最先端概念に基づく説明の1つを修正し,treeice という代替フレームワークを提案する。
本研究では, 忠実度(原モデルラベルへの近似モデル), 性能(地木ラベルへの近似モデル), 解釈可能性(人間への近似モデルの意味)の要件に基づいて, 体系的な評価を設計する。
我々は、木氷が解釈可能性においてベースラインを上回っており、意味木構造という形でより可読性のある説明を生成することを見出し、計算的評価(忠実性と性能)と人間の主題実験(解釈可能性)を行う。
この作業は、解釈可能性が非常に重要である場合に、より理解可能な説明を持つことがいかに重要であるかを特徴としている。
関連論文リスト
- Inherently Interpretable Tree Ensemble Learning [7.868733904112288]
浅い決定木をベース学習として使用すると、アンサンブル学習アルゴリズムが本質的に解釈可能であることを示す。
木アンサンブルを固有の解釈可能性を持つ機能的ANOVA表現に変換する解釈アルゴリズムを開発した。
シミュレーションと実世界のデータセットを用いた実験により,提案手法はモデル解釈と予測性能のトレードオフを良くすることを示した。
論文 参考訳(メタデータ) (2024-10-24T18:58:41Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Reasoning with trees: interpreting CNNs using hierarchies [3.6763102409647526]
畳み込みニューラルネットワーク(CNN)の忠実かつ解釈可能な説明に階層的セグメンテーション技術を用いるフレームワークを導入する。
本手法はモデルの推論忠実性を維持するモデルに基づく階層的セグメンテーションを構築する。
実験により、我々のフレームワークであるxAiTreesが高度に解釈可能で忠実なモデル説明を提供することが示された。
論文 参考訳(メタデータ) (2024-06-19T06:45:19Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Invertible Concept-based Explanations for CNN Models with Non-negative
Concept Activation Vectors [24.581839689833572]
コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)モデルは強力だが、最も基本的な形式では説明不可能である。
近似線形モデルの特徴的重要性による最近の説明に関する研究は、入力レベル特徴から概念活性化ベクトル(CAV)の形で中間層特徴写像から特徴へと移行した。
本稿では,Ghorbani etal.のACEアルゴリズムを再考し,その欠点を克服するために,別の非可逆的概念ベース説明(ICE)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-27T17:57:26Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。