論文の概要: MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks
- arxiv url: http://arxiv.org/abs/2011.01472v1
- Date: Tue, 3 Nov 2020 04:40:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:40:27.597553
- Title: MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks
- Title(参考訳): MACE:画像分類のためのモデル非依存概念エクストラクタ
- Authors: Ashish Kumar, Karan Sehgal, Prerna Garg, Vidhya Kamakshi, and
Narayanan C Krishnan
- Abstract要約: MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
- 参考スコア(独自算出の注目度): 10.06397994266945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional networks have been quite successful at various image
classification tasks. The current methods to explain the predictions of a
pre-trained model rely on gradient information, often resulting in saliency
maps that focus on the foreground object as a whole. However, humans typically
reason by dissecting an image and pointing out the presence of smaller
concepts. The final output is often an aggregation of the presence or absence
of these smaller concepts. In this work, we propose MACE: a Model Agnostic
Concept Extractor, which can explain the working of a convolutional network
through smaller concepts. The MACE framework dissects the feature maps
generated by a convolution network for an image to extract concept based
prototypical explanations. Further, it estimates the relevance of the extracted
concepts to the pre-trained model's predictions, a critical aspect required for
explaining the individual class predictions, missing in existing approaches. We
validate our framework using VGG16 and ResNet50 CNN architectures, and on
datasets like Animals With Attributes 2 (AWA2) and Places365. Our experiments
demonstrate that the concepts extracted by the MACE framework increase the
human interpretability of the explanations, and are faithful to the underlying
pre-trained black-box model.
- Abstract(参考訳): 深層畳み込みネットワークは様々な画像分類タスクで成功している。
事前学習されたモデルの予測を説明する現在の方法は勾配情報に依存しており、しばしば前景の物体全体に焦点を当てた塩分マップとなる。
しかし、人間はイメージを解剖し、より小さな概念の存在を指摘することで推論する。
最終的な出力は、しばしばこれらの小さな概念の存在または欠如の集約である。
本研究では,より小さな概念を通した畳み込みネットワークの動作を説明するモデル非依存概念エクストラクタ MACEを提案する。
MACEフレームワークは、画像の畳み込みネットワークによって生成された特徴マップを識別し、概念に基づくプロトタイプの説明を抽出する。
さらに、既存のアプローチに欠けている個々のクラス予測を説明するのに必要な重要な側面である、事前学習されたモデルの予測に対する抽出された概念の関連性を推定する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
実験の結果,メイスフレームワークによって抽出された概念は説明の解釈性を高め,基礎となるブラックボックスモデルに忠実であることが示された。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Attributing Learned Concepts in Neural Networks to Training Data [5.930268338525991]
コンバージェンス(収束)の証拠として,概念の上位1万個の画像を取り除き,モデルの再トレーニングを行うと,ネットワーク内の概念の位置が変化しない。
このことは、概念の発達を知らせる特徴が、概念形成の堅牢さを暗示して、その先例にまたがるより拡散した方法で広がることを示唆している。
論文 参考訳(メタデータ) (2023-10-04T20:26:59Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - ConceptDistil: Model-Agnostic Distillation of Concept Explanations [4.462334751640166]
概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
実世界のユースケースでConceptDistilを検証することで、両方のタスクを最適化できることを示す。
論文 参考訳(メタデータ) (2022-05-07T08:58:54Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。