論文の概要: Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations
- arxiv url: http://arxiv.org/abs/2303.10523v1
- Date: Sun, 19 Mar 2023 00:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:49:36.891903
- Title: Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations
- Title(参考訳): 概念に基づく視覚的説明のための教師なし解釈型基底抽出
- Authors: Alexandros Doumanoglou, Stylianos Asteriadis, Dimitrios Zarpalas
- Abstract要約: 提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
- 参考スコア(独自算出の注目度): 76.85220618409478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important line of research attempts to explain CNN image classifier
predictions and intermediate layer representations in terms of human
understandable concepts. In this work, we expand on previous works in the
literature that use annotated concept datasets to extract interpretable feature
space directions and propose an unsupervised post-hoc method to extract a
disentangling interpretable basis by looking for the rotation of the feature
space that explains sparse one-hot thresholded transformed representations of
pixel activations. We do experimentation with existing popular CNNs and
demonstrate the effectiveness of our method in extracting an interpretable
basis across network architectures and training datasets. We make extensions to
the existing basis interpretability metrics found in the literature and show
that, intermediate layer representations become more interpretable when
transformed to the bases extracted with our method. Finally, using the basis
interpretability metrics, we compare the bases extracted with our method with
the bases derived with a supervised approach and find that, in one aspect, the
proposed unsupervised approach has a strength that constitutes a limitation of
the supervised one and give potential directions for future research.
- Abstract(参考訳): CNN画像分類器の予測と中間層表現を人間の理解可能な概念の観点から説明しようとする研究の行である。
本研究では、注釈付き概念データセットを用いて解釈可能な特徴空間方向を抽出する文献において、従来の研究を拡張し、画素アクティベーションのスパースな1ホット閾値変換表現を説明する特徴空間の回転を求めることにより、非教師なしの解釈可能な基礎を抽出するポストホック法を提案する。
我々は既存のcnnを実験し、ネットワークアーキテクチャとデータセットをまたいで解釈可能な基底を抽出する手法の有効性を実証する。
そこで本研究では,本手法で抽出したベースに変換すると,中間層表現が解釈可能になることを示す。
最後に,本手法から抽出したベースと,教師付きアプローチから抽出したベースを比較した結果,教師なしアプローチには,教師付き手法の限界を構成する強度があり,今後の研究の方向性が示唆されることがわかった。
関連論文リスト
- Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Uncovering Unique Concept Vectors through Latent Space Decomposition [0.0]
概念に基づく説明は、特徴帰属推定よりも解釈可能な優れたアプローチとして現れてきた。
本稿では,訓練中に深層モデルから学んだ概念を自動的に発見するポストホックな教師なし手法を提案する。
実験の結果、我々の概念の大部分は、人間にとって容易に理解でき、一貫性を示し、目の前の課題に関連があることが判明した。
論文 参考訳(メタデータ) (2023-07-13T17:21:54Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - From Patches to Objects: Exploiting Spatial Reasoning for Better Visual
Representations [2.363388546004777]
本研究では,空間的推論に基づく新しい予備的事前学習手法を提案する。
本提案手法は,識別的自己管理手法の補助的タスクとして空間推論を導入することで,より柔軟なコントラスト学習の定式化を実現する。
論文 参考訳(メタデータ) (2023-05-21T07:46:46Z) - Revealing Hidden Context Bias in Segmentation and Object Detection
through Concept-specific Explanations [14.77637281844823]
提案手法は,モデルが推論時に学習し,認識し,使用した関連概念を自動的に識別し,視覚化し,入力空間内で正確に特定する,ポストホックなeXplainable Artificial Intelligence法であるL-CRPを提案する。
提案手法の信頼性を,異なる概念帰属法を定量的に比較して検証し,CityScapes, Pascal VOC, MS COCO 2017などの一般的なデータセットに対する説明複雑性への影響について検討する。
論文 参考訳(メタデータ) (2022-11-21T13:12:23Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Ontology-based Interpretable Machine Learning for Textual Data [35.01650633374998]
本稿では,予測モデルを説明するためのサンプリング手法に基づいて,解釈可能なモデルを学習する新しい解釈フレームワークを提案する。
説明のために探索空間を狭めるために,学習可能なアンカーアルゴリズムを設計する。
さらに、学習された解釈可能な表現とアンカーを組み合わせることで、理解可能な説明を生成する一連の規則が導入された。
論文 参考訳(メタデータ) (2020-04-01T02:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。