論文の概要: GCPV: Guided Concept Projection Vectors for the Explainable Inspection
of CNN Feature Spaces
- arxiv url: http://arxiv.org/abs/2311.14435v1
- Date: Fri, 24 Nov 2023 12:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:11:14.132080
- Title: GCPV: Guided Concept Projection Vectors for the Explainable Inspection
of CNN Feature Spaces
- Title(参考訳): GCPV: CNN機能空間の説明可能な検査のためのガイド付きコンセプト投影ベクトル
- Authors: Georgii Mikriukov, Gesina Schwalbe, Christian Hellert, Korinna Bade
- Abstract要約: 本稿では,ローカル・グローバルな概念射影ベクトル(GCPV)のアプローチを紹介する。
GCPVはローカルな概念ベクトルを生成し、それぞれが概念セグメンテーションラベルを正確に再構築する。
その後、これらを大域的な概念に一般化し、階層的クラスタリングによって部分概念ベクトルさえも一般化する。
- 参考スコア(独自算出の注目度): 1.0923877073891446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For debugging and verification of computer vision convolutional deep neural
networks (CNNs) human inspection of the learned latent representations is
imperative. Therefore, state-of-the-art eXplainable Artificial Intelligence
(XAI) methods globally associate given natural language semantic concepts with
representing vectors or regions in the CNN latent space supporting manual
inspection. Yet, this approach comes with two major disadvantages: They are
locally inaccurate when reconstructing a concept label and discard information
about the distribution of concept instance representations. The latter, though,
is of particular interest for debugging, like finding and understanding
outliers, learned notions of sub-concepts, and concept confusion. Furthermore,
current single-layer approaches neglect that information about a concept may be
spread over the CNN depth. To overcome these shortcomings, we introduce the
local-to-global Guided Concept Projection Vectors (GCPV) approach: It (1)
generates local concept vectors that each precisely reconstruct a concept
segmentation label, and then (2) generalizes these to global concept and even
sub-concept vectors by means of hiearchical clustering. Our experiments on
object detectors demonstrate improved performance compared to the
state-of-the-art, the benefit of multi-layer concept vectors, and robustness
against low-quality concept segmentation labels. Finally, we demonstrate that
GCPVs can be applied to find root causes for confusion of concepts like bus and
truck, and reveal interesting concept-level outliers. Thus, GCPVs pose a
promising step towards interpretable model debugging and informed data
improvement.
- Abstract(参考訳): コンピュータビジョン畳み込み深層ニューラルネットワーク(cnns)のデバッグと検証には,学習された潜在表現の人間の検査が不可欠である。
したがって、最先端のeXplainable Artificial Intelligence (XAI)メソッドは、与えられた自然言語の意味概念を、手動検査をサポートするCNNラテント空間内のベクトルまたは領域を表すものとグローバルに関連付ける。
しかし、このアプローチには2つの大きな欠点がある: 概念ラベルの再構築時に局所的に不正確であり、概念インスタンス表現の分布に関する情報を破棄する。
しかし後者は特にデバッグに関心があり、例えば、外れ値の発見と理解、サブコンセプトの概念の学習、概念の混乱などである。
さらに、現在の単層アプローチでは、概念に関する情報がcnnの深さに広がることを無視している。
これらの欠点を克服するために,(1)概念セグメンテーションラベルを精密に再構成する局所概念ベクトルを生成し,(2)階層的クラスタリングによってグローバル概念やサブ概念ベクトルに一般化する,という,gcpv(local-to-global guided concept projection vectors)アプローチを導入する。
対象検出器に関する実験では,最先端技術,多層概念ベクトルの利点,低品質概念セグメンテーションラベルに対する堅牢性などと比較して性能が向上した。
最後に、GCPVがバスやトラックのような概念の混乱の原因を見つけるために応用できることを示し、興味深い概念レベルのアウトリーチを明らかにする。
したがって、GCPVは、解釈可能なモデルデバッグとインフォメーションデータ改善に向けた、有望なステップとなる。
関連論文リスト
- Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Exploring Concept Contribution Spatially: Hidden Layer Interpretation
with Spatial Activation Concept Vector [5.873416857161077]
コンセプトアクティベーションベクトル(TCAV)を使用したテストは、クエリ概念のターゲットクラスへのコントリビューションを定量化する強力なツールを提供する。
対象物が領域のごく一部しか占有していない画像の場合、TCAV評価は冗長な背景特徴によって妨害される可能性がある。
論文 参考訳(メタデータ) (2022-05-21T15:58:57Z) - SegDiscover: Visual Concept Discovery via Unsupervised Semantic
Segmentation [29.809900593362844]
SegDiscoverは、監視なしで複雑なシーンを持つデータセットから意味論的に意味のある視覚概念を発見する新しいフレームワークである。
提案手法は, 生画像から概念プリミティブを生成し, 自己教師付き事前学習エンコーダの潜在空間をクラスタリングし, ニューラルネットワークのスムーズ化により概念の洗練を図る。
論文 参考訳(メタデータ) (2022-04-22T20:44:42Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Invertible Concept-based Explanations for CNN Models with Non-negative
Concept Activation Vectors [24.581839689833572]
コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)モデルは強力だが、最も基本的な形式では説明不可能である。
近似線形モデルの特徴的重要性による最近の説明に関する研究は、入力レベル特徴から概念活性化ベクトル(CAV)の形で中間層特徴写像から特徴へと移行した。
本稿では,Ghorbani etal.のACEアルゴリズムを再考し,その欠点を克服するために,別の非可逆的概念ベース説明(ICE)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-27T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。