論文の概要: Sparse Subspace Clustering for Concept Discovery (SSCCD)
- arxiv url: http://arxiv.org/abs/2203.06043v1
- Date: Fri, 11 Mar 2022 16:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 11:56:50.365694
- Title: Sparse Subspace Clustering for Concept Discovery (SSCCD)
- Title(参考訳): 概念発見のためのスパース部分空間クラスタリング(ssccd)
- Authors: Johanna Vielhaben, Stefan Bl\"ucher, and Nils Strodthoff
- Abstract要約: 概念は高いレベルの人間の理解の鍵となる構成要素である。
局所帰属法では、サンプル間のコヒーレントモデル挙動を特定できない。
隠れた特徴層の低次元部分空間として、新しい概念の定義を提唱した。
- 参考スコア(独自算出の注目度): 1.7319807100654885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concepts are key building blocks of higher level human understanding.
Explainable AI (XAI) methods have shown tremendous progress in recent years,
however, local attribution methods do not allow to identify coherent model
behavior across samples and therefore miss this essential component. In this
work, we study concept-based explanations and put forward a new definition of
concepts as low-dimensional subspaces of hidden feature layers. We novelly
apply sparse subspace clustering to discover these concept subspaces. Moving
forward, we derive insights from concept subspaces in terms of localized input
(concept) maps, show how to quantify concept relevances and lastly, evaluate
similarities and transferability between concepts. We empirically demonstrate
the soundness of the proposed Sparse Subspace Clustering for Concept Discovery
(SSCCD) method for a variety of different image classification tasks. This
approach allows for deeper insights into the actual model behavior that would
remain hidden from conventional input-level heatmaps.
- Abstract(参考訳): 概念は高いレベルの人間の理解の鍵となる構成要素である。
説明可能なAI(XAI)手法は近年著しく進歩しているが、局所帰属法ではサンプル間のコヒーレントなモデルの振る舞いを識別できないため、この必須成分を見逃すことができる。
本研究では,概念に基づく説明を研究し,隠れた特徴層の低次元部分空間として概念の新たな定義を行う。
スパース部分空間クラスタリングを用いてこれらの概念のサブスペースを発見する。
先進的には、局所的な入力(概念)マップの観点から概念部分空間から洞察を導き、概念の関連性を定量化する方法を示し、最後に、概念間の類似性と伝達可能性を評価する。
本研究では,様々な画像分類タスクに対して,SSCCD法(Sparse Subspace Clustering for Concept Discovery)の音質を実証的に示す。
このアプローチは、従来の入力レベルのヒートマップから隠されたままの実際のモデル動作に関する深い洞察を可能にする。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - How to Blend Concepts in Diffusion Models [48.68800153838679]
近年の手法は複数の潜在表現とその関連性を利用しており、この研究はさらに絡み合っている。
我々のゴールは、潜在空間における操作が根底にある概念にどのように影響するかを理解することです。
我々の結論は、宇宙操作によるブレンドの概念は可能であるが、最良の戦略はブレンドの文脈に依存する。
論文 参考訳(メタデータ) (2024-07-19T13:05:57Z) - Understanding Distributed Representations of Concepts in Deep Neural
Networks without Supervision [25.449397570387802]
本稿では,ニューロンの主部分集合を選択することによって,概念の分散表現を発見する教師なし手法を提案する。
我々の経験から、類似のニューロン活性化状態のインスタンスはコヒーレントな概念を共有する傾向があることが示されている。
データ内のラベルなしサブクラスを特定し、誤分類の原因を検出するために利用することができる。
論文 参考訳(メタデータ) (2023-12-28T07:33:51Z) - Local Concept Embeddings for Analysis of Concept Distributions in DNN Feature Spaces [1.0923877073891446]
我々はディープニューラルネットワーク(DNN)のための新しい概念分析フレームワークを提案する。
完全なデータセット上で単一のグローバルな概念ベクトルを最適化する代わりに、個々のサンプルに対してローカルな概念埋め込み(LoCE)ベクトルを生成する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - CRAFT: Concept Recursive Activation FacTorization for Explainability [5.306341151551106]
CRAFTは概念に基づく説明を生成することによって、"What"と"where"の両方を識別する新しいアプローチである。
提案手法の利点を実証するために,人間とコンピュータの視覚実験を行った。
論文 参考訳(メタデータ) (2022-11-17T14:22:47Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Discovering Concepts in Learned Representations using Statistical
Inference and Interactive Visualization [0.76146285961466]
概念発見は、深層学習の専門家とモデルエンドユーザーの間のギャップを埋めるために重要である。
現在のアプローチには、手作りの概念データセットと、それを潜在空間方向に変換することが含まれる。
本研究では,複数の仮説テストに基づく意味ある概念のユーザ発見と,インタラクティブな可視化に関する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-09T22:29:48Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。