論文の概要: Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations
- arxiv url: http://arxiv.org/abs/2209.11222v1
- Date: Thu, 22 Sep 2022 17:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:50:16.997681
- Title: Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations
- Title(参考訳): 概念活性化領域:概念に基づく説明のための一般化された枠組み
- Authors: Jonathan Crabb\'e and Mihaela van der Schaar
- Abstract要約: 既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
- 参考スコア(独自算出の注目度): 95.94432031144716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept-based explanations permit to understand the predictions of a deep
neural network (DNN) through the lens of concepts specified by users. Existing
methods assume that the examples illustrating a concept are mapped in a fixed
direction of the DNN's latent space. When this holds true, the concept can be
represented by a concept activation vector (CAV) pointing in that direction. In
this work, we propose to relax this assumption by allowing concept examples to
be scattered across different clusters in the DNN's latent space. Each concept
is then represented by a region of the DNN's latent space that includes these
clusters and that we call concept activation region (CAR). To formalize this
idea, we introduce an extension of the CAV formalism that is based on the
kernel trick and support vector classifiers. This CAR formalism yields global
concept-based explanations and local concept-based feature importance. We prove
that CAR explanations built with radial kernels are invariant under latent
space isometries. In this way, CAR assigns the same explanations to latent
spaces that have the same geometry. We further demonstrate empirically that
CARs offer (1) more accurate descriptions of how concepts are scattered in the
DNN's latent space; (2) global explanations that are closer to human concept
annotations and (3) concept-based feature importance that meaningfully relate
concepts with each other. Finally, we use CARs to show that DNNs can
autonomously rediscover known scientific concepts, such as the prostate cancer
grading system.
- Abstract(参考訳): 概念に基づく説明は、ユーザーが指定した概念のレンズを通してディープニューラルネットワーク(dnn)の予測を理解することができる。
既存の手法では、概念を説明する例はDNNの潜伏空間の固定方向にマッピングされていると仮定している。
これが真であれば、概念はその方向を向いた概念活性化ベクトル(cav)によって表現することができる。
本研究では,DNNの潜伏空間内の異なるクラスタに概念例を分散させることにより,この仮定を緩和することを提案する。
各概念は、これらのクラスタを含むDNNの潜在空間の領域で表現され、概念活性化領域(concept activation region, CAR)と呼ばれる。
このアイデアを形式化するために、カーネルトリックとサポートベクトル分類器に基づくCAV形式の拡張を導入する。
このカーフォーマリズムは、グローバルな概念に基づく説明と、局所的な概念に基づく特徴の重要性をもたらす。
我々は、ラジアルカーネルで構築されたCAR説明が潜在空間等長の下で不変であることを証明する。
このようにして、CARは同じ幾何学を持つ潜在空間に同じ説明を割り当てる。
さらに,CARは,(1)DNNの潜伏空間における概念の散らばり方,(2)人間の概念アノテーションに近い世界的説明,(3)概念を有意義に関連づける概念的特徴の重要性について,より正確な説明を提供することを実証的に示す。
最後に、我々はCARを用いて、DNNが前立腺がんグレーティングシステムのような既知の科学的概念を自律的に再発見できることを示す。
関連論文リスト
- Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Local Concept Embeddings for Analysis of Concept Distributions in DNN Feature Spaces [1.0923877073891446]
我々はディープニューラルネットワーク(DNN)のための新しい概念分析フレームワークを提案する。
完全なデータセット上で単一のグローバルな概念ベクトルを最適化する代わりに、個々のサンプルに対してローカルな概念埋め込み(LoCE)ベクトルを生成する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Emergence of Concepts in DNNs? [0.0]
まず,既存の手法がDNNで表現されていると思われる概念を実際にどのように識別するかを検討する。
第二に、予測精度と圧縮のトレードオフによって、概念空間がどのように形成されるかについて議論する。
論文 参考訳(メタデータ) (2022-11-11T11:25:39Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Sparse Subspace Clustering for Concept Discovery (SSCCD) [1.7319807100654885]
概念は高いレベルの人間の理解の鍵となる構成要素である。
局所帰属法では、サンプル間のコヒーレントモデル挙動を特定できない。
隠れた特徴層の低次元部分空間として、新しい概念の定義を提唱した。
論文 参考訳(メタデータ) (2022-03-11T16:15:48Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。