論文の概要: Exploring Concept Contribution Spatially: Hidden Layer Interpretation
with Spatial Activation Concept Vector
- arxiv url: http://arxiv.org/abs/2205.11511v1
- Date: Sat, 21 May 2022 15:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 14:31:33.374628
- Title: Exploring Concept Contribution Spatially: Hidden Layer Interpretation
with Spatial Activation Concept Vector
- Title(参考訳): 空間的寄与の探索:空間的活性化概念ベクトルを用いた隠れ層解釈
- Authors: Andong Wang, Wei-Ning Lee
- Abstract要約: コンセプトアクティベーションベクトル(TCAV)を使用したテストは、クエリ概念のターゲットクラスへのコントリビューションを定量化する強力なツールを提供する。
対象物が領域のごく一部しか占有していない画像の場合、TCAV評価は冗長な背景特徴によって妨害される可能性がある。
- 参考スコア(独自算出の注目度): 5.873416857161077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To interpret deep learning models, one mainstream is to explore the learned
concepts by networks. Testing with Concept Activation Vector (TCAV) presents a
powerful tool to quantify the contribution of query concepts (represented by
user-defined guidance images) to a target class. For example, we can
quantitatively evaluate whether and to what extent concept striped contributes
to model prediction zebra with TCAV. Therefore, TCAV whitens the reasoning
process of deep networks. And it has been applied to solve practical problems
such as diagnosis. However, for some images where the target object only
occupies a small fraction of the region, TCAV evaluation may be interfered with
by redundant background features because TCAV calculates concept contribution
to a target class based on a whole hidden layer. To tackle this problem, based
on TCAV, we propose Spatial Activation Concept Vector (SACV) which identifies
the relevant spatial locations to the query concept while evaluating their
contributions to the model prediction of the target class. Experiment shows
that SACV generates a more fine-grained explanation map for a hidden layer and
quantifies concepts' contributions spatially. Moreover, it avoids interference
from background features. The code is available on
https://github.com/AntonotnaWang/Spatial-Activation-Concept-Vector.
- Abstract(参考訳): ディープラーニングモデルを解釈するには、ネットワークによる学習概念の探求が主流だ。
コンセプトアクティベーションベクター(tcav)を使ったテストは、ターゲットクラスに対するクエリ概念(ユーザ定義のガイダンスイメージで表現される)の貢献度を定量化する強力なツールを提供する。
例えば,TCAVを用いたモデル予測ゼブラに,ストライプの概念がどの程度寄与するかを定量的に評価することができる。
したがって、TCAVはディープネットワークの推論プロセスを白化している。
診断などの実践的な問題を解決するために応用されている。
しかし,対象対象が領域のごく一部しか占めていない画像では,TCAVが対象クラスへの概念貢献を隠蔽層全体に基づいて計算するため,冗長な背景特徴によってTCAV評価が阻害されることがある。
この問題に対処するため,TAVに基づく空間活性化概念ベクトル(SACV)を提案し,対象クラスのモデル予測への寄与を評価しながら,クエリ概念に関連する空間的位置を特定する。
実験によれば、scvは隠れた層に対してより細かい説明マップを生成し、空間的に概念の貢献を定量化する。
さらに、バックグラウンド機能からの干渉を回避する。
コードはhttps://github.com/AntonotnaWang/Spatial-Activation-Concept-Vectorで入手できる。
関連論文リスト
- Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Local Concept Embeddings for Analysis of Concept Distributions in DNN Feature Spaces [1.0923877073891446]
我々はディープニューラルネットワーク(DNN)のための新しい概念分析フレームワークを提案する。
完全なデータセット上で単一のグローバルな概念ベクトルを最適化する代わりに、個々のサンプルに対してローカルな概念埋め込み(LoCE)ベクトルを生成する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Revealing Hidden Context Bias in Segmentation and Object Detection
through Concept-specific Explanations [14.77637281844823]
提案手法は,モデルが推論時に学習し,認識し,使用した関連概念を自動的に識別し,視覚化し,入力空間内で正確に特定する,ポストホックなeXplainable Artificial Intelligence法であるL-CRPを提案する。
提案手法の信頼性を,異なる概念帰属法を定量的に比較して検証し,CityScapes, Pascal VOC, MS COCO 2017などの一般的なデータセットに対する説明複雑性への影響について検討する。
論文 参考訳(メタデータ) (2022-11-21T13:12:23Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Sparse Subspace Clustering for Concept Discovery (SSCCD) [1.7319807100654885]
概念は高いレベルの人間の理解の鍵となる構成要素である。
局所帰属法では、サンプル間のコヒーレントモデル挙動を特定できない。
隠れた特徴層の低次元部分空間として、新しい概念の定義を提唱した。
論文 参考訳(メタデータ) (2022-03-11T16:15:48Z) - Navigating Neural Space: Revisiting Concept Activation Vectors to
Overcome Directional Divergence [14.071950294953005]
概念活性化ベクトル (Concept Activation Vectors, CAV) は、潜在空間における人間の理解可能な概念をモデル化するための一般的なツールである。
本稿では、そのような分離性指向の解が、概念の方向性を正確にモデル化する実際の目標から逸脱する可能性があることを示す。
パターンベースのCAVを導入し、概念信号のみに着目し、より正確な概念指示を提供する。
論文 参考訳(メタデータ) (2022-02-07T19:40:20Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。