論文の概要: Local Concept Embeddings for Analysis of Concept Distributions in Vision DNN Feature Spaces
- arxiv url: http://arxiv.org/abs/2311.14435v3
- Date: Sun, 30 Mar 2025 15:12:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 15:20:30.2045
- Title: Local Concept Embeddings for Analysis of Concept Distributions in Vision DNN Feature Spaces
- Title(参考訳): ビジョンDNN特徴空間における概念分布解析のための局所概念埋め込み
- Authors: Georgii Mikriukov, Gesina Schwalbe, Korinna Bade,
- Abstract要約: 学習した潜伏表現に対する洞察は、コンピュータビジョンタスクのディープニューラルネットワーク(DNN)を検証する上で不可欠である。
本稿では,学習した概念分布の探索を可能にする新しいローカル概念分析フレームワークを提案する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
- 参考スコア(独自算出の注目度): 1.0923877073891446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insights into the learned latent representations are imperative for verifying deep neural networks (DNNs) in critical computer vision (CV) tasks. Therefore, state-of-the-art supervised Concept-based eXplainable Artificial Intelligence (C-XAI) methods associate user-defined concepts like ``car'' each with a single vector in the DNN latent space (concept embedding vector). In the case of concept segmentation, these linearly separate between activation map pixels belonging to a concept and those belonging to background. Existing methods for concept segmentation, however, fall short of capturing implicitly learned sub-concepts (e.g., the DNN might split car into ``proximate car'' and ``distant car''), and overlap of user-defined concepts (e.g., between ``bus'' and ``truck''). In other words, they do not capture the full distribution of concept representatives in latent space. For the first time, this work shows that these simplifications are frequently broken and that distribution information can be particularly useful for understanding DNN-learned notions of sub-concepts, concept confusion, and concept outliers. To allow exploration of learned concept distributions, we propose a novel local concept analysis framework. Instead of optimizing a single global concept vector on the complete dataset, it generates a local concept embedding (LoCE) vector for each individual sample. We use the distribution formed by LoCEs to explore the latent concept distribution by fitting Gaussian mixture models (GMMs), hierarchical clustering, and concept-level information retrieval and outlier detection. Despite its context sensitivity, our method's concept segmentation performance is competitive to global baselines. Analysis results are obtained on three datasets and six diverse vision DNN architectures, including vision transformers (ViTs).
- Abstract(参考訳): 学習した潜伏表現に対する洞察は、クリティカルコンピュータビジョン(CV)タスクにおけるディープニューラルネットワーク(DNN)の検証に不可欠である。
したがって、最先端の教師付き概念ベースのeXplainable Artificial Intelligence(C-XAI)メソッドは、‘car’のようなユーザ定義の概念をDNNラテント空間内の単一のベクトル(概念埋め込みベクター)に関連付ける。
概念分割の場合、これらは概念に属するアクティベーションマップピクセルと背景に属するピクセルとを線形に分離する。
しかし、既存のコンセプトセグメンテーションの方法は、暗黙的に学習されたサブコンセプト(例えば、DNNは車を ``proximate car'' と ``distant car'' に分割する)をキャプチャするに足りず、ユーザ定義のコンセプト(例えば、 `bus' と ``truck' の間)の重複に欠ける。
言い換えれば、それらは潜在空間における概念代表の完全な分布を捉えない。
この研究は、これらの単純化が頻繁に破られ、サブコンセプトのDNNによる概念理解、概念混乱、概念外乱の理解に特に有用であることを示す。
学習した概念分布の探索を可能にするために,新しい局所的概念分析フレームワークを提案する。
完全なデータセット上で単一のグローバルな概念ベクトルを最適化する代わりに、個々のサンプルに対してローカルな概念埋め込み(LoCE)ベクトルを生成する。
我々はLoCEsが作成した分布を用いて、ガウス混合モデル(GMM)、階層クラスタリング、概念レベルの情報検索と外乱検出を組み込むことにより、潜在概念分布を探索する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
分析結果は、視覚変換器(ViT)を含む3つのデータセットと6つの多様な視覚DNNアーキテクチャから得られる。
関連論文リスト
- Escaping Plato's Cave: Robust Conceptual Reasoning through Interpretable 3D Neural Object Volumes [65.63534641857476]
画像分類における解釈可能性とロバスト性を統一する新しい方向であるCAVE(Concept Aware Volumes for Explanations)を紹介する。
本研究では,既存の3次元認識型分類器をボリューム表現から抽出した概念で拡張することで,本質的に解釈可能かつ堅牢な分類器を設計する。
解釈可能性のための定量的メトリクスの配列において、説明可能なAI文献全体にわたる異なる概念ベースのアプローチと比較し、CAVEが画像間で一貫して使用されるよく構築された概念を発見し、優れたロバスト性を実現していることを示す。
論文 参考訳(メタデータ) (2025-03-17T17:55:15Z) - Zero-shot Concept Bottleneck Models [17.70684428339905]
概念ボトルネックモデル(CBM)は本質的に解釈可能で、解釈可能なニューラルネットワークモデルである。
ニューラルネットワークを訓練することなく,概念やラベルをゼロショットで予測するテクスツケロ・ショット・コンセプト・ボトルネック・モデル(Z-CBM)を提案する。
論文 参考訳(メタデータ) (2025-02-13T07:11:07Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Locally Testing Model Detections for Semantic Global Concepts [3.112979958793927]
本稿では,グローバルな概念エンコーディングを単一ネットワーク入力の局所処理にリンクするフレームワークを提案する。
提案手法は,セマンティック概念のモデル内符号化を完全に網羅する利点がある。
その結果, 個々のグローバルな概念エンコーディングの局所的認識と使用法に大きな違いが認められた。
論文 参考訳(メタデータ) (2024-05-27T12:52:45Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Sparse Subspace Clustering for Concept Discovery (SSCCD) [1.7319807100654885]
概念は高いレベルの人間の理解の鍵となる構成要素である。
局所帰属法では、サンプル間のコヒーレントモデル挙動を特定できない。
隠れた特徴層の低次元部分空間として、新しい概念の定義を提唱した。
論文 参考訳(メタデータ) (2022-03-11T16:15:48Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Unsupervised Learning of Compositional Energy Concepts [70.11673173291426]
本稿では,概念を別個のエネルギー関数として発見し,表現するCOMETを提案する。
Cometは、統一されたフレームワークの下でのオブジェクトだけでなく、グローバルな概念も表現します。
論文 参考訳(メタデータ) (2021-11-04T17:46:12Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Invertible Concept-based Explanations for CNN Models with Non-negative
Concept Activation Vectors [24.581839689833572]
コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)モデルは強力だが、最も基本的な形式では説明不可能である。
近似線形モデルの特徴的重要性による最近の説明に関する研究は、入力レベル特徴から概念活性化ベクトル(CAV)の形で中間層特徴写像から特徴へと移行した。
本稿では,Ghorbani etal.のACEアルゴリズムを再考し,その欠点を克服するために,別の非可逆的概念ベース説明(ICE)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-27T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。