論文の概要: ConceptFlow: Hierarchical and Fine-grained Concept-Based Explanation for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2509.18147v1
- Date: Tue, 16 Sep 2025 03:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.418926
- Title: ConceptFlow: Hierarchical and Fine-grained Concept-Based Explanation for Convolutional Neural Networks
- Title(参考訳): ConceptFlow:畳み込みニューラルネットワークのための階層的できめ細かい概念ベース説明
- Authors: Xinyu Mu, Hui Dou, Furao Shen, Jian Zhao,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の概念に基づく解釈可能性とは、内部モデル表現と高レベルの意味論的概念の整合性である。
モデルの内部の「思考経路」をシミュレートする概念ベースの解釈可能性フレームワークであるConceptFlowを提案する。
- 参考スコア(独自算出の注目度): 14.365259717799034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept-based interpretability for Convolutional Neural Networks (CNNs) aims to align internal model representations with high-level semantic concepts, but existing approaches largely overlook the semantic roles of individual filters and the dynamic propagation of concepts across layers. To address these limitations, we propose ConceptFlow, a concept-based interpretability framework that simulates the internal "thinking path" of a model by tracing how concepts emerge and evolve across layers. ConceptFlow comprises two key components: (i) concept attentions, which associate each filter with relevant high-level concepts to enable localized semantic interpretation, and (ii) conceptual pathways, derived from a concept transition matrix that quantifies how concepts propagate and transform between filters. Together, these components offer a unified and structured view of internal model reasoning. Experimental results demonstrate that ConceptFlow yields semantically meaningful insights into model reasoning, validating the effectiveness of concept attentions and conceptual pathways in explaining decision behavior. By modeling hierarchical conceptual pathways, ConceptFlow provides deeper insight into the internal logic of CNNs and supports the generation of more faithful and human-aligned explanations.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の概念に基づく解釈可能性(convolutional Neural Networks)は、内部モデル表現を高レベルなセマンティックな概念に整合させることを目的としているが、既存のアプローチは、個々のフィルタの意味的役割と層間の概念の動的伝播を概ね見落としている。
これらの制限に対処するため、概念ベースの解釈可能性フレームワークであるConceptFlowを提案し、モデルの内部の"思考パス"をシミュレートする。
ConceptFlowには2つの重要なコンポーネントがある。
一 それぞれのフィルタと関連する高レベルな概念を関連づけて、局所的な意味解釈を可能にする概念的注意
(ii)概念遷移行列から導かれる概念経路は、フィルタ間の概念の伝播と変換を定量化する。
これらのコンポーネントは、内部モデル推論の統一的で構造化されたビューを提供する。
実験結果から,ConceptFlowはモデル推論において意味論的に意味のある洞察を与え,概念的注意と概念的経路の有効性を検証し,意思決定行動を説明する。
階層的な概念経路をモデル化することによって、ConceptFlowはCNNの内部ロジックに関する深い洞察を提供し、より忠実で人間に沿った説明の生成をサポートする。
関連論文リスト
- Concept Layers: Enhancing Interpretability and Intervenability via LLM Conceptualization [2.163881720692685]
本稿では,概念層をアーキテクチャに組み込むことにより,解釈可能性とインターベンタビリティを既存モデルに組み込む新しい手法を提案する。
我々のアプローチは、モデルの内部ベクトル表現を、再構成してモデルにフィードバックする前に、概念的で説明可能なベクトル空間に投影する。
複数のタスクにまたがるCLを評価し、本来のモデルの性能と合意を維持しつつ、意味のある介入を可能にしていることを示す。
論文 参考訳(メタデータ) (2025-02-19T11:10:19Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - A Self-explaining Neural Architecture for Generalizable Concept Learning [29.932706137805713]
現在,SOTA の概念学習アプローチは,概念の忠実さの欠如と,概念の相互運用の限界という2つの大きな問題に悩まされている。
ドメイン間の概念学習のための新しい自己説明型アーキテクチャを提案する。
提案手法は,現在広く使われている4つの実世界のデータセットに対するSOTA概念学習手法に対して有効であることを示す。
論文 参考訳(メタデータ) (2024-05-01T06:50:18Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - CHAIN: Concept-harmonized Hierarchical Inference Interpretation of Deep
Convolutional Neural Networks [25.112903533844296]
The Concept-harmonized HierArchical Inference (CHAIN) is proposed to interpretation the net decision-making process。
ネット決定を解釈するために、提案手法は、ネット決定を階層的に導出できるCHAIN解釈を示す。
定量的および定性的な実験では、CHAINのインスタンスレベルとクラスレベルでの有効性を示す。
論文 参考訳(メタデータ) (2020-02-05T06:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。