論文の概要: Granular Concept Circuits: Toward a Fine-Grained Circuit Discovery for Concept Representations
- arxiv url: http://arxiv.org/abs/2508.01728v1
- Date: Sun, 03 Aug 2025 11:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.034038
- Title: Granular Concept Circuits: Toward a Fine-Grained Circuit Discovery for Concept Representations
- Title(参考訳): 粒状概念回路:概念表現のための微細粒状回路発見を目指して
- Authors: Dahee Kwon, Sehyun Lee, Jaesik Choi,
- Abstract要約: 本稿では,各回路が与えられたクエリに関連する概念を表現する,GCC(Granular Concept Circuit)と呼ばれる効果的な回路探索手法を提案する。
複数の回路を自動的に発見し、それぞれがクエリ内の特定の概念をキャプチャすることで、我々のアプローチはモデルの深い概念的解釈を提供する。
我々は,様々な深部画像分類モデルにおけるGCCの汎用性と有効性を検証する。
- 参考スコア(独自算出の注目度): 19.50321703079894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep vision models have achieved remarkable classification performance by leveraging a hierarchical architecture in which human-interpretable concepts emerge through the composition of individual neurons across layers. Given the distributed nature of representations, pinpointing where specific visual concepts are encoded within a model remains a crucial yet challenging task. In this paper, we introduce an effective circuit discovery method, called Granular Concept Circuit (GCC), in which each circuit represents a concept relevant to a given query. To construct each circuit, our method iteratively assesses inter-neuron connectivity, focusing on both functional dependencies and semantic alignment. By automatically discovering multiple circuits, each capturing specific concepts within that query, our approach offers a profound, concept-wise interpretation of models and is the first to identify circuits tied to specific visual concepts at a fine-grained level. We validate the versatility and effectiveness of GCCs across various deep image classification models.
- Abstract(参考訳): ディープビジョンモデルは、階層的なアーキテクチャを活用して、階層をまたいだ個々のニューロンの合成を通して人間の解釈可能な概念が現れることで、顕著な分類性能を達成した。
表現の分散の性質を考えると、特定の視覚概念がモデル内にエンコードされている場所をピンポイントすることは、依然として決定的に難しい課題である。
本稿では,各回路が与えられたクエリに関連する概念を表現する,GCC(Granular Concept Circuit)と呼ばれる効果的な回路探索手法を提案する。
それぞれの回路を構成するためには,機能的依存関係とセマンティックアライメントの両方に着目し,ニューロン間の接続性を反復的に評価する。
提案手法は,複数の回路を自動的に発見し,そのクエリ内で特定の概念を捉えることによって,モデルの深い概念的解釈を提供するとともに,特定の視覚的概念に結びついた回路をきめ細かなレベルで識別する最初の方法である。
我々は,様々な深部画像分類モデルにおけるGCCの汎用性と有効性を検証する。
関連論文リスト
- Discovering Concept Directions from Diffusion-based Counterfactuals via Latent Clustering [4.891597567642704]
概念に基づく説明は、説明可能な人工知能における効果的なアプローチとして現れている。
本研究は,グローバルなクラス固有の概念方向を抽出する遅延クラスタリング(CDLC)による概念指示を導入する。
このアプローチは、現実世界の皮膚病変データセットで検証される。
論文 参考訳(メタデータ) (2025-05-11T17:53:02Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Visual Concept Connectome (VCC): Open World Concept Discovery and their Interlayer Connections in Deep Models [21.245185285617698]
視覚概念接続(VCC)は、人間の解釈可能な概念とその層間接続を、完全に教師なしの方法で発見する。
提案手法は,すべての層にまたがる接続重み付けを同時に実現し,ネットワーク構造のグローバルな解析に有効である。
論文 参考訳(メタデータ) (2024-04-02T18:40:55Z) - Coarse-to-Fine Concept Bottleneck Models [9.910980079138206]
この研究は、アンテホック解釈可能性、特に概念ボトルネックモデル(CBM)をターゲットにしている。
我々のゴールは、人間の理解可能な概念を2段階の粒度で、高度に解釈可能な意思決定プロセスを認めるフレームワークを設計することである。
この枠組みでは、概念情報は全体像と一般的な非構造概念の類似性にのみ依存せず、画像シーンのパッチ固有の領域に存在するより粒度の細かい概念情報を発見・活用するために概念階層の概念を導入している。
論文 参考訳(メタデータ) (2023-10-03T14:57:31Z) - ACSeg: Adaptive Conceptualization for Unsupervised Semantic Segmentation [17.019848796027485]
自己教師付き視覚事前学習モデルでは,画素レベルの意味的関係を表現することに大きな期待が持たれている。
本研究では,自己学習モデルにおける画素レベルのセマンティックアグリゲーションを画像エンコードや設計概念として検討する。
本稿では,これらのプロトタイプを各画像に対する情報的概念に適応的にマッピングするアダプティブ・コンセプト・ジェネレータ(ACG)を提案する。
論文 参考訳(メタデータ) (2022-10-12T06:16:34Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - SegDiscover: Visual Concept Discovery via Unsupervised Semantic
Segmentation [29.809900593362844]
SegDiscoverは、監視なしで複雑なシーンを持つデータセットから意味論的に意味のある視覚概念を発見する新しいフレームワークである。
提案手法は, 生画像から概念プリミティブを生成し, 自己教師付き事前学習エンコーダの潜在空間をクラスタリングし, ニューラルネットワークのスムーズ化により概念の洗練を図る。
論文 参考訳(メタデータ) (2022-04-22T20:44:42Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。