論文の概要: Interpretable Hierarchical Concept Reasoning through Attention-Guided Graph Learning
- arxiv url: http://arxiv.org/abs/2506.21102v1
- Date: Thu, 26 Jun 2025 08:56:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.030144
- Title: Interpretable Hierarchical Concept Reasoning through Attention-Guided Graph Learning
- Title(参考訳): 注意誘導型グラフ学習による解釈可能な階層的概念推論
- Authors: David Debot, Pietro Barbiero, Gabriele Dominici, Giuseppe Marra,
- Abstract要約: 本稿では,階層型概念記憶共振器(H-CMR)を提案する。
H-CMRは最先端のパフォーマンスと一致し、概念やモデルの介入を通じて強い人間との相互作用を可能にする。
- 参考スコア(独自算出の注目度): 8.464865102100925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept-Based Models (CBMs) are a class of deep learning models that provide interpretability by explaining predictions through high-level concepts. These models first predict concepts and then use them to perform a downstream task. However, current CBMs offer interpretability only for the final task prediction, while the concept predictions themselves are typically made via black-box neural networks. To address this limitation, we propose Hierarchical Concept Memory Reasoner (H-CMR), a new CBM that provides interpretability for both concept and task predictions. H-CMR models relationships between concepts using a learned directed acyclic graph, where edges represent logic rules that define concepts in terms of other concepts. During inference, H-CMR employs a neural attention mechanism to select a subset of these rules, which are then applied hierarchically to predict all concepts and the final task. Experimental results demonstrate that H-CMR matches state-of-the-art performance while enabling strong human interaction through concept and model interventions. The former can significantly improve accuracy at inference time, while the latter can enhance data efficiency during training when background knowledge is available.
- Abstract(参考訳): 概念ベースモデル (Concept-Based Models, CBM) は、高レベルの概念を通して予測を説明することによって解釈可能性を提供するディープラーニングモデルのクラスである。
これらのモデルはまず概念を予測し、次に下流のタスクを実行するために使用する。
しかし、現在のCBMは最終タスク予測のみに解釈可能性を提供しており、概念予測自体は一般的にブラックボックスニューラルネットワークによって行われる。
この制限に対処するために,概念予測とタスク予測の両方に解釈性を提供する新しいCBMである階層型概念記憶共振器(H-CMR)を提案する。
H-CMRは学習された非巡回グラフを用いて概念間の関係をモデル化する。
推論中、H-CMRはこれらのルールのサブセットを選択するために神経注意機構を使用し、すべての概念と最終タスクを予測するために階層的に適用される。
実験により,H-CMRは最先端の性能と一致し,概念やモデル介入による強い人間との相互作用が可能であることが示された。
前者は推論時の精度を大幅に向上させることができ、後者はバックグラウンド知識が利用可能である場合のトレーニング時のデータ効率を向上させることができる。
関連論文リスト
- Adaptive Test-Time Intervention for Concept Bottleneck Models [6.31833744906105]
概念ボトルネックモデル(CBM)は、人間レベルの「概念」を予測することによってモデルの解釈可能性を改善することを目的としている
我々は,2成分蒸留(BD)を得るためにFIGS(Fast Interpretable Greedy Sum-Trees)を提案する。
FIGS-BDは、CBMのバイナリ拡張されたコンセプト・トゥ・ターゲット部分を解釈可能なツリーベースモデルに蒸留する。
論文 参考訳(メタデータ) (2025-03-09T19:03:48Z) - LLM Pretraining with Continuous Concepts [71.98047075145249]
次のトークン予測は、大規模言語モデルの事前トレーニングで使用される標準的なトレーニング目標である。
離散的な次のトークン予測と連続的な概念を組み合わせた新しい事前学習フレームワークであるContinuous Concept Mixing (CoCoMix)を提案する。
論文 参考訳(メタデータ) (2025-02-12T16:00:11Z) - Survival Concept-Based Learning Models [2.024925013349319]
概念に基づく学習と生存分析を統合する2つの新しいモデルが提案されている。
SurvCBMはよく知られた概念ボトルネックモデルのアーキテクチャに基づいている。
SurvRCMは精度を高めるために正規化として概念を使用する。
論文 参考訳(メタデータ) (2025-02-09T16:41:04Z) - MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。