論文の概要: Revealing Combinatorial Reasoning of GNNs via Graph Concept Bottleneck Layer
- arxiv url: http://arxiv.org/abs/2603.02025v1
- Date: Mon, 02 Mar 2026 16:07:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.961051
- Title: Revealing Combinatorial Reasoning of GNNs via Graph Concept Bottleneck Layer
- Title(参考訳): グラフ概念ボトルネック層によるGNNの組合せ推論
- Authors: Yue Niu, Zhaokai Sun, Jiayi Yang, Xiaofeng Cao, Rui Fan, Xin Sun, Hanli Wang, Wei Ye,
- Abstract要約: 我々は,任意のGNNアーキテクチャに統合可能なグラフ概念層を開発する。
予測された概念スコアは、選択された識別層によってクラスラベルに投影される。
グラフの概念に対してソフト論理則を適合させるため、GNNの予測のスパース推論を強制する。
- 参考スコア(独自算出の注目度): 28.886850252681754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their success in various domains, the growing dependence on GNNs raises a critical concern about the nature of the combinatorial reasoning underlying their predictions, which is often hidden within their black-box architectures. Addressing this challenge requires understanding how GNNs translate topological patterns into logical rules. However, current works only uncover the hard logical rules over graph concepts, which cannot quantify the contribution of each concept to prediction. Moreover, they are post-hoc interpretable methods that generate explanations after model training and may not accurately reflect the true combinatorial reasoning of GNNs, since they approximate it with a surrogate. In this work, we develop a graph concept bottleneck layer that can be integrated into any GNN architectures to guide them to predict the selected discriminative global graph concepts. The predicted concept scores are further projected to class labels by a sparse linear layer. It enforces the combinatorial reasoning of GNNs' predictions to fit the soft logical rule over graph concepts and thus can quantify the contribution of each concept. To further improve the quality of the concept bottleneck, we treat concepts as "graph words" and graphs as "graph sentences", and leverage language models to learn graph concept embeddings. Extensive experiments on multiple datasets show that our method GCBMs achieve state-of-the-art performance both in classification and interpretability.
- Abstract(参考訳): 様々な領域での成功にもかかわらず、GNNへの依存度の増加は、それらの予測の根底にある組合せ的推論の性質に重大な懸念を生じさせ、しばしばブラックボックスアーキテクチャの中に隠されている。
この課題に対処するには、GNNがトポロジ的パターンを論理ルールに変換する方法を理解する必要がある。
しかし、現在の研究はグラフの概念に関する厳密な論理的ルールのみを明らかにしており、各概念の予測への貢献を定量化することはできない。
さらに、モデルトレーニング後に説明を生成するポストホック解釈可能な手法であり、代理語と近似するため、GNNの真の組合せ的推論を正確に反映しない可能性がある。
本研究では,任意のGNNアーキテクチャに統合可能なグラフ概念ボトルネック層を開発し,選択した識別的グローバルグラフの概念を予測する。
予測された概念スコアはさらにスパース線形層によってクラスラベルに投影される。
これはグラフ概念に対するソフト論理則に適合するため、GNNの予測の組合せ推論を強制し、各概念の寄与を定量化することができる。
概念ボトルネックの品質をさらに向上するため、概念を「グラフ語」、グラフを「グラフ文」として扱い、言語モデルを活用してグラフ概念の埋め込みを学習する。
複数のデータセットに対する広範囲な実験により,本手法のGCBMは,分類と解釈性の両方において最先端の性能を発揮することが示された。
関連論文リスト
- Extracting Interpretable Logic Rules from Graph Neural Networks [7.262955921646328]
グラフニューラルネットワーク(GNN)は入力特徴空間とグラフ構造の両方で動作する。
本稿では,GNN から解釈可能な論理規則を抽出するための新しいフレームワーク LOGI CXGNN を提案する。
LOGI CXGNNはモデルに依存しず、効率的で、データ駆動であり、事前定義された概念は不要である。
論文 参考訳(メタデータ) (2025-03-25T09:09:46Z) - Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Everybody Needs a Little HELP: Explaining Graphs via Hierarchical
Concepts [12.365451175795338]
グラフニューラルネットワーク(GNN)は、薬物発見、ソーシャルネットワーク分析、旅行時間推定などの領域でブレークスルーをもたらしている。
人間の信頼を妨げる解釈性が欠如しているため、高い判断を下すような設定にデプロイされる。
HELPは、異なるGNN層の概念が後続のステップで新しい概念にどのように構成されるかを明らかにする、本質的に解釈可能な新しいグラフプーリング手法である。
論文 参考訳(メタデータ) (2023-11-25T20:06:46Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Encoding Concepts in Graph Neural Networks [6.129235861306906]
本稿では,グラフネットワークにおける最初の差別化可能な概念発見手法であるConcept Moduleを紹介する。
提案手法は,まずグラフの概念を発見し,それを用いてタスクを解くことにより,グラフネットワークを設計により説明可能にする。
提案手法により,グラフネットワークは等価なバニラバージョンと同等の精度でモデルの精度が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T15:34:14Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Algorithmic Concept-based Explainable Reasoning [0.3149883354098941]
グラフニューラルネットワーク(GNN)モデルに関する最近の研究は、古典的なグラフアルゴリズムと最適化問題にGNNを適用した。
これらのアプローチの主な障害は、GNNは直接解釈できないブラックボックスモデルであるため、説明可能性の欠如である。
本稿では,GNNの読み出し機構を改良したコンセプトブートネックGNNを紹介する。
論文 参考訳(メタデータ) (2021-07-15T17:44:51Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。