論文の概要: GnnXemplar: Exemplars to Explanations - Natural Language Rules for Global GNN Interpretability
- arxiv url: http://arxiv.org/abs/2509.18376v1
- Date: Mon, 22 Sep 2025 19:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.555516
- Title: GnnXemplar: Exemplars to Explanations - Natural Language Rules for Global GNN Interpretability
- Title(参考訳): GnnXemplar: 解説の例 - グローバルGNN解釈可能性のための自然言語規則
- Authors: Burouj Armgaan, Eshan Jain, Harsh Pandey, Mahesh Chandran, Sayan Ranu,
- Abstract要約: グラフニューラルネットワーク(GNN)はノード分類に広く使用されているが、不透明な決定は信頼と採用を制限する。
GnnXemplarは認知科学のExemplar Theoryに触発された新しいグローバルな説明法である。
GnnXemplarは、GNN埋め込み空間における代表ノードを特定し、その近傍から派生した自然言語規則を用いて予測を説明する。
- 参考スコア(独自算出の注目度): 14.490317973333298
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) are widely used for node classification, yet their opaque decision-making limits trust and adoption. While local explanations offer insights into individual predictions, global explanation methods, those that characterize an entire class, remain underdeveloped. Existing global explainers rely on motif discovery in small graphs, an approach that breaks down in large, real-world settings where subgraph repetition is rare, node attributes are high-dimensional, and predictions arise from complex structure-attribute interactions. We propose GnnXemplar, a novel global explainer inspired from Exemplar Theory from cognitive science. GnnXemplar identifies representative nodes in the GNN embedding space, exemplars, and explains predictions using natural language rules derived from their neighborhoods. Exemplar selection is framed as a coverage maximization problem over reverse k-nearest neighbors, for which we provide an efficient greedy approximation. To derive interpretable rules, we employ a self-refining prompt strategy using large language models (LLMs). Experiments across diverse benchmarks show that GnnXemplar significantly outperforms existing methods in fidelity, scalability, and human interpretability, as validated by a user study with 60 participants.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はノード分類に広く使われているが、不透明な決定は信頼と採用を制限する。
局所的な説明は個々の予測に関する洞察を提供するが、グローバルな説明方法、クラス全体を特徴付けるものは未発達のままである。
既存のグローバルな説明者は、小さなグラフにおけるモチーフ発見(英語版)に依存しており、これは、グラフの繰り返しが稀で、ノード属性は高次元であり、複雑な構造と属性の相互作用から生じる予測である。
GnnXemplarは認知科学のExemplar Theoryに触発された新しいグローバルな説明法である。
GnnXemplarは、GNN埋め込み空間における代表ノードを特定し、その近傍から派生した自然言語規則を用いて予測を説明する。
指数選択は、逆k-アネレスト近傍の被覆最大化問題としてフレーム化され、効率的なグリーディ近似を提供する。
解釈可能なルールを導出するために,大規模言語モデル (LLM) を用いた自己修正プロンプト戦略を用いる。
GnnXemplarは、さまざまなベンチマークで実験した結果、60人の参加者によるユーザスタディによって検証されたように、忠実さ、スケーラビリティ、人間の解釈可能性において、既存のメソッドよりも大幅に優れていた。
関連論文リスト
- From Nodes to Narratives: Explaining Graph Neural Networks with LLMs and Graph Context [2.66757978610454]
LOGICは軽量でポストホックなフレームワークで、大きな言語モデルを使用して、GNN予測に対する忠実で解釈可能な説明を生成する。
実験の結果,LOGICはインサイトフルネスなどの人間中心の指標を大幅に改善しつつ,忠実さと疎さのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2025-08-09T23:22:38Z) - TreeX: Generating Global Graphical GNN Explanations via Critical Subtree Extraction [38.99239532650183]
メッセージパッシングの内部動作によって生じる重要なサブツリーを分析し,抽出することにより,GNNのアンボックス化を提案する。
埋め込み空間のサブツリーを効率的なアルゴリズムで集約することにより、ローカル、クラス、グローバルレベルでメッセージパッシングGNNの直感的なグラフィカルな説明を行うことができる。
論文 参考訳(メタデータ) (2025-03-12T04:36:28Z) - Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks [31.29616732552006]
グラフニューラルネットワーク(GNN)は、グラフマイニングの著名なフレームワークとして登場した。
本稿では,グラフ分類に内在的に解釈可能な新しい手法を提案する。
グローバル対話パターン(GIP)学習は、学習可能なグローバル対話パターンを導入し、決定を明示的に解釈する。
論文 参考訳(メタデータ) (2024-07-02T06:31:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Global Explainability of GNNs via Logic Combination of Learned Concepts [11.724402780594257]
我々はGLGExplainer (Global Logic-based GNN Explainer)を提案する。
GLGExplainerは、正確で人間の解釈可能なグローバルな説明を提供する。
抽出された公式はモデル予測に忠実であり、モデルによって学習された時に誤った規則に関する洞察を提供する点である。
論文 参考訳(メタデータ) (2022-10-13T16:30:03Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。