論文の概要: From Nodes to Narratives: Explaining Graph Neural Networks with LLMs and Graph Context
- arxiv url: http://arxiv.org/abs/2508.07117v1
- Date: Sat, 09 Aug 2025 23:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.71005
- Title: From Nodes to Narratives: Explaining Graph Neural Networks with LLMs and Graph Context
- Title(参考訳): ノードからナラティブへ - LLMとグラフコンテキストによるグラフニューラルネットワークの説明
- Authors: Peyman Baghershahi, Gregoire Fournier, Pranav Nyati, Sourav Medya,
- Abstract要約: LOGICは軽量でポストホックなフレームワークで、大きな言語モデルを使用して、GNN予測に対する忠実で解釈可能な説明を生成する。
実験の結果,LOGICはインサイトフルネスなどの人間中心の指標を大幅に改善しつつ,忠実さと疎さのトレードオフを良好に達成できることが示された。
- 参考スコア(独自算出の注目度): 2.66757978610454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful tools for learning over structured data, including text-attributed graphs, which are common in domains such as citation networks, social platforms, and knowledge graphs. GNNs are not inherently interpretable and thus, many explanation methods have been proposed. However, existing explanation methods often struggle to generate interpretable, fine-grained rationales, especially when node attributes include rich natural language. In this work, we introduce LOGIC, a lightweight, post-hoc framework that uses large language models (LLMs) to generate faithful and interpretable explanations for GNN predictions. LOGIC projects GNN node embeddings into the LLM embedding space and constructs hybrid prompts that interleave soft prompts with textual inputs from the graph structure. This enables the LLM to reason about GNN internal representations and produce natural language explanations along with concise explanation subgraphs. Our experiments across four real-world TAG datasets demonstrate that LOGIC achieves a favorable trade-off between fidelity and sparsity, while significantly improving human-centric metrics such as insightfulness. LOGIC sets a new direction for LLM-based explainability in graph learning by aligning GNN internals with human reasoning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、引用ネットワークやソーシャルプラットフォーム、ナレッジグラフといったドメインで一般的なテキスト分散グラフなど、構造化されたデータを学習するための強力なツールとして登場した。
GNNは本質的に解釈可能ではなく、多くの説明手法が提案されている。
しかし、既存の説明法は解釈可能な微粒な有理数を生成するのに苦労することが多く、特にノード属性がリッチな自然言語を含む場合である。
本稿では,大規模言語モデル(LLM)を用いて,GNN予測に対する忠実で解釈可能な説明を生成する軽量でポストホックなフレームワークであるLOGICを紹介する。
LOGICは、LLM埋め込み空間にGNNノードを埋め込み、グラフ構造からのテキスト入力でソフトプロンプトをインターリーブするハイブリッドプロンプトを構築する。
これにより、LLMはGNNの内部表現を推論し、簡潔な説明文とともに自然言語の説明を生成することができる。
実世界の4つのTAGデータセットを対象とした実験により、LOGICは、インサイトフルネスのような人間中心の指標を大幅に改善しつつ、忠実さと疎さのトレードオフを良好に達成できることを示した。
LOGICは、GNN内部と人間の推論を整合させることにより、グラフ学習におけるLLMに基づく説明可能性の新しい方向性を定めている。
関連論文リスト
- Refining Interactions: Enhancing Anisotropy in Graph Neural Networks with Language Semantics [6.273224130511677]
異方性GNNの概念を自然言語レベルまで拡張するフレームワークであるLanSAGNN(Language Semantic Anisotropic Graph Neural Network)を紹介する。
本稿では,LLMの出力とグラフタスクとの整合性を改善するために,効率的な2層LLMの微調整アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-02T07:32:45Z) - TreeX: Generating Global Graphical GNN Explanations via Critical Subtree Extraction [38.99239532650183]
メッセージパッシングの内部動作によって生じる重要なサブツリーを分析し,抽出することにより,GNNのアンボックス化を提案する。
埋め込み空間のサブツリーを効率的なアルゴリズムで集約することにより、ローカル、クラス、グローバルレベルでメッセージパッシングGNNの直感的なグラフィカルな説明を行うことができる。
論文 参考訳(メタデータ) (2025-03-12T04:36:28Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。