論文の概要: X-Node: Self-Explanation is All We Need
- arxiv url: http://arxiv.org/abs/2508.10461v1
- Date: Thu, 14 Aug 2025 09:00:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.2429
- Title: X-Node: Self-Explanation is All We Need
- Title(参考訳): X-Node: 自己説明は必要なすべて
- Authors: Prajit Sengupta, Islem Rekik,
- Abstract要約: グラフニューラルネットワーク(GNN)はコンピュータビジョンと医用画像分類タスクにおいて最先端の結果を得た。
GNNの既存の説明可能性技術は、一般的にポストホックでグローバルである。
本稿では,各ノードが独自の説明を生成する自己説明型GNNフレームワークであるX-Nodeを紹介する。
- 参考スコア(独自算出の注目度): 5.563171090433323
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、データインスタンス間の構造的依存関係をキャプチャすることで、コンピュータビジョンと医療画像分類タスクにおいて最先端の結果を得た。
しかし、その意思決定はいまだに不透明であり、解釈可能性が不可欠である高い臨床応用における信頼性を制限している。
GNNの既存の説明可能性技術は、一般的にポストホックでグローバルであり、個々のノード決定やローカル推論に関する限られた洞察を提供する。
本稿では,予測プロセスの一部として各ノードが独自の説明を生成する自己説明型GNNフレームワークであるX-Nodeを紹介する。
各ノードに対して,次数,集中度,クラスタリング,特徴量,ラベルアグリーメントなどの解釈可能なキューを符号化した構造化コンテキストベクトルを構築する。
軽量なReasonerモジュールはこのコンテキストをコンパクトな説明ベクトルにマッピングし、(1) ノードの潜伏埋め込みをデコーダで再構築して忠実さを強制し、(2) 事前訓練された LLM (eg , Grok , Gemini) を使って自然言語の説明を生成する、(3) 説明をメッセージパスパイプラインにフィードバックする "text-injection" メカニズムを通じてGNN自体を誘導する、という3つの目的を果たす。
我々は、MedMNISTとMorphoMNISTの2つのグラフデータセット上でX-Nodeを評価し、GCN、GAT、GINのバックボーンと統合した。
以上の結果から,X-Nodeはノード毎の説明を忠実に生成しながら,競合する分類精度を維持していることがわかった。
リポジトリ: https://github.com/basiralab/X-Node.js
関連論文リスト
- From Nodes to Narratives: Explaining Graph Neural Networks with LLMs and Graph Context [2.66757978610454]
LOGICは軽量でポストホックなフレームワークで、大きな言語モデルを使用して、GNN予測に対する忠実で解釈可能な説明を生成する。
実験の結果,LOGICはインサイトフルネスなどの人間中心の指標を大幅に改善しつつ,忠実さと疎さのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2025-08-09T23:22:38Z) - SF-GNN: Self Filter for Message Lossless Propagation in Deep Graph Neural Network [38.669815079957566]
グラフニューラルネットワーク(GNN)は,グラフの伝播と集約によるグラフ構造情報の符号化を主目的とする。
等質グラフ、異質グラフ、知識グラフのようなより複雑なグラフなど、複数の種類のグラフの表現学習において優れた性能を発揮した。
深部GNNの性能劣化現象に対して,新しい視点を提案する。
論文 参考訳(メタデータ) (2024-07-03T02:40:39Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。