論文の概要: Discrete Diffusion-Based Model-Level Explanation of Heterogeneous GNNs with Node Features
- arxiv url: http://arxiv.org/abs/2508.08458v1
- Date: Mon, 11 Aug 2025 20:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.228663
- Title: Discrete Diffusion-Based Model-Level Explanation of Heterogeneous GNNs with Node Features
- Title(参考訳): ノード特徴を持つ不均一GNNの離散拡散に基づくモデルレベル記述
- Authors: Pallabee Das, Stefan Heindorf,
- Abstract要約: 実ノード特徴を持つ異種グラフを合成するモデルレベルの説明手法であるDiGNNExplainerを提案する。
我々は、複数のデータセットに対するアプローチを評価し、DiGNNExplainerが現実的で、モデルの意思決定に忠実な説明を生成することを示す。
- 参考スコア(独自算出の注目度): 0.25782420501870296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world datasets, such as citation networks, social networks, and molecular structures, are naturally represented as heterogeneous graphs, where nodes belong to different types and have additional features. For example, in a citation network, nodes representing "Paper" or "Author" may include attributes like keywords or affiliations. A critical machine learning task on these graphs is node classification, which is useful for applications such as fake news detection, corporate risk assessment, and molecular property prediction. Although Heterogeneous Graph Neural Networks (HGNNs) perform well in these contexts, their predictions remain opaque. Existing post-hoc explanation methods lack support for actual node features beyond one-hot encoding of node type and often fail to generate realistic, faithful explanations. To address these gaps, we propose DiGNNExplainer, a model-level explanation approach that synthesizes heterogeneous graphs with realistic node features via discrete denoising diffusion. In particular, we generate realistic discrete features (e.g., bag-of-words features) using diffusion models within a discrete space, whereas previous approaches are limited to continuous spaces. We evaluate our approach on multiple datasets and show that DiGNNExplainer produces explanations that are realistic and faithful to the model's decision-making, outperforming state-of-the-art methods.
- Abstract(参考訳): 引用ネットワーク、ソーシャルネットワーク、分子構造などの現実世界の多くのデータセットは自然に異質なグラフとして表現され、ノードは異なるタイプに属し、付加的な特徴を持つ。
例えば、引用ネットワークでは、"Paper"や"Author"を表すノードは、キーワードやアフィリエイトのような属性を含むことができる。
これらのグラフ上での重要な機械学習タスクはノード分類であり、偽ニュースの検出、企業リスク評価、分子特性予測などの応用に有用である。
異種グラフニューラルネットワーク(HGNN)はこれらの文脈でよく機能するが、予測は不透明である。
既存のポストホックな説明法では、ノード型の1ホットエンコーディング以上の実際のノード機能をサポートしておらず、現実的で忠実な説明を生成することができないことが多い。
これらのギャップに対処するため、離散化拡散法を用いて、異種グラフと実ノードの特徴を合成するモデルレベルの説明手法であるDiGNNExplainerを提案する。
特に、離散空間内の拡散モデルを用いて、現実的な離散的特徴(例:baba-of-words feature)を生成するが、従来のアプローチは連続空間に限定されていた。
我々は、複数のデータセットに対するアプローチを評価し、DiGNNExplainerが、モデルの意思決定に忠実で、最先端の手法に忠実な説明を生成することを示す。
関連論文リスト
- GRAIN: Multi-Granular and Implicit Information Aggregation Graph Neural Network for Heterophilous Graphs [11.458759345322832]
Granular and Implicit Graph Network (GRAIN) は異種グラフに特化して設計された新しいGNNモデルである。
GRAINは、さまざまなレベルでマルチビュー情報を集約し、非隣接ノードからの暗黙のデータを組み込むことで、ノードの埋め込みを強化する。
また,多粒度と暗黙的データを効率よく組み合わせ,ノード表現の質を大幅に向上させる適応グラフ情報集約器を導入する。
論文 参考訳(メタデータ) (2025-04-09T07:36:44Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - SF-GNN: Self Filter for Message Lossless Propagation in Deep Graph Neural Network [38.669815079957566]
グラフニューラルネットワーク(GNN)は,グラフの伝播と集約によるグラフ構造情報の符号化を主目的とする。
等質グラフ、異質グラフ、知識グラフのようなより複雑なグラフなど、複数の種類のグラフの表現学習において優れた性能を発揮した。
深部GNNの性能劣化現象に対して,新しい視点を提案する。
論文 参考訳(メタデータ) (2024-07-03T02:40:39Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Implicit vs Unfolded Graph Neural Networks [29.803948965931212]
暗黙的かつ展開的なGNNは、異なる規則間で強いノード分類精度が得られることを示す。
IGNNはメモリ効率がかなり高いが、UGNNモデルはユニークで統合されたグラフアテンション機構と伝搬規則をサポートしている。
論文 参考訳(メタデータ) (2021-11-12T07:49:16Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。