論文の概要: Is Meta-Path Attention an Explanation? Evidence of Alignment and Decoupling in Heterogeneous GNNs
- arxiv url: http://arxiv.org/abs/2602.08500v1
- Date: Mon, 09 Feb 2026 10:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.178638
- Title: Is Meta-Path Attention an Explanation? Evidence of Alignment and Decoupling in Heterogeneous GNNs
- Title(参考訳): メタパス留意は説明か? 異種GNNにおけるアライメントとデカップリングの証拠
- Authors: Maiqi Jiang, Noman Ali, Yiran Ding, Yanfu Zhang,
- Abstract要約: 我々はメタパス注意がメタパスの重要性をいつ反映し、いつ分離できるか検討する。
主要な課題は、ほとんどのポストホックなGNN説明器が均質なグラフのために設計されており、異質な近傍へのナイーブな適応は意味論と乱れを混在させることができることである。
メタパスを意識したポストホックな説明プロトコルであるMetaXplainを紹介し、(i)ビューファクトリ化された説明、(ii)スキーマ検証チャネルの摂動、(iii)融合認識の属性を基礎となる予測子を変更することなく、ネイティブなメタパスビュードメインに既存の説明器を適用する。
- 参考スコア(独自算出の注目度): 7.458890450407306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-path-based heterogeneous graph neural networks aggregate over meta-path-induced views, and their semantic-level attention over meta-path channels is widely used as a narrative for ``which semantics matter.'' We study this assumption empirically by asking: when does meta-path attention reflect meta-path importance, and when can it decouple? A key challenge is that most post-hoc GNN explainers are designed for homogeneous graphs, and naive adaptations to heterogeneous neighborhoods can mix semantics and confound perturbations. To enable a controlled empirical analysis, we introduce MetaXplain, a meta-path-aware post-hoc explanation protocol that applies existing explainers in the native meta-path view domain via (i) view-factorized explanations, (ii) schema-valid channel-wise perturbations, and (iii) fusion-aware attribution, without modifying the underlying predictor. We benchmark representative gradient-, perturbation-, and Shapley-style explainers on ACM, DBLP, and IMDB with HAN and HAN-GCN, comparing against xPath and type-matched random baselines under standard faithfulness metrics. To quantify attention reliability, we propose Meta-Path Attention--Explanation Alignment (MP-AEA), which measures rank correlation between learned attention weights and explanation-derived meta-path contribution scores across random runs. Our results show that meta-path-aware explanations typically outperform random controls, while MP-AEA reveals both high-alignment and statistically significant decoupling regimes depending on the dataset and backbone; moreover, retraining on explanation-induced subgraphs often preserves, and in some noisy regimes improves, predictive performance, suggesting an explanation-as-denoising effect.
- Abstract(参考訳): メタパスに基づくヘテロジニアスグラフニューラルネットワークはメタパスによって誘導されるビューに集約され、メタパスチャネルに対するセマンティックレベルの注意が「どの意味論が重要か」の物語として広く使われている。
メタパスの注意はいつメタパスの重要性を反映し、いつ分離できるのか?
主要な課題は、ほとんどのポストホックなGNN説明器が均質なグラフのために設計されており、異質な近傍へのナイーブな適応は意味論と乱れを混在させることができることである。
制御された経験分析を可能にするために,メタパスを意識したポストホックな説明プロトコルであるMetaXplainを紹介した。
(i)ビューファクターによる説明
(ii)スキーマ価チャネルワイド摂動、及び
三 基礎となる予測装置を変更することなく、融合に留意すること。
我々は, ACM, DBLP, IMDBの勾配, 摂動, シェープスタイルの説明器をHANとHAN-GCNでベンチマークし, 標準忠実度測定におけるxPathと型整合ランダムベースラインと比較した。
注意度を定量的に評価するために,学習した注意重みと無作為走行におけるメタパス寄与スコアとのランク相関を測定するメタパス注意-説明アライメント(MP-AEA)を提案する。
以上の結果から,MP-AEAはデータセットと背骨による高配位と統計的に有意な疎結合状態の両方を呈し,また,説明誘発サブグラフによる再学習はしばしば維持され,ノイズの多い状態では予測性能が向上し,説明のデノベーション効果が示唆された。
関連論文リスト
- ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - A Self-Explainable Heterogeneous GNN for Relational Deep Learning [13.201879122862703]
リレーショナルデータのための自己説明可能なヘテロジニアスグラフニューラルネットワーク(GNN)を提案する。
提案手法は,モデルの推論機構を忠実に捉えた情報的メタパスを効果的に同定する。
これは、合成シナリオと実世界のシナリオの両方において、既存の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-11-30T16:02:14Z) - Partitioning Message Passing for Graph Fraud Detection [57.928658584067556]
グラフフラッド検出(GFD)タスクにグラフニューラルネットワーク(GNN)を適用する場合、ラベルの不均衡とホモフィリー・ヘテロフィリー混合が直面する根本的な問題である。
既存のGNNベースのGFDモデルは、GNNのホモフィリーへの帰納バイアスに対応するためにグラフ構造を拡張するように設計されている。
我々の研究では、GFDにGNNを適用する鍵は除外するのではなく、異なるラベルを持つ隣人を区別することにあると論じている。
論文 参考訳(メタデータ) (2024-11-16T11:30:53Z) - MECCH: Metapath Context Convolution-based Heterogeneous Graph Neural
Networks [45.68142605304948]
複数のノードとエッジを持つ構造データの表現学習のために、不均一グラフニューラルネットワーク(HGNN)が提案された。
メタパスコンテキスト畳み込みに基づく異種グラフニューラルネットワーク(MECCH)を提案する。
論文 参考訳(メタデータ) (2022-11-23T09:13:33Z) - Meta-node: A Concise Approach to Effectively Learn Complex Relationships
in Heterogeneous Graphs [18.65171129524357]
本稿では、メタパスやメタグラフを使わずに複雑な異種グラフから豊富な関係知識を学習できるメッセージパッシングのためのメタノードの概念を提案する。
メタパスやメタグラフとは異なり、メタノードは専門知識を必要とする事前処理ステップを必要としない。
ノードクラスタリングおよび分類タスクの実験において、提案手法は、メタパスに依存する最先端のメッセージパッシングよりも優れている。
論文 参考訳(メタデータ) (2022-10-26T05:04:29Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Metapath- and Entity-aware Graph Neural Network for Recommendation [10.583077434945187]
グラフニューラルネットワーク(GNN)では、メッセージが反復的に隣人のノードの情報を集約する。
このようなシーケンシャルなノード接続、例えばメタパスは、下流のタスクに対する重要な洞察を捉えます。
我々は,共同サブグラフ(CSG)とメタパスを用いてメタパス認識サブグラフを作成する。
PEAGNNは多層GNNを訓練し、そのようなサブグラフ上でメタパス認識情報アグリゲーションを行う。
論文 参考訳(メタデータ) (2020-10-22T15:14:30Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。