論文の概要: Explainable Graph Representation Learning via Graph Pattern Analysis
- arxiv url: http://arxiv.org/abs/2512.04530v1
- Date: Thu, 04 Dec 2025 07:25:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.044986
- Title: Explainable Graph Representation Learning via Graph Pattern Analysis
- Title(参考訳): グラフパターン解析による説明可能なグラフ表現学習
- Authors: Xudong Wang, Ziheng Sun, Chris Ding, Jicong Fan,
- Abstract要約: 本稿では,グラフパターン解析によるグラフ表現の学習と説明のためのフレームワークを提案する。
パターン解析を用いて実世界のデータに対するグラフ表現の学習と説明方法を示す。
- 参考スコア(独自算出の注目度): 33.539251667469294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) is an important area in the AI community, and interpretability is crucial for building robust and trustworthy AI models. While previous work has explored model-level and instance-level explainable graph learning, there has been limited investigation into explainable graph representation learning. In this paper, we focus on representation-level explainable graph learning and ask a fundamental question: What specific information about a graph is captured in graph representations? Our approach is inspired by graph kernels, which evaluate graph similarities by counting substructures within specific graph patterns. Although the pattern counting vector can serve as an explainable representation, it has limitations such as ignoring node features and being high-dimensional. To address these limitations, we introduce a framework (PXGL-GNN) for learning and explaining graph representations through graph pattern analysis. We start by sampling graph substructures of various patterns. Then, we learn the representations of these patterns and combine them using a weighted sum, where the weights indicate the importance of each graph pattern's contribution. We also provide theoretical analyses of our methods, including robustness and generalization. In our experiments, we show how to learn and explain graph representations for real-world data using pattern analysis. Additionally, we compare our method against multiple baselines in both supervised and unsupervised learning tasks to demonstrate its effectiveness.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、AIコミュニティにおいて重要な領域であり、堅牢で信頼性の高いAIモデルを構築する上では、解釈可能性が不可欠である。
これまでの研究では、モデルレベルとインスタンスレベルの説明可能なグラフ学習について検討してきたが、説明可能なグラフ表現学習については限定的な研究がなされている。
本稿では,表現レベルの説明可能なグラフ学習に注目し,基本的疑問を問う。
我々のアプローチはグラフカーネルにインスパイアされ、特定のグラフパターン内のサブ構造を数えることによってグラフの類似性を評価する。
パターンカウントベクトルは説明可能な表現として機能するが、ノードの特徴を無視し、高次元となるような制限がある。
これらの制約に対処するために,グラフパターン解析によるグラフ表現の学習と説明のためのフレームワーク(PXGL-GNN)を導入する。
まず、様々なパターンのグラフサブ構造をサンプリングする。
次に、これらのパターンの表現を学習し、重み付け和を用いて組み合わせ、重み付けは各グラフパターンの寄与の重要性を示す。
また、ロバスト性や一般化など、我々の手法に関する理論的分析も提供する。
実験では,パターン解析を用いて実世界のデータに対するグラフ表現を学習し,説明する方法を示す。
さらに,教師付き学習タスクと教師なし学習タスクの両方において,本手法を複数のベースラインと比較し,その効果を実証する。
関連論文リスト
- GraphXAIN: Narratives to Explain Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの機械学習において強力な技術である。
既存のGNN説明法では、非データ科学者が理解し難い技術出力が得られる。
GNN予測を説明する自然言語の物語を生成するGraphXAINを提案する。
論文 参考訳(メタデータ) (2024-11-04T19:21:06Z) - Knowledge Probing for Graph Representation Learning [12.960185655357495]
グラフ表現学習において,グラフ学習手法のファミリーが異なるレベルの知識を符号化したかどうかを調査・解釈するための新しいグラフ探索フレームワーク(GraphProbe)を提案する。
グラフの固有の性質に基づいて,異なる視点からグラフ表現学習過程を体系的に研究する3つのプローブを設計する。
本研究では、ランダムウォークに基づく9つの代表的なグラフ学習手法、基本グラフニューラルネットワーク、自己教師付きグラフ手法を用いて、詳細な評価ベンチマークを構築し、ノード分類、リンク予測、グラフ分類のための6つのベンチマークデータセットでそれらを探索する。
論文 参考訳(メタデータ) (2024-08-07T16:27:45Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Learning node embeddings via summary graphs: a brief theoretical
analysis [55.25628709267215]
グラフ表現学習は多くのグラフマイニングアプリケーションにおいて重要な役割を果たすが、大規模なグラフの埋め込みを学習することは依然として問題である。
最近の研究は、グラフの要約(つまり、より小さな要約グラフへの埋め込みを学習し、元のグラフのノード埋め込みを復元することでスケーラビリティを向上させる。
本稿では,導入したカーネル行列に基づく3つの特定の埋め込み学習手法について,詳細な理論的解析を行う。
論文 参考訳(メタデータ) (2022-07-04T04:09:50Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Graph2Graph Learning with Conditional Autoregressive Models [8.203106789678397]
グラフ・ツー・グラフ学習のための条件付きオートレアモデルを提案する。
本稿では,グラフアルゴリズムの挑戦的部分グラフ予測実験を通じて,その表現能力について述べる。
論文 参考訳(メタデータ) (2021-06-06T20:28:07Z) - Non-Parametric Graph Learning for Bayesian Graph Neural Networks [35.88239188555398]
グラフ隣接行列の後方分布を構築するための新しい非パラメトリックグラフモデルを提案する。
このモデルの利点を,ノード分類,リンク予測,レコメンデーションという3つの異なる問題設定で示す。
論文 参考訳(メタデータ) (2020-06-23T21:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。