論文の概要: In-Process Global Interpretation for Graph Learning via Distribution
Matching
- arxiv url: http://arxiv.org/abs/2306.10447v1
- Date: Sun, 18 Jun 2023 00:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:43:23.646307
- Title: In-Process Global Interpretation for Graph Learning via Distribution
Matching
- Title(参考訳): 分散マッチングによるグラフ学習の現場グローバル解釈
- Authors: Yi Nian, Wei Jin, Lu Lin
- Abstract要約: グラフニューラルネットワーク(GNN)は、重要なグラフパターンをキャプチャする能力に優れていたため、強力なグラフ学習モデルとして登場した。
事前学習したGNNモデルが個々の予測に使用するデータパターンを抽出することにより、過去の取り組みは、ポストホックな局所解釈に重点を置いている。
本稿では,GNNの訓練過程を支配する高レベルかつ人間知能なパターンを蒸留することを目的とした,プロセス内グローバルな解釈を提案する。
- 参考スコア(独自算出の注目度): 10.549307055348596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphs neural networks (GNNs) have emerged as a powerful graph learning model
due to their superior capacity in capturing critical graph patterns. To gain
insights about the model mechanism for interpretable graph learning, previous
efforts focus on post-hoc local interpretation by extracting the data pattern
that a pre-trained GNN model uses to make an individual prediction. However,
recent works show that post-hoc methods are highly sensitive to model
initialization and local interpretation can only explain the model prediction
specific to a particular instance. In this work, we address these limitations
by answering an important question that is not yet studied: how to provide
global interpretation of the model training procedure? We formulate this
problem as in-process global interpretation, which targets on distilling
high-level and human-intelligible patterns that dominate the training procedure
of GNNs. We further propose Graph Distribution Matching (GDM) to synthesize
interpretive graphs by matching the distribution of the original and
interpretive graphs in the feature space of the GNN as its training proceeds.
These few interpretive graphs demonstrate the most informative patterns the
model captures during training. Extensive experiments on graph classification
datasets demonstrate multiple advantages of the proposed method, including high
explanation accuracy, time efficiency and the ability to reveal class-relevant
structure.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、重要なグラフパターンをキャプチャする能力が優れているため、強力なグラフ学習モデルとして登場した。
解釈可能なグラフ学習のためのモデルメカニズムに関する洞察を得るためには、事前学習されたgnnモデルが個人予測に使用するデータパターンを抽出し、hoc後の局所解釈に焦点を当てている。
しかし、近年の研究では、ポストホック法はモデル初期化に非常に敏感であり、局所的な解釈は特定のインスタンス特有のモデル予測のみを説明できることを示している。
本研究では、モデルトレーニング手順のグローバルな解釈を提供する方法について、まだ研究されていない重要な質問に答えることで、これらの制限に対処します。
我々は,この問題を,GNNのトレーニング手順を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,プロセス内グローバル解釈として定式化する。
さらに,GNNの特徴空間における原グラフと解釈グラフの分布を学習の過程でマッチングすることにより,解釈グラフを合成するグラフ分散マッチング(GDM)を提案する。
これらのわずかな解釈グラフは、トレーニング中にモデルがキャプチャする最も有益なパターンを示しています。
グラフ分類データセットに関する広範囲な実験により,高い説明精度,時間効率,クラス関連構造を明らかにする能力など,提案手法の複数の利点が示された。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - DIVE: Subgraph Disagreement for Graph Out-of-Distribution Generalization [44.291382840373]
本稿では,グラフ機械学習におけるアウト・オブ・ディストリビューションの一般化の課題に対処する。
従来のグラフ学習アルゴリズムは、この仮定が失敗する現実世界のシナリオで失敗する。
この準最適性能に寄与する主な要因は、ニューラルネットワークの本質的な単純さバイアスである。
論文 参考訳(メタデータ) (2024-08-08T12:08:55Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Sub-Graph Learning for Spatiotemporal Forecasting via Knowledge
Distillation [22.434970343698676]
サブグラフを効果的に学習するためのフレームワークKD-SGLを提案する。
グラフの全体構造と各サブグラフの複数の局所モデルを学ぶために,グローバルモデルを定義する。
論文 参考訳(メタデータ) (2022-11-17T18:02:55Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。