論文の概要: Globally Interpretable Graph Learning via Distribution Matching
- arxiv url: http://arxiv.org/abs/2306.10447v2
- Date: Tue, 20 Feb 2024 20:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 21:08:10.408135
- Title: Globally Interpretable Graph Learning via Distribution Matching
- Title(参考訳): 分布マッチングによるグローバルなグラフ学習
- Authors: Yi Nian, Yurui Chang, Wei Jin, Lu Lin
- Abstract要約: 我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
- 参考スコア(独自算出の注目度): 12.885580925389352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have emerged as a powerful model to capture
critical graph patterns. Instead of treating them as black boxes in an
end-to-end fashion, attempts are arising to explain the model behavior.
Existing works mainly focus on local interpretation to reveal the
discriminative pattern for each individual instance, which however cannot
directly reflect the high-level model behavior across instances. To gain global
insights, we aim to answer an important question that is not yet well studied:
how to provide a global interpretation for the graph learning procedure? We
formulate this problem as globally interpretable graph learning, which targets
on distilling high-level and human-intelligible patterns that dominate the
learning procedure, such that training on this pattern can recover a similar
model. As a start, we propose a novel model fidelity metric, tailored for
evaluating the fidelity of the resulting model trained on interpretations. Our
preliminary analysis shows that interpretative patterns generated by existing
global methods fail to recover the model training procedure. Thus, we further
propose our solution, Graph Distribution Matching (GDM), which synthesizes
interpretive graphs by matching the distribution of the original and
interpretive graphs in the GNN's feature space as its training proceeds, thus
capturing the most informative patterns the model learns during training.
Extensive experiments on graph classification datasets demonstrate multiple
advantages of the proposed method, including high model fidelity, predictive
accuracy and time efficiency, as well as the ability to reveal class-relevant
structure.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、重要なグラフパターンをキャプチャする強力なモデルとして登場した。
エンドツーエンドでブラックボックスとして扱う代わりに、モデルの振る舞いを説明する試みが生まれています。
既存の作業は主に、各インスタンスの識別パターンを明らかにするためのローカル解釈に重点を置いているが、インスタンス間の高レベルのモデル動作を直接反映することはできない。
グローバルな洞察を得るためには、まだ十分に研究されていない重要な質問に答えることを目指しています。
我々は,この問題をグローバルな解釈可能なグラフ学習として定式化し,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした。
まず,解釈に基づいて学習したモデルの忠実性を評価するために調整した,新しいモデル忠実度指標を提案する。
予備分析の結果,既存のグローバル手法が生成した解釈パターンは,モデルのトレーニング手順を回復できないことがわかった。
そこで本研究では,gnnの特徴空間におけるオリジナルグラフと解釈グラフの分布を学習の過程で一致させて解釈グラフを合成するグラフ分布マッチング(gdm)を提案し,学習中にモデルが学習する最も有益なパターンを捉える。
グラフ分類データセットに関する大規模な実験は,高モデル忠実度,予測精度,時間効率,クラス関連構造を明らかにする能力など,提案手法の多くの利点を実証している。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - DIVE: Subgraph Disagreement for Graph Out-of-Distribution Generalization [44.291382840373]
本稿では,グラフ機械学習におけるアウト・オブ・ディストリビューションの一般化の課題に対処する。
従来のグラフ学習アルゴリズムは、この仮定が失敗する現実世界のシナリオで失敗する。
この準最適性能に寄与する主な要因は、ニューラルネットワークの本質的な単純さバイアスである。
論文 参考訳(メタデータ) (2024-08-08T12:08:55Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Sub-Graph Learning for Spatiotemporal Forecasting via Knowledge
Distillation [22.434970343698676]
サブグラフを効果的に学習するためのフレームワークKD-SGLを提案する。
グラフの全体構造と各サブグラフの複数の局所モデルを学ぶために,グローバルモデルを定義する。
論文 参考訳(メタデータ) (2022-11-17T18:02:55Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。