論文の概要: A Differential Geometric View and Explainability of GNN on Evolving
Graphs
- arxiv url: http://arxiv.org/abs/2403.06425v1
- Date: Mon, 11 Mar 2024 04:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:24:45.626917
- Title: A Differential Geometric View and Explainability of GNN on Evolving
Graphs
- Title(参考訳): 進化グラフ上のGNNの微分幾何学的視点と説明可能性
- Authors: Yazheng Liu, Xi Zhang, Sihong Xie
- Abstract要約: グラフはソーシャルネットワークや生化学においてユビキタスであり、グラフニューラルネットワーク(GNN)は予測のための最先端のモデルである。
本稿では,公理的属性を用いたGNN予測分布のスムーズなパラメータ化を提案する。
グラフの進化によるノード分類,リンク予測,グラフ分類に関する実験により,提案手法の空間性,忠実性,直感性が向上した。
- 参考スコア(独自算出の注目度): 15.228139478280747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphs are ubiquitous in social networks and biochemistry, where Graph Neural
Networks (GNN) are the state-of-the-art models for prediction. Graphs can be
evolving and it is vital to formally model and understand how a trained GNN
responds to graph evolution. We propose a smooth parameterization of the GNN
predicted distributions using axiomatic attribution, where the distributions
are on a low-dimensional manifold within a high-dimensional embedding space. We
exploit the differential geometric viewpoint to model distributional evolution
as smooth curves on the manifold. We reparameterize families of curves on the
manifold and design a convex optimization problem to find a unique curve that
concisely approximates the distributional evolution for human interpretation.
Extensive experiments on node classification, link prediction, and graph
classification tasks with evolving graphs demonstrate the better sparsity,
faithfulness, and intuitiveness of the proposed method over the
state-of-the-art methods.
- Abstract(参考訳): グラフはソーシャルネットワークや生化学においてユビキタスであり、グラフニューラルネットワーク(GNN)は予測のための最先端のモデルである。
グラフは進化しており、トレーニングされたGNNがグラフの進化にどのように反応するかを正式にモデル化し理解することが不可欠である。
本稿では,高次元埋め込み空間内の低次元多様体上に分布を持つ公理属性を用いたGNN予測分布のスムーズなパラメータ化を提案する。
微分幾何学的視点を用いて多様体上の滑らかな曲線として分布進化をモデル化する。
多様体上の曲線の族を再パラメータ化し、凸最適化問題を設計し、人間の解釈の分布進化を簡潔に近似するユニークな曲線を求める。
グラフの進化に伴うノード分類,リンク予測,グラフ分類タスクに関する広範囲な実験により,提案手法が最先端手法よりも親密性,忠実性,直感性が向上したことを示す。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - How Curvature Enhance the Adaptation Power of Framelet GCNs [27.831929635701886]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力に実証されている。
本稿では,離散グラフリッチ曲率によるGNNの拡張手法を提案する。
曲率に基づくGNNモデルは、ホモフィリーグラフとヘテロフィリーグラフの両方において、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T06:05:33Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Latent Graph Inference using Product Manifolds [0.0]
遅延グラフ学習のための離散微分可能グラフモジュール(dDGM)を一般化する。
我々の新しいアプローチは、幅広いデータセットでテストされ、元のdDGMモデルよりも優れています。
論文 参考訳(メタデータ) (2022-11-26T22:13:06Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - GRAND: Graph Neural Diffusion [15.00135729657076]
本稿では,連続拡散過程としてグラフの深層学習にアプローチするグラフニューラル拡散(GRAND)を提案する。
我々のモデルでは、層構造と位相は時間的および空間的作用素の離散化選択に対応する。
我々のモデルの成功の鍵は、データの摂動に対する安定性であり、これは暗黙的および明示的な離散化スキームの両方に対処する。
論文 参考訳(メタデータ) (2021-06-21T09:10:57Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。