論文の概要: Graph Neural Aggregation-diffusion with Metastability
- arxiv url: http://arxiv.org/abs/2403.20221v1
- Date: Fri, 29 Mar 2024 15:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 15:24:49.792703
- Title: Graph Neural Aggregation-diffusion with Metastability
- Title(参考訳): 転移性を有するグラフニューラルアグリゲーション拡散
- Authors: Kaiyuan Cui, Xinyan Wang, Zicheng Zhang, Weichen Zhao,
- Abstract要約: 微分方程式に基づく連続グラフニューラルモデルはグラフニューラルネット(GNN)のアーキテクチャを拡張した
相互作用ポテンシャルによって誘導される非線形拡散と凝集の微妙なバランスを含むグラフ凝集拡散方程式に着想を得たGRADEを提案する。
我々はGRADEが様々なベンチマークで競合性能を達成し、GNNにおける過度にスムースな問題を軽減することを証明した。
- 参考スコア(独自算出の注目度): 4.040326569845733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous graph neural models based on differential equations have expanded the architecture of graph neural networks (GNNs). Due to the connection between graph diffusion and message passing, diffusion-based models have been widely studied. However, diffusion naturally drives the system towards an equilibrium state, leading to issues like over-smoothing. To this end, we propose GRADE inspired by graph aggregation-diffusion equations, which includes the delicate balance between nonlinear diffusion and aggregation induced by interaction potentials. The node representations obtained through aggregation-diffusion equations exhibit metastability, indicating that features can aggregate into multiple clusters. In addition, the dynamics within these clusters can persist for long time periods, offering the potential to alleviate over-smoothing effects. This nonlinear diffusion in our model generalizes existing diffusion-based models and establishes a connection with classical GNNs. We prove that GRADE achieves competitive performance across various benchmarks and alleviates the over-smoothing issue in GNNs evidenced by the enhanced Dirichlet energy.
- Abstract(参考訳): 微分方程式に基づく連続グラフニューラルネットワークモデルは、グラフニューラルネットワーク(GNN)のアーキテクチャを拡張した。
グラフ拡散とメッセージパッシングの関連性から,拡散モデルが広く研究されている。
しかし、拡散は自然に系を平衡状態へと誘導し、過剰な平滑化のような問題を引き起こす。
この目的のために,相互作用ポテンシャルによって誘導される非線形拡散と凝集の微妙なバランスを含むグラフ集合拡散方程式に着想を得たGRADEを提案する。
集約拡散方程式により得られたノード表現は転移性を示し、特徴が複数のクラスタに集約可能であることを示す。
さらに、これらのクラスター内のダイナミクスは長期間持続し、過度なスムース効果を緩和する可能性がある。
この非線形拡散は、既存の拡散ベースモデルを一般化し、古典的なGNNとの接続を確立する。
我々はGRADEが様々なベンチマークで競合性能を達成し、拡張ディリクレエネルギーによって証明されたGNNの過度な問題を軽減することを証明した。
関連論文リスト
- Neural Message Passing Induced by Energy-Constrained Diffusion [79.9193447649011]
本稿では,MPNNのメカニズムを理解するための原理的解釈可能なフレームワークとして,エネルギー制約付き拡散モデルを提案する。
データ構造が(グラフとして)観察されたり、部分的に観察されたり、完全に観察されなかったりした場合に、新しいモデルが有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2024-09-13T17:54:41Z) - Advancing Graph Generation through Beta Diffusion [49.49740940068255]
Graph Beta Diffusion (GBD)は、グラフデータの多様な性質を扱うために特別に設計された生成モデルである。
本稿では, 臨界グラフトポロジを安定化させることにより, 生成グラフの現実性を高める変調手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:42:57Z) - Continuous Geometry-Aware Graph Diffusion via Hyperbolic Neural PDE [36.48610732998552]
我々は、HPDE積分のための非ユークリッド多様体に対して、電場と流れ、勾配、発散、および拡散率の理論的原理を導入する。
本稿では,ハイパーボリックグラフ拡散方程式 (HGDE) を提案する。
論文 参考訳(メタデータ) (2024-06-03T12:50:58Z) - A charge-preserving method for solving graph neural diffusion networks [0.0]
本稿では,グラフニューラルネットワーク(GNN)モデルに基づく拡散問題の数学的解釈について述べる。
進化の流れに沿って電荷値とそれらの保存を知っていれば、GNNや他のネットワークが学習能力でどのように機能するかを理解することができる。
論文 参考訳(メタデータ) (2023-12-16T01:06:31Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - On the Robustness of Graph Neural Diffusion to Topology Perturbations [30.284359808863588]
グラフニューラルPDEは,他のGNNと比較して本質的にトポロジ的摂動に対して頑健であることを示す。
本稿では,新しい堅牢なGNNを定義可能なグラフニューラルPDEフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-16T07:19:35Z) - Neural Sheaf Diffusion: A Topological Perspective on Heterophily and
Oversmoothing in GNNs [16.88394293874848]
セルラーシーフ理論を用いて、グラフの基盤となる幾何学がGNNの性能と深く関連していることを示す。
一般化されたシーブの階層構造を考慮し、無限時間極限におけるクラスの線形分離を実現するための層拡散過程の能力がいかに拡大するかを考察する。
我々は, せん断が非自明な場合, 離散パラメトリック拡散過程はGNNよりもその挙動を制御できることを証明した。
論文 参考訳(メタデータ) (2022-02-09T17:25:02Z) - Score-based Generative Modeling of Graphs via the System of Stochastic
Differential Equations [57.15855198512551]
本稿では,連続時間フレームワークを用いたグラフのスコアベース生成モデルを提案する。
本手法は, トレーニング分布に近い分子を生成できるが, 化学価数則に違反しないことを示す。
論文 参考訳(メタデータ) (2022-02-05T08:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。