論文の概要: GREAD: Graph Neural Reaction-Diffusion Networks
- arxiv url: http://arxiv.org/abs/2211.14208v3
- Date: Wed, 14 Jun 2023 22:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 03:05:07.668141
- Title: GREAD: Graph Neural Reaction-Diffusion Networks
- Title(参考訳): GREAD: グラフニューラル反応拡散ネットワーク
- Authors: Jeongwhan Choi, Seoyoung Hong, Noseong Park, Sung-Bae Cho
- Abstract要約: グラフニューラルネットワーク(GNN)は、ディープラーニングに関する最も人気のある研究トピックの1つである。
拡散方程式はGNNのコア処理層の設計に広く用いられている。
反応拡散方程式に基づくGNN法を提案する。
- 参考スコア(独自算出の注目度): 22.90737022395036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are one of the most popular research topics for
deep learning. GNN methods typically have been designed on top of the graph
signal processing theory. In particular, diffusion equations have been widely
used for designing the core processing layer of GNNs, and therefore they are
inevitably vulnerable to the notorious oversmoothing problem. Recently, a
couple of papers paid attention to reaction equations in conjunctions with
diffusion equations. However, they all consider limited forms of reaction
equations. To this end, we present a reaction-diffusion equation-based GNN
method that considers all popular types of reaction equations in addition to
one special reaction equation designed by us. To our knowledge, our paper is
one of the most comprehensive studies on reaction-diffusion equation-based
GNNs. In our experiments with 9 datasets and 28 baselines, our method, called
GREAD, outperforms them in a majority of cases. Further synthetic data
experiments show that it mitigates the oversmoothing problem and works well for
various homophily rates.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ディープラーニングに関する最も人気のある研究トピックの1つである。
GNN法は通常、グラフ信号処理理論に基づいて設計されている。
特に、拡散方程式はGNNのコア処理層の設計に広く用いられており、悪名高い過密問題に対して必然的に脆弱である。
最近、いくつかの論文が拡散方程式とともに反応方程式に注意を払っている。
しかし、それらはすべて限定的な反応方程式である。
そこで本研究では,我々が設計した1つの特殊反応方程式に加えて,一般的な反応方程式をすべて考慮した反応拡散式に基づくgnn法を提案する。
本論文は,反応拡散式に基づくgnnに関する最も包括的な研究の1つである。
9つのデータセットと28のベースラインを用いた実験では、GREADと呼ばれる手法がほとんどのケースで優れています。
さらなる合成データ実験により、オーバースムーシング問題を緩和し、様々なホモフィリー率でうまく機能することが示された。
関連論文リスト
- Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Graph Neural Reaction Diffusion Models [14.164952387868341]
本稿では,ニューラルRDシステムに基づく反応GNNの新たなファミリーを提案する。
本稿では,RDGNNの理論的特性とその実装について論じるとともに,最先端手法の競争性能を向上させるか,提供するかを示す。
論文 参考訳(メタデータ) (2024-06-16T09:46:58Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - A Generalized Neural Diffusion Framework on Graphs [36.867530311300925]
我々は, 拡散過程とより多くのGNNの関係を正式に確立する, 忠実度項を持つ一般拡散方程式フレームワークを提案する。
高次拡散方程式では、HiD-Netは攻撃に対してより堅牢であり、ホモフィリーグラフとヘテロフィリーグラフの両方で作用する。
論文 参考訳(メタデータ) (2023-12-14T02:41:12Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Novel DNNs for Stiff ODEs with Applications to Chemically Reacting Flows [0.0]
化学反応する流れは、超音速流、燃焼、爆発、製造プロセス、環境評価などの工学において一般的である。
燃焼のために、反応の数は(100を超える)有意であり、非常に大きなCPU要件のために、大量のフローと燃焼問題は、現在、最大のスーパーコンピュータの能力を超えています。
このことに動機づけられて、DNN(Deep Neural Networks)が近似剛性ODEに導入される。
論文 参考訳(メタデータ) (2021-04-01T22:54:22Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。