論文の概要: Dirac--Bianconi Graph Neural Networks -- Enabling Non-Diffusive Long-Range Graph Predictions
- arxiv url: http://arxiv.org/abs/2407.12419v1
- Date: Wed, 17 Jul 2024 08:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 17:47:48.141603
- Title: Dirac--Bianconi Graph Neural Networks -- Enabling Non-Diffusive Long-Range Graph Predictions
- Title(参考訳): Dirac-Bianconi Graph Neural Networks -- 非拡散長線グラフ予測の実現
- Authors: Christian Nauck, Rohan Gorantla, Michael Lindner, Konstantin Schürholt, Antonia S. J. S. Mey, Frank Hellmann,
- Abstract要約: 我々は最近ビアンコーニが提唱したトポロジカルディラック方程式に基づいて,ディラック-ビアンコーニGNN(DBGNN)を紹介する。
グラフラプラシアンに基づいて、DBGNNが従来のメッセージパッシングニューラルネットワーク(MPNN)と根本的に異なる方法でグラフの幾何学を探索することを実証する。
- 参考スコア(独自算出の注目度): 2.3639951900278744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The geometry of a graph is encoded in dynamical processes on the graph. Many graph neural network (GNN) architectures are inspired by such dynamical systems, typically based on the graph Laplacian. Here, we introduce Dirac--Bianconi GNNs (DBGNNs), which are based on the topological Dirac equation recently proposed by Bianconi. Based on the graph Laplacian, we demonstrate that DBGNNs explore the geometry of the graph in a fundamentally different way than conventional message passing neural networks (MPNNs). While regular MPNNs propagate features diffusively, analogous to the heat equation, DBGNNs allow for coherent long-range propagation. Experimental results showcase the superior performance of DBGNNs over existing conventional MPNNs for long-range predictions of power grid stability and peptide properties. This study highlights the effectiveness of DBGNNs in capturing intricate graph dynamics, providing notable advancements in GNN architectures.
- Abstract(参考訳): グラフの幾何学はグラフ上の動的過程に符号化される。
多くのグラフニューラルネットワーク(GNN)アーキテクチャは、典型的にはグラフラプラシアンに基づくこのような動的システムにインスパイアされている。
本稿では,最近ビアンコーニが提唱したトポロジカルディラック方程式に基づいて,ディラック-ビアンコーニGNN(DBGNN)を紹介する。
グラフラプラシアンに基づいて、DBGNNが従来のメッセージパッシングニューラルネットワーク(MPNN)と根本的に異なる方法でグラフの幾何学を探索することを示した。
通常のMPNNは熱方程式と同様に拡散的に伝播するが、DBGNNはコヒーレントな長距離伝播を可能にする。
実験の結果,従来のMPNNよりもDBGNNの方が優れた性能を示し,電力グリッド安定性とペプチド特性の長期予測を行った。
本研究は,DBGNNが複雑なグラフダイナミクスを捕捉する上での有効性を強調し,GNNアーキテクチャの顕著な進歩を提供する。
関連論文リスト
- Continuous Spiking Graph Neural Networks [43.28609498855841]
連続グラフニューラルネットワーク(CGNN)は、既存の離散グラフニューラルネットワーク(GNN)を一般化する能力によって注目されている。
本稿では,2階ODEを用いたCOS-GNNの高次構造について紹介する。
我々は、COS-GNNが爆発や消滅の問題を効果的に軽減し、ノード間の長距離依存関係を捕捉できるという理論的証明を提供する。
論文 参考訳(メタデータ) (2024-04-02T12:36:40Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Explaining Dynamic Graph Neural Networks via Relevance Back-propagation [8.035521056416242]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
論文 参考訳(メタデータ) (2022-07-22T16:20:34Z) - Graph Neural Networks with Parallel Neighborhood Aggregations for Graph
Classification [14.112444998191698]
グラフニューラルネットワーク(GNN)モデルを用いたグラフ分類に着目し、並列に配置された近傍グラフ演算子のバンクを用いてノード特徴をプリ計算する。
これらのGNNモデルには、事前計算によるトレーニングと推論時間の削減という自然な利点がある。
本研究は,様々な実世界のデータセット上で,開発モデルが最先端の性能を達成することを数値実験により実証する。
論文 参考訳(メタデータ) (2021-11-22T19:19:40Z) - Ego-GNNs: Exploiting Ego Structures in Graph Neural Networks [12.97622530614215]
Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識できることを示す。
特に、Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識することができることを示す。
論文 参考訳(メタデータ) (2021-07-22T23:42:23Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。