論文の概要: Symplectic Structure-Aware Hamiltonian (Graph) Embeddings
- arxiv url: http://arxiv.org/abs/2309.04885v2
- Date: Wed, 22 Nov 2023 20:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 03:28:31.504275
- Title: Symplectic Structure-Aware Hamiltonian (Graph) Embeddings
- Title(参考訳): シンプレクティック構造-ハミルトニアン(グラフ)埋め込み
- Authors: Jiaxu Liu, Xinping Yi, Tianle Zhang, Xiaowei Huang
- Abstract要約: ハミルトン系にインスパイアされたGNNは、そのような埋め込みの動的性質に対処するために提案されている。
我々は、より柔軟なノード特徴更新のためにハミルトン力学を一般化する新しいアプローチであるSymphlectic Structure-Aware Hamiltonian GNN (SAH-GNN)を提案する。
- 参考スコア(独自算出の注目度): 23.019032582135317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In traditional Graph Neural Networks (GNNs), the assumption of a fixed
embedding manifold often limits their adaptability to diverse graph geometries.
Recently, Hamiltonian system-inspired GNNs have been proposed to address the
dynamic nature of such embeddings by incorporating physical laws into node
feature updates. We present Symplectic Structure-Aware Hamiltonian GNN
(SAH-GNN), a novel approach that generalizes Hamiltonian dynamics for more
flexible node feature updates. Unlike existing Hamiltonian approaches, SAH-GNN
employs Riemannian optimization on the symplectic Stiefel manifold to
adaptively learn the underlying symplectic structure, circumventing the
limitations of existing Hamiltonian GNNs that rely on a pre-defined form of
standard symplectic structure. This innovation allows SAH-GNN to automatically
adapt to various graph datasets without extensive hyperparameter tuning.
Moreover, it conserves energy during training meaning the implicit Hamiltonian
system is physically meaningful. Finally, we empirically validate SAH-GNN's
superiority and adaptability in node classification tasks across multiple types
of graph datasets.
- Abstract(参考訳): 従来のグラフニューラルネットワーク(gnn)では、固定埋め込み多様体の仮定はしばしば、多様なグラフジオメトリへの適応性を制限する。
近年,ノード特徴更新に物理法則を組み込むことにより,そのような埋め込みの動的性質に対処するために,ハミルトン系システムに着想を得たGNNが提案されている。
我々は、より柔軟なノード特徴更新のためにハミルトン力学を一般化する新しいアプローチであるSymphlectic Structure-Aware Hamiltonian GNN (SAH-GNN)を提案する。
既存のハミルトン的アプローチとは異なり、SAH-GNNはシンプレクティック・スティーフェル多様体に対してリーマン的最適化を用い、基礎となるシンプレクティック構造を適応的に学習し、既定の標準シンプレクティック構造の形式に依存する既存のハミルトン的GNNの制限を回避する。
このイノベーションにより、SAH-GNNは広範なハイパーパラメータチューニングなしで、様々なグラフデータセットに自動的に適応できる。
さらに訓練中にエネルギーを節約するので、暗黙のハミルトニアン系は物理的に有意である。
最後に,複数のグラフデータセットにまたがるノード分類タスクにおいて,SAH-GNNの優越性と適応性を実証的に検証する。
関連論文リスト
- Spatiotemporal Learning on Cell-embedded Graphs [6.8090864965073274]
学習可能なセル属性をノードエッジメッセージパッシングプロセスに導入し,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットの実験は、CeGNNが他のベースラインモデルと比較して優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Graph Neural Reaction Diffusion Models [14.164952387868341]
本稿では,ニューラルRDシステムに基づく反応GNNの新たなファミリーを提案する。
本稿では,RDGNNの理論的特性とその実装について論じるとともに,最先端手法の競争性能を向上させるか,提供するかを示す。
論文 参考訳(メタデータ) (2024-06-16T09:46:58Z) - DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - Continuous-Depth Neural Models for Dynamic Graph Prediction [16.89981677708299]
連続深度グラフニューラルネットワーク(GNN)の枠組みを紹介する。
ニューラルグラフ微分方程式(ニューラルグラフ微分方程式)は、GNNに対抗して形式化される。
その結果、遺伝的制御ネットワークにおけるトラフィック予測や予測など、アプリケーション全体にわたって提案されたモデルの有効性が証明された。
論文 参考訳(メタデータ) (2021-06-22T07:30:35Z) - A unified framework for Hamiltonian deep neural networks [3.0934684265555052]
ディープニューラルネットワーク(DNN)のトレーニングは、重み付け最適化中に勾配を消耗させるため、難しい場合がある。
ハミルトン系の時間離散化から派生したDNNのクラスを提案する。
提案されたハミルトンのフレームワークは、限界的に安定なODEにインスパイアされた既存のネットワークを包含する以外に、新しいより表現力のあるアーキテクチャを導出することができる。
論文 参考訳(メタデータ) (2021-04-27T13:20:24Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。