論文の概要: Injecting Hamiltonian Architectural Bias into Deep Graph Networks for Long-Range Propagation
- arxiv url: http://arxiv.org/abs/2405.17163v1
- Date: Mon, 27 May 2024 13:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 15:13:09.293115
- Title: Injecting Hamiltonian Architectural Bias into Deep Graph Networks for Long-Range Propagation
- Title(参考訳): ロングレンジ伝搬のためのディープグラフネットワークにハミルトン建築バイアスを注入する
- Authors: Simon Heilig, Alessio Gravina, Alessandro Trenta, Claudio Gallicchio, Davide Bacciu,
- Abstract要約: グラフ内の情報拡散のダイナミクスは、グラフ表現学習に大きな影響を及ぼす重要なオープン問題である。
そこで我々は(ポート-)Hamiltonian Deep Graph Networksを紹介した。
我々は,非散逸的長距離伝播と非保守的行動の両方を,単一の理論的・実践的な枠組みで調整する。
- 参考スコア(独自算出の注目度): 55.227976642410766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dynamics of information diffusion within graphs is a critical open issue that heavily influences graph representation learning, especially when considering long-range propagation. This calls for principled approaches that control and regulate the degree of propagation and dissipation of information throughout the neural flow. Motivated by this, we introduce (port-)Hamiltonian Deep Graph Networks, a novel framework that models neural information flow in graphs by building on the laws of conservation of Hamiltonian dynamical systems. We reconcile under a single theoretical and practical framework both non-dissipative long-range propagation and non-conservative behaviors, introducing tools from mechanical systems to gauge the equilibrium between the two components. Our approach can be applied to general message-passing architectures, and it provides theoretical guarantees on information conservation in time. Empirical results prove the effectiveness of our port-Hamiltonian scheme in pushing simple graph convolutional architectures to state-of-the-art performance in long-range benchmarks.
- Abstract(参考訳): グラフ内の情報拡散のダイナミクスは、特に長距離伝播を考える場合、グラフ表現学習に大きな影響を与える重要なオープン問題である。
これは、神経の流れを通して情報の伝播と伝達の程度を制御し、規制する原則的なアプローチを要求する。
ハミルトン力学系の保存則に基づいてグラフ内の神経情報の流れをモデル化する新しいフレームワークである(ポート-)ハミルトニアンディープグラフネットワークを導入する。
我々は,非散逸的長距離伝播と非保守的挙動の両立した理論的,実践的な枠組みの下で和解し,両コンポーネント間の平衡を測る機械システムからツールを導入する。
提案手法は一般的なメッセージパッシングアーキテクチャに適用可能であり,情報保存に関する理論的保証を提供する。
試行錯誤実験により, 単純なグラフ畳み込みアーキテクチャを長距離ベンチマークの最先端性能にプッシュする上で, ポート・ハミルトニアン方式の有効性が証明された。
関連論文リスト
- Information propagation dynamics in Deep Graph Networks [1.8130068086063336]
Deep Graph Networks(DGN)は、構造化情報の処理と学習が可能なディープラーニングモデルのファミリとして登場した。
この論文は、静的グラフと動的グラフのためのDGNの内部の情報伝達のダイナミクスを考察し、動的システムとしての設計に焦点をあてる。
論文 参考訳(メタデータ) (2024-10-14T12:55:51Z) - Learning Coarse-Grained Dynamics on Graph [4.692217705215042]
グラフ上の粗粒度動的システムを特定するために,グラフニューラルネットワーク(GNN)非マルコフモデリングフレームワークを検討する。
本研究の主目的は, グラフトポロジを符号化する粗粒度相互作用係数に, モリ・ズワンチのメモリ項の先頭項がどのように依存するかを検査することによって, GNNアーキテクチャを体系的に決定することである。
論文 参考訳(メタデータ) (2024-05-15T13:25:34Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Graph Pooling with Maximum-Weight $k$-Independent Sets [12.251091325930837]
最大ウェイト$k$非依存集合のグラフ理論的概念に基づくグラフ粗化機構を導入する。
我々は、経路長の歪み境界の理論的保証と、粗化グラフにおける重要な位相特性を保存できることを証明した。
論文 参考訳(メタデータ) (2022-08-06T14:12:47Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。