論文の概要: A Clifford Algebraic Approach to E(n)-Equivariant High-order Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2410.04692v1
- Date: Mon, 7 Oct 2024 02:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 02:27:38.625695
- Title: A Clifford Algebraic Approach to E(n)-Equivariant High-order Graph Neural Networks
- Title(参考訳): E(n)-同変高次グラフニューラルネットワークに対するクリフォード代数的アプローチ
- Authors: Hoang-Viet Tran, Thieu N. Vo, Tho Tran Huu, Tan Minh Nguyen,
- Abstract要約: 我々はClifford Group Equivariant Graph Neural Networks (CG-EGNN)を紹介する。
CG-EGNNはクリフォード代数の文脈で高階局所構造を統合することで高階メッセージパッシングを強化する。
CG-EGNNは,n-body,CMUモーションキャプチャ,MD17など,様々なベンチマークにおいて,従来の手法よりも優れていたことを実証的に検証した。
- 参考スコア(独自算出の注目度): 2.2543808018990443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing neural network architectures that can handle data symmetry is crucial. This is especially important for geometric graphs whose properties are equivariance under Euclidean transformations. Current equivariant graph neural networks (EGNNs), particularly those using message passing, have a limitation in expressive power. Recent high-order graph neural networks can overcome this limitation, yet they lack equivariance properties, representing a notable drawback in certain applications in chemistry and physical sciences. In this paper, we introduce the Clifford Group Equivariant Graph Neural Networks (CG-EGNNs), a novel EGNN that enhances high-order message passing by integrating high-order local structures in the context of Clifford algebras. As a key benefit of using Clifford algebras, CG-EGNN can learn functions that capture equivariance from positional features. By adopting the high-order message passing mechanism, CG-EGNN gains richer information from neighbors, thus improving model performance. Furthermore, we establish the universality property of the $k$-hop message passing framework, showcasing greater expressive power of CG-EGNNs with additional $k$-hop message passing mechanism. We empirically validate that CG-EGNNs outperform previous methods on various benchmarks including n-body, CMU motion capture, and MD17, highlighting their effectiveness in geometric deep learning.
- Abstract(参考訳): データ対称性を扱うニューラルネットワークアーキテクチャの設計が不可欠です。
これはユークリッド変換の下で性質が同値な幾何グラフにとって特に重要である。
現在の同変グラフニューラルネットワーク(EGNN)、特にメッセージパッシングを使用するものは、表現力に制限がある。
最近の高次グラフニューラルネットワークは、この制限を克服することができるが、等分散性は欠如しており、化学や物理科学の特定の応用において顕著な欠点を示している。
本稿では,Clifford Group Equivariant Graph Neural Networks (CG-EGNNs)を紹介する。
クリフォード代数の鍵となる利点として、CG-EGNNは位置的特徴から等分散を捉える関数を学ぶことができる。
高次メッセージパッシング機構を採用することで、CG-EGNNは隣人からよりリッチな情報を得ることができ、モデル性能が向上する。
さらに、$k$-hopメッセージパッシングフレームワークの普遍性を確立し、追加の$k$-hopメッセージパッシング機構によりCG-EGNNの表現力を高めることを示す。
CG-EGNNは, n-body, CMU モーションキャプチャ, MD17などの様々なベンチマークにおいて, 従来の手法よりも優れており, 幾何学的深層学習におけるその有効性を強調している。
関連論文リスト
- Spatiotemporal Learning on Cell-embedded Graphs [6.8090864965073274]
学習可能なセル属性をノードエッジメッセージパッシングプロセスに導入し,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットの実験は、CeGNNが他のベースラインモデルと比較して優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Factor Graph Neural Networks [20.211455592922736]
グラフニューラルネットワーク(GNN)は、多くの現実世界のアプリケーションで大きな成功を収めながら、エンドツーエンドで強力な表現を学習することができる。
推論と学習の高次関係を効果的に捉えるためにFGNN(Facter Graph Neural Networks)を提案する。
論文 参考訳(メタデータ) (2023-08-02T00:32:02Z) - Demystifying Oversmoothing in Attention-Based Graph Neural Networks [23.853636836842604]
グラフニューラルネットワーク(GNN)におけるオーバースムーシング(Oversmoothing in Graph Neural Networks)とは、ネットワーク深度の増加がノードの均質表現につながる現象である。
これまでの研究により、グラフ畳み込みネットワーク(GCN)は指数関数的に表現力を失うことが判明した。
グラフアテンション機構が過剰なスムースを緩和できるかどうかはまだ議論の余地がある。
論文 参考訳(メタデータ) (2023-05-25T14:31:59Z) - Towards Understanding Graph Neural Networks: An Algorithm Unrolling
Perspective [9.426760895586428]
本稿では,グラフ信号の復号化問題に対して,truncated Optimizationアルゴリズムに基づいて構築されたアンロールネットワークのクラスを紹介する。
GNNモデルのトレーニングプロセスは、低レベルのGSD問題による二段階最適化問題の解決と見なすことができる。
UGDGNNという表現モデル、すなわち、非線形勾配勾配GNNは、魅力的な理論的性質を継承する。
論文 参考訳(メタデータ) (2022-06-09T12:54:03Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。