論文の概要: Universally Invariant Learning in Equivariant GNNs
- arxiv url: http://arxiv.org/abs/2510.13169v1
- Date: Wed, 15 Oct 2025 05:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.513216
- Title: Universally Invariant Learning in Equivariant GNNs
- Title(参考訳): 等変GNNにおける普遍不変学習
- Authors: Jiacheng Cen, Anyi Li, Ning Lin, Tingyang Xu, Yu Rong, Deli Zhao, Zihe Wang, Wenbing Huang,
- Abstract要約: 等変グラフニューラルネットワーク(GNN)は、様々なアプリケーションで大きな成功を収めている。
完全同変GNNを構築するための理論的基盤となる枠組みを提案する。
以上の結果から,少数の層で優れた完全性と優れた性能を示すことができた。
- 参考スコア(独自算出の注目度): 47.74131538835446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equivariant Graph Neural Networks (GNNs) have demonstrated significant success across various applications. To achieve completeness -- that is, the universal approximation property over the space of equivariant functions -- the network must effectively capture the intricate multi-body interactions among different nodes. Prior methods attain this via deeper architectures, augmented body orders, or increased degrees of steerable features, often at high computational cost and without polynomial-time solutions. In this work, we present a theoretically grounded framework for constructing complete equivariant GNNs that is both efficient and practical. We prove that a complete equivariant GNN can be achieved through two key components: 1) a complete scalar function, referred to as the canonical form of the geometric graph; and 2) a full-rank steerable basis set. Leveraging this finding, we propose an efficient algorithm for constructing complete equivariant GNNs based on two common models: EGNN and TFN. Empirical results demonstrate that our model demonstrates superior completeness and excellent performance with only a few layers, thereby significantly reducing computational overhead while maintaining strong practical efficacy.
- Abstract(参考訳): 等変グラフニューラルネットワーク(GNN)は、様々なアプリケーションで大きな成功を収めている。
完全性(すなわち同変関数の空間上の普遍近似性)を達成するためには、ネットワークは異なるノード間の複雑な多体相互作用を効果的に捉える必要がある。
それまでの手法では、より深いアーキテクチャ、強化されたボディオーダー、または高い計算コストと多項式時間解のないステアブルな特徴によって実現されていた。
本研究では,効率的かつ実用的な完全同変GNNを構築するための理論的基盤となる枠組みを提案する。
完全同変GNNは2つの鍵成分によって達成できることを示す。
1) 幾何グラフの正準形式と呼ばれる完全なスカラー関数
2) フルランクのステアブルベースセット。
そこで本研究では, EGNN と TFN の2つの共通モデルに基づいて, 完全同変GNN を構築するための効率的なアルゴリズムを提案する。
実験により,本モデルでは,少数の層で優れた完全性と優れた性能を示し,高い実効性を保ちながら計算オーバーヘッドを大幅に低減することを示した。
関連論文リスト
- Are High-Degree Representations Really Unnecessary in Equivariant Graph Neural Networks? [19.85431519907118]
E(3)対称性を取り入れた等価グラフニューラルネットワーク(GNN)は、様々な科学的応用において大きな成功を収めている。
本稿では、$k$-fold回転や正則多面体を含む対称構造上の同変GNNの表現性について検討する。
我々は,高次ステアブルベクトルを組み込んだEGNNの高次バージョンであるHEGNNを提案する。
論文 参考訳(メタデータ) (2024-10-15T09:47:49Z) - Weisfeiler Leman for Euclidean Equivariant Machine Learning [3.0222726571099665]
PPGNは, 複雑度が低い全点クラウド上で, 均一に2$-WLをシミュレートできることを示す。
第二に、2ドルのWLテストは、位置と速度の両方を含む点雲まで拡張可能であることを示す。
論文 参考訳(メタデータ) (2024-02-04T13:25:18Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。