論文の概要: Relaxing Continuous Constraints of Equivariant Graph Neural Networks for Physical Dynamics Learning
- arxiv url: http://arxiv.org/abs/2406.16295v1
- Date: Mon, 24 Jun 2024 03:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 16:13:09.867835
- Title: Relaxing Continuous Constraints of Equivariant Graph Neural Networks for Physical Dynamics Learning
- Title(参考訳): 物理ダイナミクス学習のための等変グラフニューラルネットワークの連続制約緩和
- Authors: Zinan Zheng, Yang Liu, Jia Li, Jianhua Yao, Yu Rong,
- Abstract要約: 離散同変グラフニューラルネットワーク(DEGNN)を提案する。
具体的には、幾何学的特徴を置換不変な埋め込みに変換することによって、このような離散同変メッセージパッシングを構築することができることを示す。
DEGNNはデータ効率が良く、少ないデータで学習でき、観測不能な向きなどのシナリオをまたいで一般化できることを示す。
- 参考スコア(独自算出の注目度): 39.25135680793105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating Euclidean symmetries (e.g. rotation equivariance) as inductive biases into graph neural networks has improved their generalization ability and data efficiency in unbounded physical dynamics modeling. However, in various scientific and engineering applications, the symmetries of dynamics are frequently discrete due to the boundary conditions. Thus, existing GNNs either overlook necessary symmetry, resulting in suboptimal representation ability, or impose excessive equivariance, which fails to generalize to unobserved symmetric dynamics. In this work, we propose a general Discrete Equivariant Graph Neural Network (DEGNN) that guarantees equivariance to a given discrete point group. Specifically, we show that such discrete equivariant message passing could be constructed by transforming geometric features into permutation-invariant embeddings. Through relaxing continuous equivariant constraints, DEGNN can employ more geometric feature combinations to approximate unobserved physical object interaction functions. Two implementation approaches of DEGNN are proposed based on ranking or pooling permutation-invariant functions. We apply DEGNN to various physical dynamics, ranging from particle, molecular, crowd to vehicle dynamics. In twenty scenarios, DEGNN significantly outperforms existing state-of-the-art approaches. Moreover, we show that DEGNN is data efficient, learning with less data, and can generalize across scenarios such as unobserved orientation.
- Abstract(参考訳): グラフニューラルネットワークにおける帰納バイアスとしてユークリッド対称性(例えば回転同値)を組み込むことにより、非有界物理力学モデリングにおける一般化能力とデータ効率が向上した。
しかし、様々な科学的・工学的な応用において、力学の対称性は境界条件のためにしばしば離散的である。
したがって、既存のGNNは必要対称性を見落とし、最適下表現能力をもたらすか、あるいは過剰な同値を課すかのいずれかであり、これは観測されない対称力学に一般化することができない。
本研究では,ある離散点群に同値であることを保証する一般離散同変グラフニューラルネットワーク(DEGNN)を提案する。
具体的には、幾何学的特徴を置換不変な埋め込みに変換することによって、このような離散同変メッセージパッシングを構築することができることを示す。
連続同変制約を緩和することにより、DGNNは、観測されていない物理的オブジェクトの相互作用関数を近似するために、より幾何学的な特徴結合を利用することができる。
DEGNNの2つの実装手法は、順列不変関数のランク付けやプーリングに基づいて提案される。
粒子,分子,群集,車体力学など,様々な物理力学にDECNNを適用した。
20のシナリオでは、DECNNは既存の最先端のアプローチを大きく上回っている。
さらに、DGNNはデータ効率が良く、少ないデータで学習でき、観測不能な向きなどのシナリオをまたいで一般化できることを示す。
関連論文リスト
- Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Spatial Attention Kinetic Networks with E(n)-Equivariance [0.951828574518325]
回転、翻訳、反射、n次元幾何学空間上の置換と等価なニューラルネットワークは、物理モデリングにおいて有望であることを示している。
本稿では, エッジベクトルの線形結合をニューラルネットワークでパラメトリケートし, 等価性を実現するための, 簡易な代替関数形式を提案する。
E(n)-等価性を持つ空間的注意運動ネットワーク(SAKE)を設計する。
論文 参考訳(メタデータ) (2023-01-21T05:14:29Z) - Unifying O(3) Equivariant Neural Networks Design with Tensor-Network Formalism [12.008737454250463]
本稿では,SU($2$)対称量子多体問題のシミュレーションに広く用いられている融合図を用いて,同変ニューラルネットワークのための新しい同変成分を設計する手法を提案する。
与えられた局所近傍の粒子に適用すると、結果として得られる成分は「融合ブロック」と呼ばれ、任意の連続同変関数の普遍近似として機能する。
我々のアプローチは、テンソルネットワークと同変ニューラルネットワークを組み合わせることで、より表現力のある同変ニューラルネットワークを設計するための有益な方向を示唆している。
論文 参考訳(メタデータ) (2022-11-14T16:06:59Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。