論文の概要: Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing
- arxiv url: http://arxiv.org/abs/2405.14253v2
- Date: Sat, 02 Nov 2024 10:36:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:26:07.823870
- Title: Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing
- Title(参考訳): 等価メッセージパッシングのための高域不還元性カルテシアンテンソル
- Authors: Viktor Zaverkin, Francesco Alesiani, Takashi Maruyama, Federico Errica, Henrik Christiansen, Makoto Takamoto, Nicolas Weber, Mathias Niepert,
- Abstract要約: 原子学シミュレーションは 化学の進歩に不可欠です
機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法と第一原理法と同等の精度を達成する。
- 参考スコア(独自算出の注目度): 23.754664894759234
- License:
- Abstract: The ability to perform fast and accurate atomistic simulations is crucial for advancing the chemical sciences. By learning from high-quality data, machine-learned interatomic potentials achieve accuracy on par with ab initio and first-principles methods at a fraction of their computational cost. The success of machine-learned interatomic potentials arises from integrating inductive biases such as equivariance to group actions on an atomic system, e.g., equivariance to rotations and reflections. In particular, the field has notably advanced with the emergence of equivariant message passing. Most of these models represent an atomic system using spherical tensors, tensor products of which require complicated numerical coefficients and can be computationally demanding. Cartesian tensors offer a promising alternative, though state-of-the-art methods lack flexibility in message-passing mechanisms, restricting their architectures and expressive power. This work explores higher-rank irreducible Cartesian tensors to address these limitations. We integrate irreducible Cartesian tensor products into message-passing neural networks and prove the equivariance and traceless property of the resulting layers. Through empirical evaluations on various benchmark data sets, we consistently observe on-par or better performance than that of state-of-the-art spherical and Cartesian models.
- Abstract(参考訳): 高速で正確な原子論シミュレーションを行う能力は、化学科学の進歩に不可欠である。
高品質なデータから学習することで、機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法や第一原理法と同等の精度を達成する。
機械学習された原子間ポテンシャルの成功は、原子系の群作用に等しく、回転や反射に等しくなるような誘導バイアスを統合することから生じる。
特に、フィールドは、同変メッセージパッシングの出現とともに顕著に進歩した。
これらのモデルのほとんどは、複雑な数値係数を必要とし、計算的に要求できる、球面テンソルを用いた原子系を表す。
カルテシアンテンソルは有望な代替手段を提供するが、最先端の手法にはメッセージパッシング機構の柔軟性がなく、アーキテクチャや表現力が制限されている。
この研究は、これらの制限に対処するために高階既約カルトテンソルを探索する。
我々は、既約カルトテンソル積をメッセージパスニューラルネットワークに統合し、結果の層の等値性とトレーサレス性を証明した。
様々なベンチマークデータセットに対する経験的評価を通じて、我々は、最先端の球面モデルやカルテシアンモデルよりも、オンパーまたは優れたパフォーマンスを一貫して観察する。
関連論文リスト
- SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials [4.169915659794567]
我々は、革新的なO(3)等価メッセージパッシングニューラルネットワークアーキテクチャであるNetを紹介する。
テンソル原子埋め込みを用いることで、機能混合は行列積演算により単純化される。
ポテンシャルエネルギーと力の上のベクトルとテンソル分子量の正確な予測が可能である。
論文 参考訳(メタデータ) (2023-06-10T16:41:18Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Wigner kernels: body-ordered equivariant machine learning without a
basis [0.0]
我々は、ウィグナーカーネルの計算を伴う新しい密度ベース手法を提案する。
ウィグナー核は完全に同変で、ボディーオーダーのカーネルで、放射化学ベースに依存しないコストで反復的に計算することができる。
化学応用におけるWignerカーネルに基づくモデルの精度のいくつかの例を示す。
論文 参考訳(メタデータ) (2023-03-07T18:34:55Z) - Learning Local Equivariant Representations for Large-Scale Atomistic
Dynamics [0.6861083714313458]
アレグロは厳密な局所同変深層学習の原子間ポテンシャルである。
並列計算の精度とスケーラビリティを両立させる。
単一のテンソル積層は、既存のディープメッセージパッシングニューラルネットワークやトランスフォーマーよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-04-11T16:48:41Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - GeoDiff: a Geometric Diffusion Model for Molecular Conformation
Generation [102.85440102147267]
分子配座予測のための新しい生成モデルGeoDiffを提案する。
GeoDiffは、既存の最先端のアプローチよりも優れているか、あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-03-06T09:47:01Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。