論文の概要: TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials
- arxiv url: http://arxiv.org/abs/2306.06482v1
- Date: Sat, 10 Jun 2023 16:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:43:53.602314
- Title: TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials
- Title(参考訳): TensorNet:分子ポテンシャルの効率的な学習のためのモンテカルトテンソル表現
- Authors: Guillem Simeon, Gianni de Fabritiis
- Abstract要約: 革新的な$mathrmO(3)$-equivariantなメッセージパッシングニューラルネットワークアーキテクチャであるNetを紹介します。
このフレームワークは、最先端の同変モデルの設計のための新しい空間を開く。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of efficient machine learning models for molecular systems
representation is becoming crucial in scientific research. We introduce
TensorNet, an innovative $\mathrm{O}(3)$-equivariant message-passing neural
network architecture that leverages Cartesian tensor representations. By using
Cartesian tensor atomic embeddings, feature mixing is simplified through matrix
product operations. Furthermore, the cost-effective decomposition of these
tensors into rotation group irreducible representations allows for the separate
processing of scalars, vectors, and tensors when necessary. Compared to
higher-rank spherical tensor models, TensorNet demonstrates state-of-the-art
performance with significantly fewer parameters. For small molecule potential
energies, this can be achieved even with a single interaction layer. As a
result of all these properties, the model's computational cost is substantially
decreased. Moreover, the accurate prediction of vector and tensor molecular
quantities on top of potential energies and forces is possible. In summary,
TensorNet's framework opens up a new space for the design of state-of-the-art
equivariant models.
- Abstract(参考訳): 分子系表現のための効率的な機械学習モデルの開発は、科学研究において重要である。
我々は、デカルトテンソル表現を利用する、革新的な$\mathrm{o}(3)$-equivariant message-passing neural networkアーキテクチャであるtensornetを紹介する。
カルトテンソル原子埋め込みを用いて、行列積演算により特徴混合を単純化する。
さらに、これらのテンソルを回転群既約表現にコスト効率良く分解することで、必要に応じてスカラー、ベクトル、テンソルの分離処理が可能になる。
高階球面テンソルモデルと比較して、TensorNetはパラメータが大幅に少ない最先端の性能を示す。
小さな分子ポテンシャルエネルギーの場合、これは単一の相互作用層でも達成できる。
これらの特性の結果として、モデルの計算コストは大幅に削減される。
さらに、ポテンシャルエネルギーと力の上のベクトルとテンソル分子量の正確な予測が可能となる。
要約すると、TensorNetのフレームワークは最先端の同変モデルの設計のための新しい空間を開く。
関連論文リスト
- Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing [23.754664894759234]
原子学シミュレーションは 化学の進歩に不可欠です
機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法と第一原理法と同等の精度を達成する。
論文 参考訳(メタデータ) (2024-05-23T07:31:20Z) - Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Edge-based Tensor prediction via graph neural networks [6.021787236982659]
メッセージパッシングニューラルネットワーク(MPNN)は、分子や結晶の物理的特性を予測する上で、極めて高い効率と精度を示す。
現在、結晶のテンソル特性を直接予測するための一般的なMPNNフレームワークが欠如している。
本研究では, エッジベーステンソル予測グラフニューラルネットワーク(ETGNN)モデルを不変グラフニューラルネットワークに基づいて直接設計し, テンソルの予測を行う。
論文 参考訳(メタデータ) (2022-01-15T06:43:15Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z) - Multi-View Graph Neural Networks for Molecular Property Prediction [67.54644592806876]
マルチビューグラフニューラルネットワーク(MV-GNN)を提案する。
MV-GNNでは,学習過程を安定させるために,自己注意型読み出しコンポーネントと不一致損失を導入する。
我々は、相互依存型メッセージパッシング方式を提案することにより、MV-GNNの表現力をさらに強化する。
論文 参考訳(メタデータ) (2020-05-17T04:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。