論文の概要: The Design Space of E(3)-Equivariant Atom-Centered Interatomic
Potentials
- arxiv url: http://arxiv.org/abs/2205.06643v1
- Date: Fri, 13 May 2022 13:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:07:10.356950
- Title: The Design Space of E(3)-Equivariant Atom-Centered Interatomic
Potentials
- Title(参考訳): E(3)等変原子中心原子間ポテンシャルの設計空間
- Authors: Ilyes Batatia, Simon Batzner, D\'avid P\'eter Kov\'acs, Albert
Musaelian, Gregor N. C. Simm, Ralf Drautz, Christoph Ortner, Boris Kozinsky,
G\'abor Cs\'anyi
- Abstract要約: NequIPは、最先端の精度を示す同変特徴を持つメッセージパッシングニューラルネットワークである。
これらのモデルを統一する数学的枠組みを構築する。
我々は、NequIPの非常に単純化されたバージョンであるBOTNetを紹介し、それは解釈可能なアーキテクチャを持ち、ベンチマークデータセットの精度を維持する。
- 参考スコア(独自算出の注目度): 3.864610688022996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of machine learning interatomic potentials over the past
couple of years produced a number of new architectures. Particularly notable
among these are the Atomic Cluster Expansion (ACE), which unified many of the
earlier ideas around atom density-based descriptors, and Neural Equivariant
Interatomic Potentials (NequIP), a message passing neural network with
equivariant features that showed state of the art accuracy. In this work, we
construct a mathematical framework that unifies these models: ACE is
generalised so that it can be recast as one layer of a multi-layer
architecture. From another point of view, the linearised version of NequIP is
understood as a particular sparsification of a much larger polynomial model.
Our framework also provides a practical tool for systematically probing
different choices in the unified design space. We demonstrate this by an
ablation study of NequIP via a set of experiments looking at in- and
out-of-domain accuracy and smooth extrapolation very far from the training
data, and shed some light on which design choices are critical for achieving
high accuracy. Finally, we present BOTNet (Body-Ordered-Tensor-Network), a
much-simplified version of NequIP, which has an interpretable architecture and
maintains accuracy on benchmark datasets.
- Abstract(参考訳): 過去数年間における機械学習の原子間ポテンシャルの急速な進歩は、多くの新しいアーキテクチャを生み出した。
特に注目すべきは、原子密度ベースの記述子に関する初期のアイデアの多くを統一したAtomic Cluster Expansion (ACE) と、芸術的正確性を示す同変特徴を持つメッセージパッシングニューラルネットワークであるNequIP(Neural Equivariant Interatomic Potentials)である。
本研究では,これらのモデルを統一する数学的枠組みを構築する。ACEは多層アーキテクチャの一層として再キャストできるように一般化される。
別の観点からは、NequIPの線型化バージョンは、はるかに大きな多項式モデルの特別なスパース化として理解される。
私たちのフレームワークは、統一デザイン空間における異なる選択を体系的に探索するための実用的なツールも提供します。
我々は,NequIPをトレーニングデータからかなり離れた領域内および外部領域の精度とスムーズな外挿に着目した一連の実験によってアブレーション研究し,高い精度を達成するために設計選択が重要かを示す。
最後に,より単純化されたNequIPのBOTNet(Body-Ordered-Tensor-Network)を提案する。
関連論文リスト
- Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - GENNAPE: Towards Generalized Neural Architecture Performance Estimators [25.877126553261434]
GENNAPEは、与えられたニューラルネットワークを、原子操作の計算グラフ(CG)として表現する。
最初に、トポロジ的特徴によるネットワーク分離を促進するために、Contrastive Learningを介してグラフエンコーダを学習する。
実験により、NAS-Bench-101で事前訓練されたGENNAPEは、5つの異なる公開ニューラルネットワークベンチマークに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2022-11-30T18:27:41Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - Correlator Convolutional Neural Networks: An Interpretable Architecture
for Image-like Quantum Matter Data [15.283214387433082]
本研究では,物理オブザーバブルの観点から直接解釈可能なデータの特徴を発見するネットワークアーキテクチャを開発する。
私たちのアプローチは、シンプルでエンドツーエンドの解釈可能なアーキテクチャの構築に役立ちます。
論文 参考訳(メタデータ) (2020-11-06T17:04:10Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z) - Hierarchical, rotation-equivariant neural networks to select structural
models of protein complexes [6.092214762701847]
タンパク質複合体の正確なモデルを特定するために,全ての原子の3次元位置から直接学習する機械学習手法を提案する。
我々のネットワークは、考えられるモデルの大きな集合のうち、正確な構造モデルの同定を大幅に改善する。
論文 参考訳(メタデータ) (2020-06-05T20:17:12Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。