論文の概要: NeuralNEB -- Neural Networks can find Reaction Paths Fast
- arxiv url: http://arxiv.org/abs/2207.09971v1
- Date: Wed, 20 Jul 2022 15:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:25:44.707738
- Title: NeuralNEB -- Neural Networks can find Reaction Paths Fast
- Title(参考訳): NeuralNEB -- ニューラルネットワークは反応経路を素早く見つけることができる
- Authors: Mathias Schreiner, Arghya Bhowmik, Tejs Vegge and Ole Winther
- Abstract要約: 960万の密度汎関数理論(DFT)計算を含むデータセットトランジション1xを提案する。
MLモデルは、人気のあるベンチマークデータセットをトレーニングすることでのみ、遷移状態領域の機能を学習できないことを示す。
- 参考スコア(独自算出の注目度): 7.7365628406567675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models have, in contrast to their usefulness in
molecular dynamics studies, had limited success as surrogate potentials for
reaction barrier search. It is due to the scarcity of training data in relevant
transition state regions of chemical space. Currently, available datasets for
training ML models on small molecular systems almost exclusively contain
configurations at or near equilibrium. In this work, we present the dataset
Transition1x containing 9.6 million Density Functional Theory (DFT)
calculations of forces and energies of molecular configurations on and around
reaction pathways at the wB97x/6-31G(d) level of theory. The data was generated
by running Nudged Elastic Band (NEB) calculations with DFT on 10k reactions
while saving intermediate calculations. We train state-of-the-art equivariant
graph message-passing neural network models on Transition1x and cross-validate
on the popular ANI1x and QM9 datasets. We show that ML models cannot learn
features in transition-state regions solely by training on hitherto popular
benchmark datasets. Transition1x is a new challenging benchmark that will
provide an important step towards developing next-generation ML force fields
that also work far away from equilibrium configurations and reactive systems.
- Abstract(参考訳): 機械学習(ML)モデルは、分子動力学研究において有用であるのとは対照的に、反応障壁探索のサロゲートポテンシャルとして成功した。
これは、化学空間の関連する遷移状態領域におけるトレーニングデータの不足に起因する。
現在、小さな分子システム上でMLモデルをトレーニングするためのデータセットは、ほぼ平衡に近い構成を含んでいる。
本稿では, wb97x/6-31g(d)理論における反応経路とその周辺における分子配置の力とエネルギーの9.6億倍の密度汎関数理論(dft)を含むデータセットtransition1xを提案する。
データは、中間計算を節約しながら10k反応でdftを用いたヌッジ弾性バンド(neb)計算を実行して生成された。
我々は,人気のani1xおよびqm9データセット上でtransition1xおよびcross-validate上で,最先端の等価グラフメッセージパッシングニューラルネットワークモデルをトレーニングする。
MLモデルは、人気のあるベンチマークデータセットをトレーニングすることでのみ、遷移状態領域の機能を学習できないことを示す。
transition1xは新しい挑戦的なベンチマークで、平衡構成やリアクティブシステムから遠く離れた、次世代のMLフォースフィールドの開発に向けた重要なステップを提供する。
関連論文リスト
- Physically Guided Deep Unsupervised Inversion for 1D Magnetotelluric Models [16.91835461818938]
我々は物理で導かれた新しいディープ・インバージョン・アルゴリズムを提案し、1Dマグネトロンモデル(MT)を推定する。
本手法では,コスト関数の最小化を物理的に導く,微分可能なモデリング演算子を用いる。
提案手法は, 異なる周波数でのフィールドデータと合成データを用いて検証し, 取得モデルが他の結果よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2024-10-20T04:17:59Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - chemtrain: Learning Deep Potential Models via Automatic Differentiation and Statistical Physics [0.0]
ニューラルネットワーク(NN)は分子動力学の精度を改善するための有望なモデルである。
Chemtrainは、カスタマイズ可能なトレーニングルーチンと高度なトレーニングアルゴリズムを通じて、洗練されたNNポテンシャルモデルを学ぶためのフレームワークである。
論文 参考訳(メタデータ) (2024-08-28T15:14:58Z) - Accurate machine learning force fields via experimental and simulation
data fusion [0.0]
機械学習(ML)ベースの力場は、量子レベルの精度で古典的原子間ポテンシャルのスケールにまたがる能力のために、ますます関心が高まりつつある。
ここでは、密度汎関数理論(DFT)計算と実験的に測定された力学特性と格子パラメータの両方を活用して、チタンのMLポテンシャルを訓練する。
融合したデータ学習戦略は、全ての対象目標を同時に満たすことができ、結果として、単一のソースデータで訓練されたモデルと比較して高い精度の分子モデルが得られることを実証する。
論文 参考訳(メタデータ) (2023-08-17T18:22:19Z) - Transition1x -- a Dataset for Building Generalizable Reactive Machine
Learning Potentials [7.171984408392421]
960万の密度汎関数理論(DFT)計算を含むデータセットトランジション1xを提案する。
MLモデルは、人気のあるベンチマークデータセットをトレーニングすることでのみ、遷移状態領域の機能を学習できないことを示す。
論文 参考訳(メタデータ) (2022-07-25T07:30:14Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Simultaneous boundary shape estimation and velocity field de-noising in
Magnetic Resonance Velocimetry using Physics-informed Neural Networks [70.7321040534471]
MRV(MR resonance velocimetry)は、流体の速度場を測定するために医療や工学で広く用いられている非侵襲的な技術である。
これまでの研究では、境界(例えば血管)の形状が先駆体として知られていた。
我々は、ノイズの多いMRVデータのみを用いて、最も可能性の高い境界形状と減音速度場を推定する物理インフォームニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-16T12:56:09Z) - Rotation Invariant Graph Neural Networks using Spin Convolutions [28.4962005849904]
機械学習アプローチは、密度汎関数理論(DFT)を計算的に効率的に近似する可能性がある。
グラフニューラルネットワークにおいて,隣り合う原子の集合間の角度情報をモデル化するための新しい手法を提案する。
結果は大規模なOpen Catalyst 2020データセットで実証されている。
論文 参考訳(メタデータ) (2021-06-17T14:59:34Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。