論文の概要: The Bigger the Better? Accurate Molecular Potential Energy Surfaces from Minimalist Neural Networks
- arxiv url: http://arxiv.org/abs/2411.18121v1
- Date: Wed, 27 Nov 2024 08:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:17.390462
- Title: The Bigger the Better? Accurate Molecular Potential Energy Surfaces from Minimalist Neural Networks
- Title(参考訳): より大きなものは?ミニマリストニューラルネットワークによる分子ポテンシャルエネルギー表面の精密化
- Authors: Silvan Käser, Debasish Koner, Markus Meuwly,
- Abstract要約: KerNNは、分子PSSを表現するためのカーネル/神経ネットワークベースのアプローチである。
最先端のニューラルネットワークPSSと比較して、KerNNの学習可能なパラメータの数は大幅に減少する。
KerNNは、古典的および量子シミュレーションから計算された振動帯を含む、テストセット統計と観測可能な領域で優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Atomistic simulations are a powerful tool for studying the dynamics of molecules, proteins, and materials on wide time and length scales. Their reliability and predictiveness, however, depend directly on the accuracy of the underlying potential energy surface (PES). Guided by the principle of parsimony this work introduces KerNN, a combined kernel/neural network-based approach to represent molecular PESs. Compared to state-of-the-art neural network PESs the number of learnable parameters of KerNN is significantly reduced. This speeds up training and evaluation times by several orders of magnitude while retaining high prediction accuracy. Importantly, using kernels as the features also improves the extrapolation capabilities of KerNN far beyond the coverage provided by the training data which solves a general problem of NN-based PESs. KerNN applied to spectroscopy and reaction dynamics shows excellent performance on test set statistics and observables including vibrational bands computed from classical and quantum simulations.
- Abstract(参考訳): 原子論シミュレーションは、分子、タンパク質、物質の力学を幅広い時間と長さのスケールで研究するための強力なツールである。
しかし、その信頼性と予測性は、基礎となるポテンシャルエネルギー面(PES)の精度に直接依存する。
この研究は、分子PSSを表現するカーネル/神経ネットワークベースのアプローチであるKerNNを導入している。
最先端のニューラルネットワークPSSと比較して、KerNNの学習可能なパラメータの数は大幅に減少する。
これにより、高い予測精度を維持しながら、トレーニングと評価時間を桁違いに高速化する。
重要なことは、カーネルを機能として使用することで、NNベースのPSSの一般的な問題を解決するトレーニングデータによって提供される範囲を超えて、KerNNの外挿能力も向上する。
分光および反応力学に適用されたKerNNは、古典的および量子シミュレーションから計算された振動帯を含む可観測物とテストセット統計において優れた性能を示す。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials [8.048439531116367]
より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
論文 参考訳(メタデータ) (2023-03-03T21:15:22Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Exploring accurate potential energy surfaces via integrating variational
quantum eigensovler with machine learning [8.19234058079321]
この研究で、変分量子アルゴリズムは機械学習(ML)技術と統合可能であることを示す。
変分量子固有解法(VQE)のパラメータを表すために,分子幾何学情報をディープニューラルネットワーク(DNN)に符号化する。
論文 参考訳(メタデータ) (2022-06-08T01:43:56Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Physics-enhanced Neural Networks in the Small Data Regime [0.0]
トレーニング中の実エネルギーレベルを正規化用語として考えることで、さらに改善できることが示される。
特に、少量のデータしか利用できない場合、これらの改善は予測能力を著しく向上させることができる。
論文 参考訳(メタデータ) (2021-11-19T17:21:14Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Parsimonious neural networks learn interpretable physical laws [77.34726150561087]
本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
論文 参考訳(メタデータ) (2020-05-08T16:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。