論文の概要: Synthetic pre-training for neural-network interatomic potentials
- arxiv url: http://arxiv.org/abs/2307.15714v1
- Date: Mon, 24 Jul 2023 17:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 11:35:05.422647
- Title: Synthetic pre-training for neural-network interatomic potentials
- Title(参考訳): ニューラルネットワーク間ポテンシャルのための合成事前学習
- Authors: John L. A. Gardner and Kathryn T. Baker and Volker L. Deringer
- Abstract要約: 本研究は,ニューラルネットワークを用いた原子間ポテンシャルモデルにおいて,既存の機械学習ポテンシャルと大規模に比較して得られる合成原子構造データが有用な事前学習課題であることを示す。
一度大きな合成データセットで事前訓練すると、これらのモデルはより小さく、量子力学的なモデルに微調整され、計算の練習における数値的精度と安定性が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) based interatomic potentials have transformed the field
of atomistic materials modelling. However, ML potentials depend critically on
the quality and quantity of quantum-mechanical reference data with which they
are trained, and therefore developing datasets and training pipelines is
becoming an increasingly central challenge. Leveraging the idea of "synthetic"
(artificial) data that is common in other areas of ML research, we here show
that synthetic atomistic data, themselves obtained at scale with an existing ML
potential, constitute a useful pre-training task for neural-network interatomic
potential models. Once pre-trained with a large synthetic dataset, these models
can be fine-tuned on a much smaller, quantum-mechanical one, improving
numerical accuracy and stability in computational practice. We demonstrate
feasibility for a series of equivariant graph-neural-network potentials for
carbon, and we carry out initial experiments to test the limits of the
approach.
- Abstract(参考訳): 機械学習(ML)に基づく原子間ポテンシャルは、原子論的な物質モデリングの分野を変えた。
しかし、機械学習のポテンシャルはトレーニング対象の量子力学的参照データの品質と量に大きく依存しているため、データセットやトレーニングパイプラインの開発はますます中心的な課題になりつつある。
ML研究の他の分野に共通する「合成」(人工)データの概念を活用することで、既存のMLポテンシャルと大規模に得られる合成原子性データは、ニューラルネットワークによる原子間ポテンシャルモデルのための有用な事前学習タスクであることを示す。
大規模な合成データセットで事前訓練すると、これらのモデルはより小さく、量子力学的に微調整され、計算の練習における数値精度と安定性が向上する。
我々は,炭素に対する一連の等変グラフニューラルネットワークポテンシャルの実現可能性を示し,その限界をテストするための初期実験を行った。
関連論文リスト
- chemtrain: Learning Deep Potential Models via Automatic Differentiation and Statistical Physics [0.0]
ニューラルネットワーク(NN)は分子動力学の精度を改善するための有望なモデルである。
Chemtrainは、カスタマイズ可能なトレーニングルーチンと高度なトレーニングアルゴリズムを通じて、洗練されたNNポテンシャルモデルを学ぶためのフレームワークである。
論文 参考訳(メタデータ) (2024-08-28T15:14:58Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Transfer learning for chemically accurate interatomic neural network
potentials [0.0]
密度汎関数計算から得られたデータに基づいてネットワークパラメータを事前学習することにより、より正確なab-initioデータに基づいてトレーニングされたモデルのサンプル効率が向上することを示す。
ANI-1x および ANI-1ccx データセット上で事前訓練および微調整されたGM-NN電位を提供する。
論文 参考訳(メタデータ) (2022-12-07T19:21:01Z) - Synthetic data enable experiments in atomistic machine learning [0.0]
既存のMLポテンシャルモデルから,原子単位のエネルギーをラベル付けした大規模データセットの使用を実演する。
このプロセスの安価さは、量子力学の土台真実に比べれば、数百万のデータポイントを生成できる。
合成データラベルの学習は、後続の小さなデータセットの微調整に有用な事前学習タスクであることを示す。
論文 参考訳(メタデータ) (2022-11-29T18:17:24Z) - Symbolic Regression in Materials Science: Discovering Interatomic
Potentials from Data [1.7149364927872015]
機械学習は、ab初期原子ポテンシャルの計算コストを相殺することができる。
シンボリック回帰(英: symbolic regression)は、原子間ポテンシャルの関数形式を発見するための強力な「ホワイトボックス」アプローチである。
原子ポテンシャルをモデル化するための遺伝的プログラミングに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-13T19:05:21Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。