論文の概要: DeePKS+ABACUS as a Bridge between Expensive Quantum Mechanical Models
and Machine Learning Potentials
- arxiv url: http://arxiv.org/abs/2206.10093v1
- Date: Tue, 21 Jun 2022 03:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 06:24:19.137400
- Title: DeePKS+ABACUS as a Bridge between Expensive Quantum Mechanical Models
and Machine Learning Potentials
- Title(参考訳): 量子力学モデルと機械学習ポテンシャルの橋渡しとしてのDeePKS+ABACUS
- Authors: Wenfei Li, Qi Ou, Yixiao Chen, Yu Cao, Renxi Liu, Chunyi Zhang, Daye
Zheng, Chun Cai, Xifan Wu, Han Wang, Mohan Chen, Linfeng Zhang
- Abstract要約: Deep Kohn-Sham (DeePKS) は密度汎関数理論に基づく機械学習(ML)ポテンシャルである。
DeePKSは高レベル量子力学(QM)法と比較して密に整合したエネルギーと力を提供する。
DeePKSモデルをトレーニングするために十分な量の高精度QMデータを生成し、さらにDeePKSモデルを使用して、はるかに多くの設定をラベル付けしてML電位をトレーニングすることができる。
- 参考スコア(独自算出の注目度): 9.982820888454958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the development of machine learning (ML) potentials has made it
possible to perform large-scale and long-time molecular simulations with the
accuracy of quantum mechanical (QM) models. However, for high-level QM methods,
such as density functional theory (DFT) at the meta-GGA level and/or with exact
exchange, quantum Monte Carlo, etc., generating a sufficient amount of data for
training a ML potential has remained computationally challenging due to their
high cost. In this work, we demonstrate that this issue can be largely
alleviated with Deep Kohn-Sham (DeePKS), a ML-based DFT model. DeePKS employs a
computationally efficient neural network-based functional model to construct a
correction term added upon a cheap DFT model. Upon training, DeePKS offers
closely-matched energies and forces compared with high-level QM method, but the
number of training data required is orders of magnitude less than that required
for training a reliable ML potential. As such, DeePKS can serve as a bridge
between expensive QM models and ML potentials: one can generate a decent amount
of high-accuracy QM data to train a DeePKS model, and then use the DeePKS model
to label a much larger amount of configurations to train a ML potential. This
scheme for periodic systems is implemented in a DFT package ABACUS, which is
open-source and ready for use in various applications.
- Abstract(参考訳): 近年,機械学習(ML)ポテンシャルの開発により,量子力学(QM)モデルの精度で大規模かつ長時間の分子シミュレーションが可能となった。
しかし、メタGAレベルにおける密度汎関数理論(DFT)や正確な交換、量子モンテカルロなどのような高レベルのQM手法では、MLポテンシャルを訓練するための十分な量のデータを生成することは、高いコストで計算的に困難である。
本研究では,ML ベースの DFT モデルである Deep Kohn-Sham (DeePKS) でこの問題を緩和できることを実証する。
DeePKSは計算効率のよいニューラルネットワークベースの機能モデルを用いて、安価なDFTモデルに付加された補正項を構築する。
トレーニング時にDeePKSは、高レベルのQM法と比較して密に整合したエネルギーと力を提供するが、必要なトレーニングデータ数は、信頼できるMLポテンシャルのトレーニングに必要なものよりも桁違いに少ない。
従って、DeePKSは高価なQMモデルとMLポテンシャルの間のブリッジとして機能する: DeePKSモデルをトレーニングするために十分な量の高精度なQMデータを生成し、DeePKSモデルを使用して、はるかに多くの構成をラベル付けしてMLポテンシャルをトレーニングすることができる。
この周期的システムのためのスキームは、オープンソースであり、様々なアプリケーションで使用可能なdftパッケージabacusに実装されている。
関連論文リスト
- Multi-task learning for molecular electronic structure approaching coupled-cluster accuracy [9.81014501502049]
金標準CCSD(T)計算をトレーニングデータとして,有機分子の電子構造を統一した機械学習手法を開発した。
炭化水素分子を用いたモデルでは, 計算コストと様々な量子化学特性の予測精度において, 広範に用いられているハイブリッド関数と二重ハイブリッド関数でDFTより優れていた。
論文 参考訳(メタデータ) (2024-05-09T19:51:27Z) - On Optimizing Hyperparameters for Quantum Neural Networks [0.5999777817331317]
現在の最先端の機械学習モデルは、トレーニングに数週間を要する。
量子コンピューティング、特に量子機械学習(QML)は、理論的なスピードアップと強化されたパワーを提供する。
論文 参考訳(メタデータ) (2024-03-27T13:59:09Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Electronic Structure Prediction of Multi-million Atom Systems Through Uncertainty Quantification Enabled Transfer Learning [5.4875371069660925]
基底状態電子密度 -- コーン・シャム密度汎関数理論(KS-DFT)シミュレーションで得られる -- は、豊富な物質情報を含んでいる。
しかし、KS-DFTの計算コストは、トレーニングデータ生成を妨害する傾向にあるシステムサイズと3倍にスケールする。
ここでは,この基本的課題に,移動学習を用いて学習データのマルチスケールな性質を活用する。
論文 参考訳(メタデータ) (2023-08-24T21:41:29Z) - Classical-to-Quantum Transfer Learning Facilitates Machine Learning with Variational Quantum Circuit [62.55763504085508]
本稿では,変分量子回路(VQC)を用いた古典的量子移動学習アーキテクチャにより,VQCモデルの表現と一般化(推定誤差)が向上することを証明する。
古典-量子遷移学習のアーキテクチャは、事前学習された古典的生成AIモデルを活用し、訓練段階におけるVQCの最適パラメータの発見を容易にする。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - NeuralNEB -- Neural Networks can find Reaction Paths Fast [7.7365628406567675]
密度汎関数理論 (DFT) のような量子力学的手法は、反応系の運動学を研究するための効率的な探索アルゴリズムと共に大きな成功を収めている。
機械学習(ML)モデルは、小さな分子DFT計算の優れたエミュレータであることが判明し、そのようなタスクでDFTを置き換える可能性がある。
本稿では、Transition1xデータセットから約10万の初等反応に基づいて、アート同変グラフニューラルネットワーク(GNN)に基づくモデルの状態を訓練する。
論文 参考訳(メタデータ) (2022-07-20T15:29:45Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。