論文の概要: Injecting Domain Knowledge from Empirical Interatomic Potentials to
Neural Networks for Predicting Material Properties
- arxiv url: http://arxiv.org/abs/2210.08047v1
- Date: Fri, 14 Oct 2022 18:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:23:01.561186
- Title: Injecting Domain Knowledge from Empirical Interatomic Potentials to
Neural Networks for Predicting Material Properties
- Title(参考訳): 経験的原子間ポテンシャルからニューラルネットワークへのドメイン知識注入による材料特性予測
- Authors: Zeren Shui, Daniel S. Karls, Mingjian Wen, Ilia A. Nikiforov, Ellad B.
Tadmor, George Karypis
- Abstract要約: 原子論モデリングは、ナノテクノロジーから薬物発見まで、様々な分野の物質の挙動を予測する上で重要な役割を担っている。
近年、量子力学的データに基づいてトレーニングされたニューラルネットワーク(NN)ベースのポテンシャルが、従来のEIPのより正確な代替品として出現している。
本稿では,従来のEIPからNNにドメイン知識を注入する,ラベルのないトレーニングインスタンスを利用する2つの汎用戦略を提案する。
- 参考スコア(独自算出の注目度): 8.288239343384822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For decades, atomistic modeling has played a crucial role in predicting the
behavior of materials in numerous fields ranging from nanotechnology to drug
discovery. The most accurate methods in this domain are rooted in
first-principles quantum mechanical calculations such as density functional
theory (DFT). Because these methods have remained computationally prohibitive,
practitioners have traditionally focused on defining physically motivated
closed-form expressions known as empirical interatomic potentials (EIPs) that
approximately model the interactions between atoms in materials. In recent
years, neural network (NN)-based potentials trained on quantum mechanical
(DFT-labeled) data have emerged as a more accurate alternative to conventional
EIPs. However, the generalizability of these models relies heavily on the
amount of labeled training data, which is often still insufficient to generate
models suitable for general-purpose applications. In this paper, we propose two
generic strategies that take advantage of unlabeled training instances to
inject domain knowledge from conventional EIPs to NNs in order to increase
their generalizability. The first strategy, based on weakly supervised
learning, trains an auxiliary classifier on EIPs and selects the
best-performing EIP to generate energies to supplement the ground-truth DFT
energies in training the NN. The second strategy, based on transfer learning,
first pretrains the NN on a large set of easily obtainable EIP energies, and
then fine-tunes it on ground-truth DFT energies. Experimental results on three
benchmark datasets demonstrate that the first strategy improves baseline NN
performance by 5% to 51% while the second improves baseline performance by up
to 55%. Combining them further boosts performance.
- Abstract(参考訳): 何十年もの間、原子論的モデリングはナノテクノロジーから創薬まで様々な分野で材料の挙動を予測する上で重要な役割を担ってきた。
この領域で最も正確な手法は密度汎関数理論(DFT)のような第一原理の量子力学計算に根ざしている。
これらの手法は計算的に禁止されているため、伝統的に実践者は物質中の原子間の相互作用を概ねモデル化する経験的原子間ポテンシャル(eips)として知られる物理的動機づけのある閉形式式を定義することに焦点を合わせてきた。
近年、量子力学(DFT-labeled)データに基づいてトレーニングされたニューラルネットワーク(NN)ベースのポテンシャルが、従来のEIPのより正確な代替品として出現している。
しかし、これらのモデルの一般化性はラベル付きトレーニングデータ量に大きく依存しており、汎用用途に適したモデルを生成するには不十分であることが多い。
本稿では,ラベルなしのトレーニングインスタンスを利用して,従来のeipsからnnsへドメイン知識を注入し,その一般化可能性を高めるための2つの汎用的戦略を提案する。
第1の戦略は、弱教師付き学習に基づいて、EIP上で補助分類器を訓練し、最高の性能のEIPを選択して、NNのトレーニングにおいて、地上のDFTエネルギーを補うためのエネルギーを生成する。
第2の戦略は、転送学習に基づいて、まずNNを手軽に入手可能なEIPエネルギーのセットで事前訓練し、次いで地上のDFTエネルギーで微調整する。
3つのベンチマークデータセットの実験結果によると、最初の戦略はベースラインNNのパフォーマンスを5%から51%改善し、もう1つはベースラインNNのパフォーマンスを最大55%改善した。
これらを組み合わせることでパフォーマンスがさらに向上する。
関連論文リスト
- Predicting ionic conductivity in solids from the machine-learned potential energy landscape [68.25662704255433]
超イオン材料は、エネルギー密度と安全性を向上させる固体電池の推進に不可欠である。
このような物質を同定するための従来の計算手法は資源集約的であり、容易ではない。
普遍的原子間ポテンシャル解析によるイオン伝導率の迅速かつ確実な評価手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T09:01:36Z) - The Importance of Being Scalable: Improving the Speed and Accuracy of Neural Network Interatomic Potentials Across Chemical Domains [4.340917737559795]
ニューラルネットワーク原子間ポテンシャル(NNIP)のスケーリングに関する研究
NNIPは、ab initio量子力学計算の代理モデルとして機能する。
我々は、スケーリング用に設計されたNNIPアーキテクチャを開発する: 効率よくスケールされた意識的原子間ポテンシャル(EScAIP)
論文 参考訳(メタデータ) (2024-10-31T17:35:57Z) - chemtrain: Learning Deep Potential Models via Automatic Differentiation and Statistical Physics [0.0]
ニューラルネットワーク(NN)は分子動力学の精度を改善するための有望なモデルである。
Chemtrainは、カスタマイズ可能なトレーニングルーチンと高度なトレーニングアルゴリズムを通じて、洗練されたNNポテンシャルモデルを学ぶためのフレームワークである。
論文 参考訳(メタデータ) (2024-08-28T15:14:58Z) - Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
我々は、機械学習型原子間ポテンシャルのトレーニングのための物理インフォームド、弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - Non-Generative Energy Based Models [3.1447898427012473]
エネルギーベースモデル(EBM)はコンピュータビジョンの中でますます人気が高まっている。
我々は、非生成的トレーニングアプローチ、非生成的EMM(NG-EBM)を提案する。
我々のNG-EBMトレーニング戦略は、校正、アウト・オブ・ディストリビューション検出、対向抵抗におけるEMMの利点の多くを保っていることを示す。
論文 参考訳(メタデータ) (2023-04-03T18:47:37Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。