論文の概要: Enhancing Machine Learning Potentials through Transfer Learning across Chemical Elements
- arxiv url: http://arxiv.org/abs/2502.13522v1
- Date: Wed, 19 Feb 2025 08:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:58:51.301780
- Title: Enhancing Machine Learning Potentials through Transfer Learning across Chemical Elements
- Title(参考訳): 化学元素間の伝達学習による機械学習の可能性の強化
- Authors: Sebastien Röcken, Julija Zavadlav,
- Abstract要約: 機械学習ポテンシャル(MLP)は、計算コストの桁違いでアブ初期精度のシミュレーションを可能にする。
ここでは化学的に類似した元素間のポテンシャルエネルギー表面の移動学習を紹介する。
我々は,伝達学習が力予測のスクラッチから従来の訓練を超越し,より安定なシミュレーションと温度伝達性の向上をもたらすことを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine Learning Potentials (MLPs) can enable simulations of ab initio accuracy at orders of magnitude lower computational cost. However, their effectiveness hinges on the availability of considerable datasets to ensure robust generalization across chemical space and thermodynamic conditions. The generation of such datasets can be labor-intensive, highlighting the need for innovative methods to train MLPs in data-scarce scenarios. Here, we introduce transfer learning of potential energy surfaces between chemically similar elements. Specifically, we leverage the trained MLP for silicon to initialize and expedite the training of an MLP for germanium. Utilizing classical force field and ab initio datasets, we demonstrate that transfer learning surpasses traditional training from scratch in force prediction, leading to more stable simulations and improved temperature transferability. These advantages become even more pronounced as the training dataset size decreases. The out-of-target property analysis shows that transfer learning leads to beneficial but sometimes adversarial effects. Our findings demonstrate that transfer learning across chemical elements is a promising technique for developing accurate and numerically stable MLPs, particularly in a data-scarce regime.
- Abstract(参考訳): 機械学習ポテンシャル(MLP)は、計算コストの桁違いでアブ初期精度のシミュレーションを可能にする。
しかし、その有効性は、化学空間と熱力学条件をまたいだ堅牢な一般化を保証するために、かなりのデータセットが利用可能であることにかかっている。
このようなデータセットの生成は労働集約的であり、データスカースシナリオでMLPをトレーニングする革新的な方法の必要性を強調している。
ここでは化学的に類似した元素間のポテンシャルエネルギー表面の移動学習を紹介する。
具体的には、トレーニング済みのMLPをシリコンに利用して、ゲルマニウム用MLPのトレーニングを初期化し、高速化する。
古典的な力場とab initioデータセットを用いることで、伝達学習が力予測のスクラッチから従来の訓練を超越し、より安定したシミュレーションと温度伝達性の向上が実現された。
トレーニングデータセットのサイズが小さくなるにつれて、これらのメリットはさらに顕著になる。
対象外特性分析は、伝達学習が有益であるが時として敵対的な効果をもたらすことを示している。
ケミカル要素間の伝達学習は,特にデータスカース方式において,正確かつ数値的に安定なMLPを開発する上で有望な手法であることを示す。
関連論文リスト
- Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
我々は、機械学習型原子間ポテンシャルのトレーニングのための物理インフォームド、弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - Optimal design of experiments in the context of machine-learning inter-atomic potentials: improving the efficiency and transferability of kernel based methods [0.7234862895932991]
原子間相互作用のデータ駆動機械学習(ML)モデルは、原子配列のニュアンスな側面をエネルギーと力の予測に関連付けることができる。
主な課題は、化学環境のディスクリプタが、よく明確に定義された連続計量のない高次元の物体であるという事実に起因している。
実験の統計的計画と最適設計の古典的な概念は、そのような問題を比較的低い計算コストで緩和するのに役立つことを実証する。
論文 参考訳(メタデータ) (2024-05-14T14:14:23Z) - Considerations in the use of ML interaction potentials for free energy calculations [0.0]
機械学習ポテンシャル(MLP)は、分子のエネルギーと自由エネルギーのランドスケープを正確にモデル化する能力を提供する。
トレーニングデータ中の集合変数(CV)の分布が,システムの自由エネルギー面(FES)を決定する際の精度に与える影響について検討した。
ブタンの発見から,キーFES領域のトレーニングデータカバレッジにより,CV分布にかかわらずモデルの精度が保証されることがわかった。
論文 参考訳(メタデータ) (2024-03-20T19:49:21Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Lifelong Machine Learning Potentials [0.0]
本稿では, 元素中心関数 (eeACSF) を導入し, 構造特性と周期表からの元素情報を組み合わせた。
我々は、新しいデータの連続ストリーム上で自律的およびオンザフライトレーニングを可能にするために、継続的な学習戦略を適用します。
論文 参考訳(メタデータ) (2023-03-10T13:38:36Z) - Transfer learning for chemically accurate interatomic neural network
potentials [0.0]
密度汎関数計算から得られたデータに基づいてネットワークパラメータを事前学習することにより、より正確なab-initioデータに基づいてトレーニングされたモデルのサンプル効率が向上することを示す。
ANI-1x および ANI-1ccx データセット上で事前訓練および微調整されたGM-NN電位を提供する。
論文 参考訳(メタデータ) (2022-12-07T19:21:01Z) - Improving Molecular Representation Learning with Metric
Learning-enhanced Optimal Transport [49.237577649802034]
分子レグレッション問題に対する一般化能力を高めるために,MROTと呼ばれる新しい最適輸送ベースアルゴリズムを開発した。
MROTは最先端のモデルよりも優れており、新しい物質の発見を加速する有望な可能性を示している。
論文 参考訳(メタデータ) (2022-02-13T04:56:18Z) - Federated Learning of Molecular Properties in a Heterogeneous Setting [79.00211946597845]
これらの課題に対処するために、フェデレーションヘテロジニアス分子学習を導入する。
フェデレートラーニングにより、エンドユーザは、独立したクライアント上に分散されたトレーニングデータを保存しながら、グローバルモデルを協調的に構築できる。
FedChemは、化学におけるAI改善のための新しいタイプのコラボレーションを可能にする必要がある。
論文 参考訳(メタデータ) (2021-09-15T12:49:13Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - Machine Learning Force Fields [54.48599172620472]
機械学習(ML)は、計算化学の多くの進歩を可能にした。
最も有望な応用の1つは、MLベースの力場(FF)の構築である。
本稿では,ML-FFの応用と,それらから得られる化学的知見について概説する。
論文 参考訳(メタデータ) (2020-10-14T13:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。