論文の概要: Learning from the electronic structure of molecules across the periodic table
- arxiv url: http://arxiv.org/abs/2510.00224v1
- Date: Tue, 30 Sep 2025 19:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.230022
- Title: Learning from the electronic structure of molecules across the periodic table
- Title(参考訳): 周期表上の分子の電子構造から学ぶ
- Authors: Manasa Kaniselvan, Benjamin Kurt Miller, Meng Gao, Juno Nam, Daniel S. Levine,
- Abstract要約: 機械学習型原子間ポテンシャル(MLIP)は、力とエネルギーを学ぶために大量の原子構造データを必要とする。
我々は、原子レベル特性のトレーニングパイプラインに向けて、軌道相互作用データをHに組み込むためのレシピを提供する。
- 参考スコア(独自算出の注目度): 5.587550586452765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-Learned Interatomic Potentials (MLIPs) require vast amounts of atomic structure data to learn forces and energies, and their performance continues to improve with training set size. Meanwhile, the even greater quantities of accompanying data in the Hamiltonian matrix H behind these datasets has so far gone unused for this purpose. Here, we provide a recipe for integrating the orbital interaction data within H towards training pipelines for atomic-level properties. We first introduce HELM ("Hamiltonian-trained Electronic-structure Learning for Molecules"), a state-of-the-art Hamiltonian prediction model which bridges the gap between Hamiltonian prediction and universal MLIPs by scaling to H of structures with 100+ atoms, high elemental diversity, and large basis sets including diffuse functions. To accompany HELM, we release a curated Hamiltonian matrix dataset, 'OMol_CSH_58k', with unprecedented elemental diversity (58 elements), molecular size (up to 150 atoms), and basis set (def2-TZVPD). Finally, we introduce 'Hamiltonian pretraining' as a method to extract meaningful descriptors of atomic environments even from a limited number atomic structures, and repurpose this shared embedding space to improve performance on energy-prediction in low-data regimes. Our results highlight the use of electronic interactions as a rich and transferable data source for representing chemical space.
- Abstract(参考訳): 機械学習型原子間ポテンシャル(MLIP)は、力とエネルギーを学ぶために大量の原子構造データを必要とし、その性能はトレーニングセットのサイズによって改善され続けている。
一方、これらのデータセットの背後にあるハミルトン行列Hの付随するデータはさらに多く、この目的のために使われていない。
ここでは、原子レベル特性のトレーニングパイプラインに向けて、H内での軌道相互作用データを統合するためのレシピを提供する。
まずHELM(Hamiltonian-trained Electronic-structure Learning for Molecules)という,100以上の原子を持つ構造のHへのスケーリング,高次多様性,拡散関数を含む大きな基底集合によるハミルトン予測と普遍MLIPのギャップを埋める,最先端のハミルトン予測モデルを紹介した。
HELMに付随するため、前例のない元素多様性(58元素)、分子サイズ(最大150原子)、基底集合(def2-TZVPD)を持つハミルトン行列データセット「OMol_CSH_58k」を作成した。
最後に、有限個の原子構造から原子環境の有意義な記述子を抽出する手法として「ハミルトニアン事前学習」を導入し、この共有埋め込み空間を低データ状態におけるエネルギー予測性能を向上させるために再利用する。
本結果は,電子相互作用を化学空間を表現するためのリッチで転送可能なデータソースとして利用することを強調した。
関連論文リスト
- Tokenizing Electron Cloud in Protein-Ligand Interaction Learning [51.74909649330779]
ECBindは電子雲信号を量子化埋め込みにトークン化する方法である。
これは、原子レベルのモデルで完全に表現できないバインディングモードを明らかにするのに役立つ。
適用範囲を幅広いシナリオに広げるために,我々は知識蒸留を用いて電子クラウドに依存しない予測モデルを構築した。
論文 参考訳(メタデータ) (2025-05-25T07:36:50Z) - QH9: A Quantum Hamiltonian Prediction Benchmark for QM9 Molecules [69.25826391912368]
QH9と呼ばれる新しい量子ハミルトンデータセットを生成し、999または2998の分子動力学軌道に対して正確なハミルトン行列を提供する。
現在の機械学習モデルでは、任意の分子に対するハミルトン行列を予測する能力がある。
論文 参考訳(メタデータ) (2023-06-15T23:39:07Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z) - Graph Neural Network for Hamiltonian-Based Material Property Prediction [56.94118357003096]
無機材料のバンドギャップを予測できるいくつかの異なるグラフ畳み込みネットワークを提示し、比較する。
モデルは、それぞれの軌道自体の情報と相互の相互作用の2つの異なる特徴を組み込むように開発されている。
その結果,クロスバリデーションにより予測精度が期待できることがわかった。
論文 参考訳(メタデータ) (2020-05-27T13:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。