論文の概要: Leveraging neural network interatomic potentials for a foundation model of chemistry
- arxiv url: http://arxiv.org/abs/2506.18497v1
- Date: Mon, 23 Jun 2025 10:49:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.941867
- Title: Leveraging neural network interatomic potentials for a foundation model of chemistry
- Title(参考訳): 化学の基礎モデルのためのニューラルネットワークの原子間ポテンシャルの活用
- Authors: So Yeon Kim, Yang Jeong Park, Ju Li,
- Abstract要約: HackNIPは、事前訓練されたニューラルネットワークの原子間ポテンシャルを利用する2段階のパイプラインである。
まず、NIPファンデーションモデルから固定長特徴ベクトルを抽出し、次にこれらの埋め込みを使用して浅いMLモデルを訓練する。
本研究では、NIPのハッキングによるハイブリッド化アプローチが、エンドツーエンドのディープニューラルネットワークより優れているかどうかを検討する。
- 参考スコア(独自算出の注目度): 2.66269503676104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale foundation models, including neural network interatomic potentials (NIPs) in computational materials science, have demonstrated significant potential. However, despite their success in accelerating atomistic simulations, NIPs face challenges in directly predicting electronic properties and often require coupling to higher-scale models or extensive simulations for macroscopic properties. Machine learning (ML) offers alternatives for structure-to-property mapping but faces trade-offs: feature-based methods often lack generalizability, while deep neural networks require significant data and computational power. To address these trade-offs, we introduce HackNIP, a two-stage pipeline that leverages pretrained NIPs. This method first extracts fixed-length feature vectors (embeddings) from NIP foundation models and then uses these embeddings to train shallow ML models for downstream structure-to-property predictions. This study investigates whether such a hybridization approach, by ``hacking" the NIP, can outperform end-to-end deep neural networks, determines the dataset size at which this transfer learning approach surpasses direct fine-tuning of the NIP, and identifies which NIP embedding depths yield the most informative features. HackNIP is benchmarked on Matbench, evaluated for data efficiency, and tested on diverse tasks including \textit{ab initio}, experimental, and molecular properties. We also analyze how embedding depth impacts performance. This work demonstrates a hybridization strategy to overcome ML trade-offs in materials science, aiming to democratize high-performance predictive modeling.
- Abstract(参考訳): 計算材料科学におけるニューラルネットワーク原子間ポテンシャル(NIP)を含む大規模基盤モデルは、大きな可能性を示している。
しかし、原子論シミュレーションを加速させることに成功したにもかかわらず、NIPは電子的特性を直接予測する上で困難に直面し、しばしばより大規模なモデルやマクロ的特性の広範なシミュレーションに結合する必要がある。
機械学習(ML)は構造からプロパティへのマッピングの代替手段を提供するが、トレードオフに直面している。
これらのトレードオフに対処するために、事前訓練されたNIPを利用する2段階パイプラインであるHackNIPを紹介します。
本手法はまず,NIP基礎モデルから固定長特徴ベクトル(埋め込み)を抽出し,その埋め込みを用いて,下流構造と固有性予測のための浅層MLモデルのトレーニングを行う。
本研究では、NIPの「ハック」によるハイブリッド化アプローチが、エンド・ツー・エンドのディープ・ニューラルネットワークを上回り、この移行学習アプローチがNIPの直接微調整を超えるデータセットサイズを判定し、どのNIP埋め込み深度が最も有益な特徴をもたらすかを同定する。
HackNIPはMatbench上でベンチマークされ、データ効率を評価し、textit{ab initio}、実験、分子特性など様々なタスクでテストされる。
埋め込み深さがパフォーマンスに与える影響も分析します。
本研究は,材料科学におけるMLトレードオフを克服するハイブリダイゼーション戦略を示し,高性能予測モデリングの民主化を目指す。
関連論文リスト
- Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Multiscale Analysis of Woven Composites Using Hierarchical Physically Recurrent Neural Networks [0.0]
織物複合材料のマルチスケール均質化には, 詳細なミクロメカニカル評価が必要である。
本研究では,2段階の代理モデルを用いた階層型物理リカレントニューラルネットワーク(HPRNN)を提案する。
論文 参考訳(メタデータ) (2025-03-06T19:02:32Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - The Importance of Being Scalable: Improving the Speed and Accuracy of Neural Network Interatomic Potentials Across Chemical Domains [4.340917737559795]
ニューラルネットワーク原子間ポテンシャル(NNIP)のスケーリングに関する研究
NNIPは、ab initio量子力学計算の代理モデルとして機能する。
我々は、スケーリング用に設計されたNNIPアーキテクチャを開発する: 効率よくスケールされた意識的原子間ポテンシャル(EScAIP)
論文 参考訳(メタデータ) (2024-10-31T17:35:57Z) - Convergence Analysis for Deep Sparse Coding via Convolutional Neural Networks [7.956678963695681]
スパースコーディングとディープラーニングの交差点を探索し,特徴抽出能力の理解を深める。
我々は、畳み込みニューラルネットワーク(CNN)のスパース特徴抽出能力の収束率を導出する。
スパースコーディングとCNNの強いつながりにインスパイアされた私たちは、ニューラルネットワークがよりスパースな機能を学ぶように促すトレーニング戦略を探求する。
論文 参考訳(メタデータ) (2024-08-10T12:43:55Z) - Spline-based neural network interatomic potentials: blending classical
and machine learning models [0.0]
本稿では,スプラインベースMEAMポテンシャルの単純さとニューラルネットワークアーキテクチャの柔軟性を融合したMLIPフレームワークを提案する。
我々は,このフレームワークを用いて,古典的IPとMLIPの境界を探索する方法を実証する。
論文 参考訳(メタデータ) (2023-10-04T15:42:26Z) - Information Bottleneck Analysis of Deep Neural Networks via Lossy Compression [37.69303106863453]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析を行うためのフレームワークを提案する。
また,MI力学の新たな特徴を明らかにするため,実規模に近いISB解析を行う。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。