論文の概要: Comparing the latent features of universal machine-learning interatomic potentials
- arxiv url: http://arxiv.org/abs/2512.05717v1
- Date: Fri, 05 Dec 2025 13:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.043785
- Title: Comparing the latent features of universal machine-learning interatomic potentials
- Title(参考訳): 普遍的機械学習による原子間ポテンシャルの潜在的特徴の比較
- Authors: Sofiia Chorna, Davide Tisi, Cesare Malosso, Wei Bin How, Michele Ceriotti, Sanggyu Chong,
- Abstract要約: 機械学習による原子間ポテンシャル(uMLIP)が化学空間を著しく異なる方法で符号化していることを示す。
MLIPによって直接出力される原子レベルの特徴をグローバルな構造レベルの特徴に圧縮する方法について議論する。
- 参考スコア(独自算出の注目度): 1.2314765641075438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The past few years have seen the development of ``universal'' machine-learning interatomic potentials (uMLIPs) capable of approximating the ground-state potential energy surface across a wide range of chemical structures and compositions with reasonable accuracy. While these models differ in the architecture and the dataset used, they share the ability to compress a staggering amount of chemical information into descriptive latent features. Herein, we systematically analyze what the different uMLIPs have learned by quantitatively assessing the relative information content of their latent features with feature reconstruction errors as metrics, and observing how the trends are affected by the choice of training set and training protocol. We find that the uMLIPs encode chemical space in significantly distinct ways, with substantial cross-model feature reconstruction errors. When variants of the same model architecture are considered, trends become dependent on the dataset, target, and training protocol of choice. We also observe that fine-tuning of a uMLIP retains a strong pre-training bias in the latent features. Finally, we discuss how atom-level features, which are directly output by MLIPs, can be compressed into global structure-level features via concatenation of progressive cumulants, each adding significantly new information about the variability across the atomic environments within a given system.
- Abstract(参考訳): 過去数年間、幅広い化学構造や組成を正確に近似できる「ユニバーサル」機械学習原子間ポテンシャル(uMLIP)の開発が見られた。
これらのモデルは、アーキテクチャと使用するデータセットが異なるが、膨大な量の化学物質情報を記述的な潜在機能に圧縮する能力を共有している。
そこで本研究では,機能再構成エラーを指標として,潜在特徴の相対的情報内容を定量的に評価し,トレーニングセットとトレーニングプロトコルの選択によって傾向がどう影響するかを観察することにより,異なるuMLIPが学んだことを体系的に分析する。
UMLIPは化学空間を著しく異なる方法でエンコードし, 相互モデルの特徴的再構成誤差がかなり大きいことが判明した。
同じモデルアーキテクチャの変種を考慮すると、トレンドは選択したデータセット、ターゲット、トレーニングプロトコルに依存します。
また,UMLIPの微調整は潜在機能に強い事前学習バイアスを保っていることも観察した。
最後に, MLIPによって直接出力される原子レベルの特徴を, プログレッシブ累積体の連結によりグローバルな構造レベルの特徴に圧縮する方法を論じる。
関連論文リスト
- Foundation Models for Discovery and Exploration in Chemical Space [57.97784111110166]
MISTは、大規模なラベルなしデータセットに基づいて訓練された分子基盤モデルのファミリーである。
我々は、これらのモデルが化学空間をまたいだ現実世界の問題を解決する能力を実証する。
論文 参考訳(メタデータ) (2025-10-20T17:56:01Z) - Beyond Benchmarks: Understanding Mixture-of-Experts Models through Internal Mechanisms [55.1784306456972]
Mixture-of-Experts (MoE)アーキテクチャは、推論中にパラメータのサブセットだけをアクティベートすることで、効率とスケーラビリティを提供する、有望な方向性として登場した。
内部メトリックを用いて、ルーティング機構を明示的に取り入れ、専門家レベルの振る舞いを分析することで、MoEアーキテクチャのメカニズムを解明する。
その結果,(1)モデルの発展に伴ってニューロンの利用が減少し,より高度な一般化が期待できる,(2)ベンチマークのパフォーマンスが限られた信号のみを提供するダイナミックな軌道を示す,(3)複数の専門家の協力的貢献からタスク完了が生じる,(4)ニューロンレベルでの活性化パターンがデータ多様性のきめ細かいプロキシを提供する,といった結果が得られた。
論文 参考訳(メタデータ) (2025-09-28T15:13:38Z) - MOFSimBench: Evaluating Universal Machine Learning Interatomic Potentials In Metal--Organic Framework Molecular Modeling [0.19506923346234722]
UMLIP(Universal Machine Learning Interatomic potentials)は、原子論シミュレーションを加速するための強力なツールとして登場した。
ナノポーラス材料の主要材料モデリングタスクにおけるuMLIPの評価ベンチマークであるMOFSimBenchを紹介する。
トップパフォーマンスのuMLIPは、古典的な力場や、あらゆるタスクにわたって微調整された機械学習能力より一貫して優れています。
論文 参考訳(メタデータ) (2025-07-16T00:00:55Z) - Pretraining Graph Transformers with Atom-in-a-Molecule Quantum Properties for Improved ADMET Modeling [38.53065398127086]
我々は,グラフトランスフォーマーの事前学習が原子レベルの量子力学特性に与える影響を評価する。
原子量子力学的性質に基づいて事前訓練されたモデルは、より低周波ラプラシアン固有モードを捕捉する。
論文 参考訳(メタデータ) (2024-10-10T15:20:30Z) - Benchmark on Drug Target Interaction Modeling from a Structure Perspective [48.60648369785105]
薬物と標的の相互作用の予測は、薬物の発見と設計に不可欠である。
グラフニューラルネットワーク(GNN)やトランスフォーマーに基づく最近の手法は、さまざまなデータセットで例外的なパフォーマンスを示している。
我々は,GNNベースと暗黙的(トランスフォーマーベース)構造学習アルゴリズムを多用することにより,構造の観点からの薬物-標的相互作用モデリングの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2024-07-04T16:56:59Z) - Interpolation and differentiation of alchemical degrees of freedom in machine learning interatomic potentials [0.980222898148295]
原子性物質シミュレーションにおける連続的および微分可能なアルケミカル自由度の利用について報告する。
提案手法は,MLIPのメッセージパッシングおよび読み出し機構の変更とともに,対応する重みを持つアルケミカル原子を入力グラフに導入する。
MLIPのエンドツーエンドの微分可能性により、構成重みに対するエネルギー勾配の効率的な計算が可能となる。
論文 参考訳(メタデータ) (2024-04-16T17:24:22Z) - Role of Structural and Conformational Diversity for Machine Learning
Potentials [4.608732256350959]
量子力学におけるデータバイアスとモデル一般化の関係について検討する。
この結果から,一般化指標の微妙なパターンが明らかになった。
これらの知見は、QMデータ生成のための貴重な洞察とガイドラインを提供する。
論文 参考訳(メタデータ) (2023-10-30T19:33:12Z) - Learning Multiscale Consistency for Self-supervised Electron Microscopy
Instance Segmentation [48.267001230607306]
本稿では,EMボリュームのマルチスケール一貫性を高める事前学習フレームワークを提案する。
当社のアプローチでは,強力なデータ拡張と弱いデータ拡張を統合することで,Siameseネットワークアーキテクチャを活用している。
効果的にボクセルと機能の一貫性をキャプチャし、EM分析のための転送可能な表現を学習する。
論文 参考訳(メタデータ) (2023-08-19T05:49:13Z) - Differentiable Agent-based Epidemiology [71.81552021144589]
GradABM(GradABM)は、エージェントベースのモデリングのためのスケーラブルで微分可能な設計で、勾配に基づく学習と自動微分が可能である。
GradABMは、コモディティハードウェア上で数秒で数百万の人口をシミュレートし、ディープニューラルネットワークと統合し、異種データソースを取り込みます。
論文 参考訳(メタデータ) (2022-07-20T07:32:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。