論文の概要: MatRIS: Toward Reliable and Efficient Pretrained Machine Learning Interatomic Potentials
- arxiv url: http://arxiv.org/abs/2603.02002v2
- Date: Thu, 05 Mar 2026 16:45:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 15:25:24.255866
- Title: MatRIS: Toward Reliable and Efficient Pretrained Machine Learning Interatomic Potentials
- Title(参考訳): MatRIS: 信頼性と効率的な事前学習による原子間ポテンシャルの実現を目指して
- Authors: Yuanchang Zhou, Siyu Hu, Xiangyu Zhang, Hongyu Wang, Guangming Tan, Weile Jia,
- Abstract要約: MatRISは3体インタラクションの注意に基づくモデリングを導入する不変MLIPである。
MatRISは、様々な人気のあるベンチマークにおいて、主要な同変モデルの精度に匹敵する精度を提供する。
- 参考スコア(独自算出の注目度): 11.867736304906508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation MLIPs demonstrate broad applicability across diverse material systems and have emerged as a powerful and transformative paradigm in chemical and computational materials science. Equivariant MLIPs achieve state-of-the-art accuracy in a wide range of benchmarks by incorporating equivariant inductive bias. However, the reliance on tensor products and high-degree representations makes them computationally costly. This raises a fundamental question: as quantum mechanical-based datasets continue to expand, can we develop a more compact model to thoroughly exploit high-dimensional atomic interactions? In this work, we present MatRIS (\textbf{Mat}erials \textbf{R}epresentation and \textbf{I}nteraction \textbf{S}imulation), an invariant MLIP that introduces attention-based modeling of three-body interactions. MatRIS leverages a novel separable attention mechanism with linear complexity $O(N)$, enabling both scalability and expressiveness. MatRIS delivers accuracy comparable to that of leading equivariant models on a wide range of popular benchmarks (Matbench-Discovery, MatPES, MDR phonon, Molecular dataset, etc). Taking Matbench-Discovery as an example, MatRIS achieves an F1 score of up to 0.847 and attains comparable accuracy at a lower training cost. The work indicates that our carefully designed invariant models can match or exceed the accuracy of equivariant models at a fraction of the cost, shedding light on the development of accurate and efficient MLIPs.
- Abstract(参考訳): MLIPは様々な材料システムに適用可能性を示し、化学・計算材料科学において強力で革新的なパラダイムとして登場した。
等価なMLIPは、同変帰納バイアスを組み込むことで、幅広いベンチマークにおいて最先端の精度を達成する。
しかし、テンソル積と高次表現に依存しているため、計算コストがかかる。
量子力学に基づくデータセットが拡大を続けるにつれ、我々は高次元の原子間相互作用を徹底的に活用するよりコンパクトなモデルを開発することができるだろうか?
本研究では、3体相互作用の注意に基づくモデリングを導入する不変MLIPであるMatRIS(\textbf{Mat}erials \textbf{R}epresentation and \textbf{I}nteraction \textbf{S}imulation)を提案する。
MatRISは、線形複雑性$O(N)$で分離可能な新しいアテンションメカニズムを活用し、スケーラビリティと表現性の両方を可能にする。
MatRISは、幅広い人気のあるベンチマーク(Matbench-Discovery、MatPES、MDRフォノン、分子データセットなど)において、主要な同変モデルの精度に匹敵する。
Matbench-Discoveryを例として、MatRISはF1スコアを0.847まで達成し、より低いトレーニングコストで同等の精度を達成している。
この研究は、我々の慎重に設計された不変モデルが、コストのごく一部で同変モデルの精度を一致または超過できることを示し、正確かつ効率的なMLIPの開発に光を当てている。
関連論文リスト
- Equivariant Evidential Deep Learning for Interatomic Potentials [55.6997213490859]
不確かさの定量化は、分子動力学シミュレーションにおける機械学習の原子間ポテンシャルの信頼性を評価するために重要である。
既存のMLIPのUQアプローチは、高い計算コストや準最適性能によって制限されることが多い。
我々は,原子間ポテンシャルの定量的深層学習(texte2$IP)を提案する。
論文 参考訳(メタデータ) (2026-02-11T02:00:25Z) - A Materials Foundation Model via Hybrid Invariant-Equivariant Architectures [53.273077346444886]
機械学習の原子間ポテンシャル(MLIP)は材料のエネルギー、力、ストレスを予測する。
MLIPにおける重要な設計選択は、不変アーキテクチャと同変アーキテクチャのトレードオフである。
HIENetは、不変層と同変層の両方を統合した、ハイブリッド不変・同変物質間ポテンシャルモデルである。
論文 参考訳(メタデータ) (2025-02-25T18:01:05Z) - Large Language-Geometry Model: When LLM meets Equivariance [53.8505081745406]
本稿では,3次元物理システムを表現するための新しいフレームワークであるEquiLLMを提案する。
EquiLLMは分子動力学シミュレーション,ヒトの動作シミュレーション,抗体設計など,従来の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-16T14:50:49Z) - Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing [23.754664894759234]
原子学シミュレーションは 化学の進歩に不可欠です
機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法と第一原理法と同等の精度を達成する。
論文 参考訳(メタデータ) (2024-05-23T07:31:20Z) - Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - Data-free Weight Compress and Denoise for Large Language Models [96.68582094536032]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Lorentz group equivariant autoencoders [6.858459233149096]
Lorentz group autoencoder (LGAE)
正規直交ローレンツ群 $mathrmSO+(2,1)$ に対して自己エンコーダモデル同型を開発する。
我々はLHCのジェット機のアーキテクチャと実験結果を示し、いくつかの圧縮、再構成、異常検出の指標に基づいて、グラフと畳み込みニューラルネットワークのベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-12-14T17:19:46Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。