論文の概要: Learning Inter-Atomic Potentials without Explicit Equivariance
- arxiv url: http://arxiv.org/abs/2510.00027v1
- Date: Thu, 25 Sep 2025 22:15:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.106179
- Title: Learning Inter-Atomic Potentials without Explicit Equivariance
- Title(参考訳): 明示的等分散を伴わない原子間ポテンシャルの学習
- Authors: Ahmed A. Elhag, Arun Raja, Alex Morehead, Samuel M. Blau, Garrett M. Morris, Michael M. Bronstein,
- Abstract要約: 現在の最先端モデルは、同変ニューラルネットワークアーキテクチャを通じてロト翻訳対称性を強制する。
TransIP: Transformer-based Inter-Atomic potentials, a novel training paradigm for interatomic potentials to achieved symmetric compliance。
- 参考スコア(独自算出の注目度): 24.438029202222555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate and scalable machine-learned inter-atomic potentials (MLIPs) are essential for molecular simulations ranging from drug discovery to new material design. Current state-of-the-art models enforce roto-translational symmetries through equivariant neural network architectures, a hard-wired inductive bias that can often lead to reduced flexibility, computational efficiency, and scalability. In this work, we introduce TransIP: Transformer-based Inter-Atomic Potentials, a novel training paradigm for interatomic potentials achieving symmetry compliance without explicit architectural constraints. Our approach guides a generic non-equivariant Transformer-based model to learn SO(3)-equivariance by optimizing its representations in the embedding space. Trained on the recent Open Molecules (OMol25) collection, a large and diverse molecular dataset built specifically for MLIPs and covering different types of molecules (including small organics, biomolecular fragments, and electrolyte-like species), TransIP attains comparable performance in machine-learning force fields versus state-of-the-art equivariant baselines. Further, compared to a data augmentation baseline, TransIP achieves 40% to 60% improvement in performance across varying OMol25 dataset sizes. More broadly, our work shows that learned equivariance can be a powerful and efficient alternative to equivariant or augmentation-based MLIP models.
- Abstract(参考訳): 精密でスケーラブルな機械学習型原子間ポテンシャル(MLIP)は、薬物発見から新しい物質設計まで、分子シミュレーションに不可欠である。
現在の最先端モデルは、同変のニューラルネットワークアーキテクチャを通じてロト翻訳対称性を適用し、しばしば柔軟性、計算効率、スケーラビリティを低下させるハードワイヤ誘導バイアスである。
本稿では,トランスフォーマーをベースとした原子間ポテンシャル(Inter-Atomic Potentials)について紹介する。
提案手法は, 組込み空間における表現を最適化することにより, SO(3)-同変を学習するための汎用的非同変トランスフォーマーモデルである。
最近のOpen Molecules (OMol25) コレクションに基づいてトレーニングされ、MLIPに特化して構築され、様々な種類の分子(小さな有機物、生体分子の断片、電解質のような種を含む)をカバーする、大規模で多様な分子データセットである。
さらに、データ拡張ベースラインと比較して、TransIPはさまざまなOMol25データセットサイズで40%から60%のパフォーマンス改善を実現している。
より広義に、学習された同値性は、同変モデルや拡張ベースのMLIPモデルに対する強力で効率的な代替手段であることを示す。
関連論文リスト
- A standard transformer and attention with linear biases for molecular conformer generation [0.16741831494720966]
等変ネットワークは、2次元分子グラフから分子配座を生成するように設計されている。
非同変変圧器モデルは、一般化を改善するためにスケールする能力のために、実現可能な代替品として登場した。
本稿では,これらのサイズ制限を効果的に扱える位置符号化法について述べる。
論文 参考訳(メタデータ) (2025-06-24T17:50:49Z) - Equivariant Machine Learning Interatomic Potentials with Global Charge Redistribution [1.6112718683989882]
機械学習原子間ポテンシャル(MLIP)は、物質特性を予測するための量子力学シミュレーションの計算的に効率的な代替手段を提供する。
我々は、電子自由度を明示的に処理することで、長距離クーロン相互作用を取り入れた新しい同変MLIPを開発する。
我々は,ベンチマーク周期的および非周期的データセットの領域にわたって,我々のモデルを体系的に評価し,短距離同変および長距離不変MLIPよりもエネルギーおよび力の予測が優れていることを示した。
論文 参考訳(メタデータ) (2025-03-23T05:26:55Z) - A Materials Foundation Model via Hybrid Invariant-Equivariant Architectures [53.273077346444886]
機械学習の原子間ポテンシャル(MLIP)は材料のエネルギー、力、ストレスを予測する。
MLIPにおける重要な設計選択は、不変アーキテクチャと同変アーキテクチャのトレードオフである。
HIENetは、不変層と同変層の両方を統合した、ハイブリッド不変・同変物質間ポテンシャルモデルである。
論文 参考訳(メタデータ) (2025-02-25T18:01:05Z) - Interpolation and differentiation of alchemical degrees of freedom in machine learning interatomic potentials [0.980222898148295]
原子性物質シミュレーションにおける連続的および微分可能なアルケミカル自由度の利用について報告する。
提案手法は,MLIPのメッセージパッシングおよび読み出し機構の変更とともに,対応する重みを持つアルケミカル原子を入力グラフに導入する。
MLIPのエンドツーエンドの微分可能性により、構成重みに対するエネルギー勾配の効率的な計算が可能となる。
論文 参考訳(メタデータ) (2024-04-16T17:24:22Z) - MUDiff: Unified Diffusion for Complete Molecule Generation [104.7021929437504]
本稿では,原子の特徴,2次元離散分子構造,および3次元連続分子座標を含む分子の包括的表現を生成する新しいモデルを提案する。
拡散過程を認知するための新しいグラフトランスフォーマーアーキテクチャを提案する。
我々のモデルは、安定で多様な分子を設計するための有望なアプローチであり、分子モデリングの幅広いタスクに適用できる。
論文 参考訳(メタデータ) (2023-04-28T04:25:57Z) - Molecular Geometry-aware Transformer for accurate 3D Atomic System
modeling [51.83761266429285]
本稿では,ノード(原子)とエッジ(結合と非結合の原子対)を入力とし,それらの相互作用をモデル化するトランスフォーマーアーキテクチャを提案する。
MoleformerはOC20の緩和エネルギー予測の初期状態の最先端を実現し、QM9では量子化学特性の予測に非常に競争力がある。
論文 参考訳(メタデータ) (2023-02-02T03:49:57Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Geometric Transformer for End-to-End Molecule Properties Prediction [92.28929858529679]
分子特性予測のためのトランスフォーマーに基づくアーキテクチャを導入し,分子の形状を捉える。
分子幾何学の初期符号化による古典的な位置エンコーダと、学習されたゲート自己保持機構を改変する。
論文 参考訳(メタデータ) (2021-10-26T14:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。