論文の概要: Elign: Equivariant Diffusion Model Alignment from Foundational Machine Learning Force Fields
- arxiv url: http://arxiv.org/abs/2601.21985v1
- Date: Thu, 29 Jan 2026 17:00:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.0206
- Title: Elign: Equivariant Diffusion Model Alignment from Foundational Machine Learning Force Fields
- Title(参考訳): Elign: 基礎学習力場からの同変拡散モデルアライメント
- Authors: Yunyang Li, Lin Huang, Luojia Xia, Wenhe Zhang, Mark Gerstein,
- Abstract要約: 両コストを償却するポストトレーニングフレームワークであるElignを紹介します。
我々は、高価なDFT評価を、より高速で事前訓練された基礎学習力場に置き換える。
実験により、エリーンは安定性を改善しつつ、より低い金標準のDFTエネルギーと力でコンフォメーションを生成することが示された。
- 参考スコア(独自算出の注目度): 7.740456623132954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models for 3D molecular conformations must respect Euclidean symmetries and concentrate probability mass on thermodynamically favorable, mechanically stable structures. However, E(3)-equivariant diffusion models often reproduce biases from semi-empirical training data rather than capturing the equilibrium distribution of a high-fidelity Hamiltonian. While physics-based guidance can correct this, it faces two computational bottlenecks: expensive quantum-chemical evaluations (e.g., DFT) and the need to repeat such queries at every sampling step. We present Elign, a post-training framework that amortizes both costs. First, we replace expensive DFT evaluations with a faster, pretrained foundational machine-learning force field (MLFF) to provide physical signals. Second, we eliminate repeated run-time queries by shifting physical steering to the training phase. To achieve the second amortization, we formulate reverse diffusion as a reinforcement learning problem and introduce Force--Energy Disentangled Group Relative Policy Optimization (FED-GRPO) to fine-tune the denoising policy. FED-GRPO includes a potential-based energy reward and a force-based stability reward, which are optimized and group-normalized independently. Experiments show that Elign generates conformations with lower gold-standard DFT energies and forces, while improving stability. Crucially, inference remains as fast as unguided sampling, since no energy evaluations are required during generation.
- Abstract(参考訳): 3次元分子配座の生成モデルはユークリッド対称性を尊重し、熱力学的に好ましく、機械的に安定な構造に確率質量を集中させなければならない。
しかし、E(3)-同変拡散モデルは、高忠実度ハミルトニアンの平衡分布を捉えるのではなく、半経験的トレーニングデータからバイアスを再現することが多い。
物理学に基づくガイダンスではこれを修正できるが、高価な量子化学評価(例えば、DFT)と、サンプリングステップ毎にそのようなクエリを繰り返す必要があるという2つの計算ボトルネックに直面している。
両コストを償却するポストトレーニングフレームワークであるElignを紹介します。
まず、高価なDFT評価を高速で事前訓練された基礎学習力場(MLFF)に置き換え、物理信号を提供する。
第2に、物理ステアリングをトレーニングフェーズにシフトすることで、繰り返し実行時のクエリを除去する。
第2の償却を実現するために、強化学習問題として逆拡散を定式化し、復調政策を微調整するためにFED-GRPO(Force-Energy Disentangled Group Relative Policy Optimization)を導入する。
FED-GRPOはポテンシャルに基づくエネルギー報酬と力に基づく安定性報酬を含み、独立して最適化され群正規化される。
実験により、エリーンは安定性を改善しつつ、より低い金標準のDFTエネルギーと力でコンフォメーションを生成することが示された。
重要なことは、世代間エネルギー評価は必要とされないため、推論は無誘導サンプリングと同じくらい速いままである。
関連論文リスト
- PHDME: Physics-Informed Diffusion Models without Explicit Governing Equations [0.496981595868944]
拡散モデルは、力学系の軌跡を予測するための表現力のある先行情報を提供するが、通常スパースデータ構造では信頼できない。
エルフスパース観測および不完全物理のために設計されたポート・ハミルトン拡散フレームワークである textbfPHDME を紹介する。
PDEベンチマークと実世界のスプリングシステムの実験では、データの不足下での精度と物理的一貫性が改善された。
論文 参考訳(メタデータ) (2026-01-29T03:53:48Z) - Enhanced Sampling for Efficient Learning of Coarse-Grained Machine Learning Potentials [2.8355616606687506]
我々は、データ生成の自由度に偏りを生じさせ、非偏りのあるポテンシャルに関して力を再計算する。
この戦略は、平衡データを生成するのに必要なシミュレーション時間を同時に短縮し、正しいPMFを保ちながら、遷移領域におけるサンプリングを強化する。
本研究は,CGの精度と信頼性を向上させるために,力マッチングのための改良されたサンプリングを有望な方向として活用することを支援する。
論文 参考訳(メタデータ) (2025-10-13T08:40:13Z) - Guiding Diffusion Models with Reinforcement Learning for Stable Molecule Generation [16.01877423456416]
物理フィードバックを用いた強化学習(Reinforcement Learning with Physical Feedback, RLPF)は, 拡散政策最適化を3次元分子生成に拡張する新しいフレームワークである。
RLPFは、力場評価から得られる報酬関数を導入し、エネルギー的に安定で物理的に意味のある構造への生成を導く。
QM9およびGEOM-drugデータセットの実験により、RLPFは既存の方法と比較して分子安定性を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-08-22T16:44:55Z) - Consistent Sampling and Simulation: Molecular Dynamics with Energy-Based Diffusion Models [50.77646970127369]
本稿では,Fokker-Planck由来の正規化項を用いたエネルギーベース拡散モデルを提案する。
高速折りたたみタンパク質を含む複数の生体分子系をサンプリング・シミュレートし,本手法を実証する。
論文 参考訳(メタデータ) (2025-06-20T16:38:29Z) - Flow Matching Meets PDEs: A Unified Framework for Physics-Constrained Generation [21.321570407292263]
本稿では,PDE残差と代数的関係の両方の物理制約をフローマッチングの対象に組み込む生成フレームワークである物理ベースフローマッチングを提案する。
提案手法では,FMよりも高精度な物理残差を最大8倍に抑えながら,分布精度では既存アルゴリズムよりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2025-06-10T09:13:37Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - May the Force be with You: Unified Force-Centric Pre-Training for 3D
Molecular Conformations [19.273404278711794]
平衡データとオフ平衡データの両方をカバーする3次元分子配座のための力中心事前学習モデルを提案する。
平衡データに対しては, ゼロフォース正則化と強制的復調法を導入し, 近似平衡力について検討する。
実験により, 事前学習目標により, 未訓練の同変変変圧器モデルと比較して, 力の精度を約3倍に向上することを示した。
論文 参考訳(メタデータ) (2023-08-24T01:54:02Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。