論文の概要: Diffusion Models are Molecular Dynamics Simulators
- arxiv url: http://arxiv.org/abs/2511.17741v2
- Date: Thu, 27 Nov 2025 06:56:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 13:46:31.764889
- Title: Diffusion Models are Molecular Dynamics Simulators
- Title(参考訳): 拡散モデルと分子動力学シミュレーション
- Authors: Justin Diamond, Markus Lill,
- Abstract要約: バッチ次元に逐次バイアスを付与したデノナイズ拡散サンプリング器が,ランゲヴィン力学を過度に破壊するオイラー・丸山積分器であることを証明した。
各逆消音ステップは、その関連するばね剛性を伴って、ノイズスケジュールとその剛性とで協調して設定された有効時間ステップを有する微分方程式の一段階と解釈することができる。
学習したスコアは、学習したエネルギーの勾配の役割を担い、拡散サンプリングとランゲヴィン時間進化の正確な対応を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We prove that a denoising diffusion sampler equipped with a sequential bias across the batch dimension is exactly an Euler-Maruyama integrator for overdamped Langevin dynamics. Each reverse denoising step, with its associated spring stiffness, can be interpreted as one step of a stochastic differential equation with an effective time step set jointly by the noise schedule and that stiffness. The learned score then plays the role of the drift, equivalently the gradient of a learned energy, yielding a precise correspondence between diffusion sampling and Langevin time evolution. This equivalence recasts molecular dynamics (MD) in terms of diffusion models. Accuracy is no longer tied to a fixed, extremely small MD time step; instead, it is controlled by two scalable knobs: model capacity, which governs how well the drift is approximated, and the number of denoising steps, which sets the integrator resolution. In practice, this leads to a fully data-driven MD framework that learns forces from uncorrelated equilibrium snapshots, requires no hand-engineered force fields, uses no trajectory data for training, and still preserves the Boltzmann distribution associated with the learned energy. We derive trajectory-level, information-theoretic error bounds that cleanly separate discretization error from score-model error, clarify how temperature enters through the effective spring, and show that the resulting sampler generates molecular trajectories with MD-like temporal correlations, even though the model is trained only on static configurations.
- Abstract(参考訳): バッチ次元に逐次バイアスを付与したデノナイズ拡散サンプリング器が,ランゲヴィン力学を過度に破壊するオイラー・丸山積分器であることを証明した。
各逆復調ステップは、関連するばね剛性を伴って、ノイズスケジュールと剛性とで協調的に設定された有効時間ステップを有する確率微分方程式の一段階として解釈することができる。
学習したスコアは、ドリフト、すなわち学習エネルギーの勾配の役割を担い、拡散サンプリングとランゲヴィン時間進化の正確な一致をもたらす。
この等価性は拡散モデルの観点から分子動力学(MD)を再キャストする。
精度は固定された非常に小さなMD時間ステップに縛られなくなり、代わりに2つのスケーラブルなノブによって制御される。
実際には、これは完全にデータ駆動のMDフレームワークにつながり、非相関な平衡スナップショットから力を学び、手動の力場を必要とせず、訓練に軌道データを使用しず、学習エネルギーに関連するボルツマン分布を保存している。
提案手法は, 離散化誤差をスコアモデル誤差からきれいに分離し, 有効ばねを通して温度がどのように入ってくるかを明らかにし, モデルが静的な構成でのみ訓練されたとしても, MDのような時間相関を持つ分子軌道を生成することを示す。
関連論文リスト
- Towards Fast Coarse-graining and Equation Discovery with Foundation Inference Models [6.403678133359229]
高次元記録における潜伏力学は、しばしばより小さな有効変数の集合によって特徴づけられる。
ほとんどの機械学習アプローチは、動的一貫性を強制するモデルとともにオートエンコーダをトレーニングすることで、これらのタスクに共同で取り組む。
我々は最近導入されたファンデーション推論モデル(FIM)を利用して2つの問題を分離することを提案する。
半円拡散を合成ビデオデータに埋め込んだ二重井戸系における概念実証は、高速で再利用可能な粗粒化パイプラインに対するこのアプローチの可能性を示している。
論文 参考訳(メタデータ) (2025-10-14T15:17:23Z) - Consistent Sampling and Simulation: Molecular Dynamics with Energy-Based Diffusion Models [50.77646970127369]
本稿では,Fokker-Planck由来の正規化項を用いたエネルギーベース拡散モデルを提案する。
高速折りたたみタンパク質を含む複数の生体分子系をサンプリング・シミュレートし,本手法を実証する。
論文 参考訳(メタデータ) (2025-06-20T16:38:29Z) - Kernel-Smoothed Scores for Denoising Diffusion: A Bias-Variance Study [3.265950484493743]
拡散モデルは暗記しがちである。
スコアの正規化は、トレーニングデータセットのサイズを増やすのと同じ効果がある。
この視点は、拡散をデノナイズする2つの規則化機構を強調する。
論文 参考訳(メタデータ) (2025-05-28T20:22:18Z) - Energy-Based Coarse-Graining in Molecular Dynamics: A Flow-Based Framework without Data [0.0]
粗粒モデル(CG)は分子シミュレーションの複雑さを減らす効果的な経路を提供する。
本稿では,全原子ボルツマン分布を直接対象とするCGのための完全データフリーな生成フレームワークを提案する。
本手法はボルツマン分布のすべてのモードを捕捉し、原子配置を再構成し、自動的に物理的に意味のあるCG表現を学習することを示す。
論文 参考訳(メタデータ) (2025-04-29T17:05:27Z) - Improving Consistency Models with Generator-Augmented Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,一貫性モデルから得られたノイズデータを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。