論文の概要: Diffusion Models are Molecular Dynamics Simulators
- arxiv url: http://arxiv.org/abs/2511.17741v1
- Date: Fri, 21 Nov 2025 19:48:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.390272
- Title: Diffusion Models are Molecular Dynamics Simulators
- Title(参考訳): 拡散モデルと分子動力学シミュレーション
- Authors: Justin Diamond, Markus Lill,
- Abstract要約: バッチ次元に逐次バイアスを付与したデノナイズ拡散サンプリング器が,ランゲヴィン力学を過度に破壊するオイラー・丸山積分器であることを証明した。
各逆消音ステップは、その関連するばね剛性を伴って、ノイズスケジュールとその剛性とで協調して設定された有効時間ステップを有する微分方程式の一段階と解釈することができる。
学習したスコアは、学習したエネルギーの勾配の役割を担い、拡散サンプリングとランゲヴィン時間進化の正確な対応を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We prove that a denoising diffusion sampler equipped with a sequential bias across the batch dimension is exactly an Euler-Maruyama integrator for overdamped Langevin dynamics. Each reverse denoising step, with its associated spring stiffness, can be interpreted as one step of a stochastic differential equation with an effective time step set jointly by the noise schedule and that stiffness. The learned score then plays the role of the drift, equivalently the gradient of a learned energy, yielding a precise correspondence between diffusion sampling and Langevin time evolution. This equivalence recasts molecular dynamics (MD) in terms of diffusion models. Accuracy is no longer tied to a fixed, extremely small MD time step; instead, it is controlled by two scalable knobs: model capacity, which governs how well the drift is approximated, and the number of denoising steps, which sets the integrator resolution. In practice, this leads to a fully data-driven MD framework that learns forces from uncorrelated equilibrium snapshots, requires no hand-engineered force fields, uses no trajectory data for training, and still preserves the Boltzmann distribution associated with the learned energy. We derive trajectory-level, information-theoretic error bounds that cleanly separate discretization error from score-model error, clarify how temperature enters through the effective spring, and show that the resulting sampler generates molecular trajectories with MD-like temporal correlations, even though the model is trained only on static configurations.
- Abstract(参考訳): バッチ次元に逐次バイアスを付与したデノナイズ拡散サンプリング器が,ランゲヴィン力学を過度に破壊するオイラー・丸山積分器であることを証明した。
各逆復調ステップは、関連するばね剛性を伴って、ノイズスケジュールと剛性とで協調的に設定された有効時間ステップを有する確率微分方程式の一段階として解釈することができる。
学習したスコアは、ドリフト、すなわち学習エネルギーの勾配の役割を担い、拡散サンプリングとランゲヴィン時間進化の正確な一致をもたらす。
この等価性は拡散モデルの観点から分子動力学(MD)を再キャストする。
精度は固定された非常に小さなMD時間ステップに縛られなくなり、代わりに2つのスケーラブルなノブによって制御される。
実際には、これは完全にデータ駆動のMDフレームワークにつながり、非相関な平衡スナップショットから力を学び、手動の力場を必要とせず、訓練に軌道データを使用しず、学習エネルギーに関連するボルツマン分布を保存している。
提案手法は, 離散化誤差をスコアモデル誤差からきれいに分離し, 有効ばねを通して温度がどのように入ってくるかを明らかにし, モデルが静的な構成でのみ訓練されたとしても, MDのような時間相関を持つ分子軌道を生成することを示す。
関連論文リスト
- Breaking the Bottlenecks: Scalable Diffusion Models for 3D Molecular Generation [0.0]
拡散モデルは分子設計のための強力な生成モデルとして登場した。
彼らの使用は、長いサンプリング軌道、逆過程のばらつき、そして力学の認知における構造的認識の制限によって制限されている。
直接分極拡散モデル(英語版)は、逆MCMC更新を決定論的分極ステップに置き換えることでこれらの非効率性を緩和する。
論文 参考訳(メタデータ) (2026-01-13T20:09:44Z) - The Principles of Diffusion Models [81.12042238390075]
拡散モデリングは、データを徐々にノイズに分解するフォワードプロセスを定義することから始まる。
目標は、ノイズをデータに変換しながら、同じ中間体を回復するリバースプロセスを学ぶことだ。
エネルギーベースモデリングに根ざしたスコアベースビューは、進化するデータ分布の勾配を学習する。
フローベースのビューは、フローの正規化に関連するもので、サンプルをノイズからデータに移すスムーズなパスに従って生成する。
論文 参考訳(メタデータ) (2025-10-24T02:29:02Z) - Towards Fast Coarse-graining and Equation Discovery with Foundation Inference Models [6.403678133359229]
高次元記録における潜伏力学は、しばしばより小さな有効変数の集合によって特徴づけられる。
ほとんどの機械学習アプローチは、動的一貫性を強制するモデルとともにオートエンコーダをトレーニングすることで、これらのタスクに共同で取り組む。
我々は最近導入されたファンデーション推論モデル(FIM)を利用して2つの問題を分離することを提案する。
半円拡散を合成ビデオデータに埋め込んだ二重井戸系における概念実証は、高速で再利用可能な粗粒化パイプラインに対するこのアプローチの可能性を示している。
論文 参考訳(メタデータ) (2025-10-14T15:17:23Z) - Consistent Sampling and Simulation: Molecular Dynamics with Energy-Based Diffusion Models [50.77646970127369]
本稿では,Fokker-Planck由来の正規化項を用いたエネルギーベース拡散モデルを提案する。
高速折りたたみタンパク質を含む複数の生体分子系をサンプリング・シミュレートし,本手法を実証する。
論文 参考訳(メタデータ) (2025-06-20T16:38:29Z) - Kernel-Smoothed Scores for Denoising Diffusion: A Bias-Variance Study [3.265950484493743]
拡散モデルは暗記しがちである。
スコアの正規化は、トレーニングデータセットのサイズを増やすのと同じ効果がある。
この視点は、拡散をデノナイズする2つの規則化機構を強調する。
論文 参考訳(メタデータ) (2025-05-28T20:22:18Z) - Energy-Based Coarse-Graining in Molecular Dynamics: A Flow-Based Framework without Data [0.0]
粗粒モデル(CG)は分子シミュレーションの複雑さを減らす効果的な経路を提供する。
本稿では,全原子ボルツマン分布を直接対象とするCGのための完全データフリーな生成フレームワークを提案する。
本手法はボルツマン分布のすべてのモードを捕捉し、原子配置を再構成し、自動的に物理的に意味のあるCG表現を学習することを示す。
論文 参考訳(メタデータ) (2025-04-29T17:05:27Z) - An Analytical Theory of Spectral Bias in the Learning Dynamics of Diffusion Models [29.972063833424215]
本研究では,拡散モデル学習中に生成した分布がどのように進化するかを理解するための解析的枠組みを開発する。
結果の確率フローODEを統合し、生成した分布の解析式を生成する。
論文 参考訳(メタデータ) (2025-03-05T05:50:38Z) - Improving Consistency Models with Generator-Augmented Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,一貫性モデルから得られたノイズデータを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。