論文の概要: Efficient Training of Boltzmann Generators Using Off-Policy Log-Dispersion Regularization
- arxiv url: http://arxiv.org/abs/2602.03729v1
- Date: Tue, 03 Feb 2026 16:49:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.584926
- Title: Efficient Training of Boltzmann Generators Using Off-Policy Log-Dispersion Regularization
- Title(参考訳): オフポリシィログ分散正規化を用いたボルツマン発電機の効率的な訓練
- Authors: Henrik Schopmans, Christopher von Klitzing, Pascal Friederich,
- Abstract要約: ボルツマン生成器は、所定の温度で物理系のボルツマン分布から独立したサンプリングを可能にする生成モデルである。
本稿では,対数分散目的の一般化を基盤とした新たな正規化フレームワークである,非政治対数分散正規化(LDR)を提案する。
LDRは、目標エネルギーラベルの形で追加情報を活用することにより、エネルギーランドスケープの形状正則化剤として機能する。
- 参考スコア(独自算出の注目度): 4.651750987298774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sampling from unnormalized probability densities is a central challenge in computational science. Boltzmann generators are generative models that enable independent sampling from the Boltzmann distribution of physical systems at a given temperature. However, their practical success depends on data-efficient training, as both simulation data and target energy evaluations are costly. To this end, we propose off-policy log-dispersion regularization (LDR), a novel regularization framework that builds on a generalization of the log-variance objective. We apply LDR in the off-policy setting in combination with standard data-based training objectives, without requiring additional on-policy samples. LDR acts as a shape regularizer of the energy landscape by leveraging additional information in the form of target energy labels. The proposed regularization framework is broadly applicable, supporting unbiased or biased simulation datasets as well as purely variational training without access to target samples. Across all benchmarks, LDR improves both final performance and data efficiency, with sample efficiency gains of up to one order of magnitude.
- Abstract(参考訳): 非正規化確率密度からサンプリングすることは、計算科学における中心的な課題である。
ボルツマン生成器は、所定の温度で物理系のボルツマン分布から独立したサンプリングを可能にする生成モデルである。
しかし、シミュレーションデータと目標エネルギー評価の両方が費用がかかるため、その実践的な成功はデータ効率のトレーニングに依存する。
そこで本稿では, 対数分散目標の一般化に基づく新たな正規化フレームワークである, 対数分散正規化(LDR)を提案する。
我々は、標準データベーストレーニング目標と組み合わせて、外部政策設定にLDRを適用し、追加のオンラインサンプルを必要としない。
LDRは、目標エネルギーラベルの形で追加情報を活用することにより、エネルギーランドスケープの形状正則化剤として機能する。
提案する正規化フレームワークは適用範囲が広く,偏りのないあるいは偏りのないシミュレーションデータセットと,ターゲットサンプルにアクセスせずに純粋に変動的なトレーニングをサポートする。
すべてのベンチマークにおいて、LDRは最終的なパフォーマンスとデータ効率の両方を改善し、サンプル効率は最大1桁向上する。
関連論文リスト
- Energy-Weighted Flow Matching: Unlocking Continuous Normalizing Flows for Efficient and Scalable Boltzmann Sampling [42.79674268979455]
エネルギー重み付きフローマッチングはボルツマン分布をモデル化するための連続正規化フローを可能にする新しいトレーニング目標である。
我々のアルゴリズムは、最先端のエネルギーのみの手法と競合するサンプル品質を示す。
論文 参考訳(メタデータ) (2025-09-03T21:16:03Z) - Energy-based Preference Optimization for Test-time Adaptation [4.379304291229695]
テスト時間適応(TTA)アプローチは条件分布の調整に重点を置いている。
これらの手法はラベル情報の欠如による不確実な予測に依存することが多く、信頼性の低い性能をもたらす。
エネルギーベースのフレームワークは、不確実な予測に頼ることなく、ターゲットデータの限界分布を計算し、分散シフトに対処する、有望な代替手段を提案する。
論文 参考訳(メタデータ) (2025-05-26T07:21:32Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Insights into Closed-form IPM-GAN Discriminator Guidance for Diffusion Modeling [11.68361062474064]
本稿では,GAN判別器がLangevinに基づくサンプリングに与える影響を理論的に解析する枠組みを提案する。
提案手法は既存の加速拡散技術と組み合わせて潜在空間画像生成を改善することができることを示す。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - Efficient Training of Energy-Based Models Using Jarzynski Equality [13.636994997309307]
エネルギーベースモデル(英: Energy-based model、EBM)は、統計物理学にインスパイアされた生成モデルである。
モデルパラメータに対する勾配の計算には、モデルの分布をサンプリングする必要がある。
ここでは、ジャジンスキーの等式に基づく非平衡熱力学の結果を用いて、この計算を効率的に行う方法を示す。
論文 参考訳(メタデータ) (2023-05-30T21:07:52Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。