論文の概要: Designing losses for data-free training of normalizing flows on
Boltzmann distributions
- arxiv url: http://arxiv.org/abs/2301.05475v1
- Date: Fri, 13 Jan 2023 10:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 15:20:56.055662
- Title: Designing losses for data-free training of normalizing flows on
Boltzmann distributions
- Title(参考訳): ボルツマン分布上の正規化フローのデータフリートレーニングにおける損失設計
- Authors: Loris Felardos (TAU), J\'er\^ome H\'enin (LBT (UPR\_9080), IBPC
(FR\_550)), Guillaume Charpiat (TAU)
- Abstract要約: Kullback-Leibler の発散に基づく標準損失の特性を解析した。
本稿では,これらの問題を緩和するための戦略を提案する。
トレーニングデータがない場合には、不完全な事前学習モデルをさらに最適化できる、いくつかのタスクを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating a Boltzmann distribution in high dimension has recently been
achieved with Normalizing Flows, which enable fast and exact computation of the
generated density, and thus unbiased estimation of expectations. However,
current implementations rely on accurate training data, which typically comes
from computationally expensive simulations. There is therefore a clear
incentive to train models with incomplete or no data by relying solely on the
target density, which can be obtained from a physical energy model (up to a
constant factor). For that purpose, we analyze the properties of standard
losses based on Kullback-Leibler divergences. We showcase their limitations, in
particular a strong propensity for mode collapse during optimization on
high-dimensional distributions. We then propose strategies to alleviate these
issues, most importantly a new loss function well-grounded in theory and with
suitable optimization properties. Using as a benchmark the generation of 3D
molecular configurations, we show on several tasks that, for the first time,
imperfect pre-trained models can be further optimized in the absence of
training data.
- Abstract(参考訳): ボルツマン分布を高次元で生成する手法は、生成した密度の高速かつ正確な計算を可能にする正規化フローによって最近達成された。
しかし、現在の実装は計算コストのかかるシミュレーションから得られる正確なトレーニングデータに依存している。
したがって、(定数まで)物理エネルギーモデルから得られるターゲット密度のみに依存することで、不完全なデータや全くデータを持たないモデルを訓練するための明確なインセンティブがある。
そこで本研究では,kullback-leibler divergencesに基づく標準損失の特性解析を行う。
それらの限界,特に高次元分布の最適化におけるモード崩壊の強い傾向を示す。
次に,これらの問題を緩和するための戦略を提案する。最も重要なのは,理論上十分な基礎と適切な最適化特性を持つ新しい損失関数である。
3次元分子構成の生成のベンチマークとして、不完全な事前学習モデルがトレーニングデータがない場合にさらに最適化できることを初めて示す。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - Uncertainty quantification and inverse modeling for subsurface flow in
3D heterogeneous formations using a theory-guided convolutional
encoder-decoder network [5.018057056965207]
複数の垂直生産井を有する動的3次元地下単相流問題に対する代理モデルを構築した。
代理モデルは任意のタイミングで全体の形成を効率的に推算する。
ウェル生産率またはボトムホール圧力はピースマンの公式に基づいて決定できる。
論文 参考訳(メタデータ) (2021-11-14T10:11:46Z) - Resampling Base Distributions of Normalizing Flows [0.0]
学習された拒絶サンプリングに基づいて,フローを正規化するためのベース分布を導入する。
ログライクリフの最大化と逆Kulback-Leibler分散の最適化の両方を用いて、適切な学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-10-29T14:44:44Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z) - Learning Generative Models using Denoising Density Estimators [29.068491722778827]
縮退密度推定器(DDE)に基づく新しい生成モデルを提案する。
我々の主な貢献は、KL分割を直接最小化することで生成モデルを得る新しい技術である。
実験結果から, 生成モデル学習における密度推定と競争性能が大幅に向上した。
論文 参考訳(メタデータ) (2020-01-08T20:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。