論文の概要: Self-Adapting Noise-Contrastive Estimation for Energy-Based Models
- arxiv url: http://arxiv.org/abs/2211.02650v1
- Date: Thu, 3 Nov 2022 15:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 17:13:02.203970
- Title: Self-Adapting Noise-Contrastive Estimation for Energy-Based Models
- Title(参考訳): エネルギーモデルに対する自己適応型ノイズコントラスト推定
- Authors: Nathaniel Xu
- Abstract要約: ノイズコントラスト推定(NCE)を用いたトレーニングエネルギーベースモデルは理論的には実現可能であるが、実際は困難である。
従来の研究は、別個の生成モデルとしてノイズ分布をモデル化し、EBMでこのノイズモデルを同時に訓練してきた。
本論文では,EMMの静的なインスタンスを学習軌道に沿って雑音分布として利用する自己適応型NCEアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training energy-based models (EBMs) with noise-contrastive estimation (NCE)
is theoretically feasible but practically challenging. Effective learning
requires the noise distribution to be approximately similar to the target
distribution, especially in high-dimensional domains. Previous works have
explored modelling the noise distribution as a separate generative model, and
then concurrently training this noise model with the EBM. While this method
allows for more effective noise-contrastive estimation, it comes at the cost of
extra memory and training complexity. Instead, this thesis proposes a
self-adapting NCE algorithm which uses static instances of the EBM along its
training trajectory as the noise distribution. During training, these static
instances progressively converge to the target distribution, thereby
circumventing the need to simultaneously train an auxiliary noise model.
Moreover, we express this self-adapting NCE algorithm in the framework of
Bregman divergences and show that it is a generalization of maximum likelihood
learning for EBMs. The performance of our algorithm is evaluated across a range
of noise update intervals, and experimental results show that shorter update
intervals are conducive to higher synthesis quality.
- Abstract(参考訳): ノイズコントラスト推定(NCE)によるトレーニングエネルギーベースモデル(EBM)は理論的には実現可能であるが、実際は困難である。
効果的な学習では、特に高次元領域において、ノイズ分布はターゲット分布とほぼ同様である必要がある。
従来の研究は、別個の生成モデルとしてノイズ分布をモデル化し、EBMでこのノイズモデルを同時に訓練してきた。
この手法は、より効果的なノイズコントラスト推定を可能にするが、余分なメモリとトレーニングの複雑さのコストが伴う。
代わりに、この論文は、訓練軌道に沿ったESMの静的インスタンスをノイズ分布として利用する自己適応型NCEアルゴリズムを提案する。
トレーニング中、これらの静的インスタンスは徐々にターゲット分布に収束し、補助ノイズモデルを同時にトレーニングする必要性を回避する。
さらに,この自己適応型nceアルゴリズムをbregman divergencesの枠組みで表現し,ebmsの最大確率学習の一般化であることを示す。
提案アルゴリズムの性能は,様々なノイズ更新間隔で評価され,実験結果から,短い更新間隔が合成品質の向上につながることが示された。
関連論文リスト
- Adv-KD: Adversarial Knowledge Distillation for Faster Diffusion Sampling [2.91204440475204]
拡散確率モデル(DPM)は、深層生成モデルの強力なクラスとして登場した。
それらは、サンプル生成中にシーケンシャルなデノイングステップに依存している。
モデルアーキテクチャに直接位相を分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:19:44Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Not All Steps are Equal: Efficient Generation with Progressive Diffusion
Models [62.155612146799314]
ステップ適応トレーニングと呼ばれる新しい2段階のトレーニング戦略を提案する。
初期段階では、ベース・デノナイジング・モデルはすべてのタイムステップを包含するように訓練される。
タイムステップを別々のグループに分割し、各グループ内でモデルを微調整して、特殊な認知機能を実現します。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - May the Noise be with you: Adversarial Training without Adversarial
Examples [3.4673556247932225]
我々は、敵の訓練を受けずに敵の訓練を受けたモデルを得ることができるかという疑問を調査する。
提案手法は,訓練時にNNモデルの層にガウス雑音を埋め込むことによって固有性を取り入れる。
我々の研究は、全く異なるアプローチで敵の訓練を受けたネットワークに貢献し、敵の訓練と経験的に類似した堅牢性を持つ。
論文 参考訳(メタデータ) (2023-12-12T08:22:28Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - A Spectral Energy Distance for Parallel Speech Synthesis [29.14723501889278]
音声合成は重要な実用的生成モデル問題である。
そこで本研究では,高度に並列な音声モデルの学習を可能にする学習手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T19:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。