論文の概要: Heavy-tailed denoising score matching
- arxiv url: http://arxiv.org/abs/2112.09788v1
- Date: Fri, 17 Dec 2021 22:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 06:00:26.094506
- Title: Heavy-tailed denoising score matching
- Title(参考訳): ヘビーテールのデノイジングスコアマッチング
- Authors: Jacob Deasy, Nikola Simidjievski, Pietro Li\`o
- Abstract要約: ランゲヴィン力学における複数のノイズレベルを連続的に初期化する反復的雑音スケーリングアルゴリズムを開発した。
実用面では、重み付きDSMを用いることで、スコア推定、制御可能なサンプリング収束、不均衡データセットに対するよりバランスのない非条件生成性能が改善される。
- 参考スコア(独自算出の注目度): 5.371337604556311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Score-based model research in the last few years has produced state of the
art generative models by employing Gaussian denoising score-matching (DSM).
However, the Gaussian noise assumption has several high-dimensional
limitations, motivating a more concrete route toward even higher dimension PDF
estimation in future. We outline this limitation, before extending the theory
to a broader family of noising distributions -- namely, the generalised normal
distribution. To theoretically ground this, we relax a key assumption in
(denoising) score matching theory, demonstrating that distributions which are
differentiable \textit{almost everywhere} permit the same objective
simplification as Gaussians. For noise vector length distributions, we
demonstrate favourable concentration of measure in the high-dimensional spaces
prevalent in deep learning. In the process, we uncover a skewed noise vector
length distribution and develop an iterative noise scaling algorithm to
consistently initialise the multiple levels of noise in annealed Langevin
dynamics. On the practical side, our use of heavy-tailed DSM leads to improved
score estimation, controllable sampling convergence, and more balanced
unconditional generative performance for imbalanced datasets.
- Abstract(参考訳): 近年のスコアベースモデル研究は、ガウスのスコアマッチング(DSM)を用いて、アート生成モデルの状態を創出してきた。
しかし、ガウス雑音の仮定にはいくつかの高次元の制限があり、将来的にはさらに高次元のpdf推定へのより具体的な道筋が導かれる。
この制限を概説し、理論をより広範なノイズ分布の族、すなわち一般化正規分布に拡張する。
これを理論的に基礎づけるために、我々はスコアマッチング理論における重要な仮定を緩和し、微分可能な \textit{almost everywhere} の分布がガウス群と同じ目的を単純化することを証明した。
雑音ベクトル長分布について,深層学習に広く用いられている高次元空間における測定値の集中性を示す。
この過程において、スキュードノイズベクトル長分布を明らかにし、アニールランゲヴィン力学における複数レベルのノイズを連続的に初期化する反復ノイズスケーリングアルゴリズムを開発する。
実用面では,重み付きdsmを用いることで,スコア推定精度が向上し,サンプリング収束が制御可能となり,不均衡データセットに対する非条件生成性能が向上する。
関連論文リスト
- Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Robust Inference of Manifold Density and Geometry by Doubly Stochastic
Scaling [8.271859911016719]
我々は高次元雑音下で頑健な推論のためのツールを開発する。
提案手法は, セルタイプにまたがる技術的ノイズレベルの変動に頑健であることを示す。
論文 参考訳(メタデータ) (2022-09-16T15:39:11Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Deep Speaker Vector Normalization with Maximum Gaussianality Training [13.310988353839237]
ディープスピーカ埋め込みの鍵となる問題は、結果のディープスピーカベクトルが不規則に分散する傾向があることである。
従来の研究では,新しい識別正規化フロー(DNF)モデルに基づく深部正規化手法を提案した。
この顕著な成功にもかかわらず、DNFモデルによって生成される潜伏符号は概して同質でもガウス的でもないことを実証的に見出した。
本稿では,潜在符号のガウス性を直接最大化する最大ガウス性(MG)トレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T09:42:06Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - Generative Modeling with Denoising Auto-Encoders and Langevin Sampling [88.83704353627554]
DAEとDSMの両方がスムーズな人口密度のスコアを推定することを示した。
次に、この結果をarXiv:1907.05600のホモトピー法に適用し、その経験的成功を理論的に正当化する。
論文 参考訳(メタデータ) (2020-01-31T23:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。