論文の概要: Moment- and Power-Spectrum-Based Gaussianity Regularization for Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2509.07027v1
- Date: Sun, 07 Sep 2025 14:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.037599
- Title: Moment- and Power-Spectrum-Based Gaussianity Regularization for Text-to-Image Models
- Title(参考訳): テキスト・画像モデルにおけるモーメントとパワースペクトルに基づくガウス性正規化
- Authors: Jisung Hwang, Jaihoon Kim, Minhyuk Sung,
- Abstract要約: 本稿では,標準ガウス分布と標準ガウス分布を一致させ,標準ガウス分布を強制する新たな正規化損失を提案する。
本稿では,テキスト・ツー・イメージ・モデルを用いたテスト時間報酬アライメントのためのジェネレーティブ・モデリングにおける正規化の適用について紹介する。
- 参考スコア(独自算出の注目度): 26.091879006936512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel regularization loss that enforces standard Gaussianity, encouraging samples to align with a standard Gaussian distribution. This facilitates a range of downstream tasks involving optimization in the latent space of text-to-image models. We treat elements of a high-dimensional sample as one-dimensional standard Gaussian variables and define a composite loss that combines moment-based regularization in the spatial domain with power spectrum-based regularization in the spectral domain. Since the expected values of moments and power spectrum distributions are analytically known, the loss promotes conformity to these properties. To ensure permutation invariance, the losses are applied to randomly permuted inputs. Notably, existing Gaussianity-based regularizations fall within our unified framework: some correspond to moment losses of specific orders, while the previous covariance-matching loss is equivalent to our spectral loss but incurs higher time complexity due to its spatial-domain computation. We showcase the application of our regularization in generative modeling for test-time reward alignment with a text-to-image model, specifically to enhance aesthetics and text alignment. Our regularization outperforms previous Gaussianity regularization, effectively prevents reward hacking and accelerates convergence.
- Abstract(参考訳): 本稿では,標準ガウス分布と標準ガウス分布を一致させ,標準ガウス分布を強制する新たな正規化損失を提案する。
これにより、テキスト・ツー・イメージ・モデルの潜在領域における最適化を含む、さまざまなダウンストリームタスクが容易になる。
高次元サンプルの要素を1次元標準ガウス変数として扱い、空間領域におけるモーメントベース正規化とスペクトル領域におけるパワースペクトルベース正規化を組み合わせた複合損失を定義する。
モーメントとパワースペクトル分布の期待値は解析的に知られているので、損失はこれらの性質への適合性を促進する。
置換不変性を保証するために、ランダムに置換された入力に損失を適用する。
いくつかは特定の順序のモーメントロスに対応しているが、以前の共分散マッチング損失はスペクトル損失と等価であるが、空間領域の計算によりより時間を要する。
本稿では,テキスト・ツー・イメージ・モデルを用いたテスト時間報酬アライメントのためのジェネレーティブ・モデリングにおける正規化の適用について紹介する。
我々の正規化は以前のガウシアン性正規化よりも優れており、報酬のハッキングを効果的に防ぎ、収束を加速します。
関連論文リスト
- Learning a Gaussian Mixture for Sparsity Regularization in Inverse Problems [2.174919458782602]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Convex Parameter Estimation of Perturbed Multivariate Generalized
Gaussian Distributions [18.95928707619676]
本稿では,MGGDパラメータの確立された特性を持つ凸定式化を提案する。
提案するフレームワークは, 精度行列, 平均, 摂動の様々な正規化を組み合わせ, 柔軟である。
実験により, 平均ベクトルパラメータに対して, 同様の性能でより正確な精度と共分散行列推定を行うことができた。
論文 参考訳(メタデータ) (2023-12-12T18:08:04Z) - Spectrum-Aware Debiasing: A Modern Inference Framework with Applications to Principal Components Regression [1.342834401139078]
本稿では,高次元回帰のための新しい手法であるSpectrumAware Debiasingを紹介する。
我々のアプローチは、構造的、重く、低ランクな構造に関する問題に適用できる。
シミュレーションおよび実データ実験により本手法を実証する。
論文 参考訳(メタデータ) (2023-09-14T15:58:30Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Regularized Vector Quantization for Tokenized Image Synthesis [126.96880843754066]
画像の離散表現への量子化は、統合生成モデリングにおける根本的な問題である。
決定論的量子化は、厳しいコードブックの崩壊と推論段階の誤調整に悩まされ、一方、量子化は、コードブックの利用率の低下と再構築の目的に悩まされる。
本稿では、2つの視点から正規化を適用することにより、上記の問題を効果的に緩和できる正規化ベクトル量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:20:54Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Differentiable Gaussianization Layers for Inverse Problems Regularized by Deep Generative Models [5.439020425819001]
深部生成モデルの潜時テンソルは、反転中に所望の高次元標準ガウス分布から外れる可能性があることを示す。
提案手法は精度と整合性の観点から最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-07T17:53:09Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。