論文の概要: MixFlow Training: Alleviating Exposure Bias with Slowed Interpolation Mixture
- arxiv url: http://arxiv.org/abs/2512.19311v1
- Date: Mon, 22 Dec 2025 12:00:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.73748
- Title: MixFlow Training: Alleviating Exposure Bias with Slowed Interpolation Mixture
- Title(参考訳): MixFlowトレーニング:緩やかな補間混合による露光バイアス軽減
- Authors: Hui Li, Jiayue Lyu, Fu-Yun Wang, Kaihui Cheng, Siyu Zhu, Jingdong Wang,
- Abstract要約: 本稿では,拡散モデルを改善するためのトレーニングテストの相違(すなわちバイアス)問題を考察する。
性能向上のために,MixFlowという新しいトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 38.352763936299674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the training-testing discrepancy (a.k.a. exposure bias) problem for improving the diffusion models. During training, the input of a prediction network at one training timestep is the corresponding ground-truth noisy data that is an interpolation of the noise and the data, and during testing, the input is the generated noisy data. We present a novel training approach, named MixFlow, for improving the performance. Our approach is motivated by the Slow Flow phenomenon: the ground-truth interpolation that is the nearest to the generated noisy data at a given sampling timestep is observed to correspond to a higher-noise timestep (termed slowed timestep), i.e., the corresponding ground-truth timestep is slower than the sampling timestep. MixFlow leverages the interpolations at the slowed timesteps, named slowed interpolation mixture, for post-training the prediction network for each training timestep. Experiments over class-conditional image generation (including SiT, REPA, and RAE) and text-to-image generation validate the effectiveness of our approach. Our approach MixFlow over the RAE models achieve strong generation results on ImageNet: 1.43 FID (without guidance) and 1.10 (with guidance) at 256 x 256, and 1.55 FID (without guidance) and 1.10 (with guidance) at 512 x 512.
- Abstract(参考訳): 本稿では,拡散モデルを改善するための訓練試験誤差(露光バイアス)問題について検討する。
トレーニング中、あるトレーニング段階における予測ネットワークの入力は、ノイズとデータの補間である対応する地味ノイズデータであり、テスト中は、その入力が生成されたノイズデータである。
性能向上のために,MixFlowという新しいトレーニング手法を提案する。
提案手法はSlow Flow現象に動機付けられ, 与えられたサンプリング時間における生成ノイズデータに最も近い接地トラス補間は, 高雑音時間ステップ(終端遅延時間ステップ)に対応して観測される。
MixFlowは、遅延時間ステップの補間を利用して、トレーニング時間ステップ毎に予測ネットワークをトレーニングする。
クラス条件画像生成(SiT,REPA,RAEを含む)とテキスト・ツー・イメージ生成の実験により,本手法の有効性が検証された。
RAEモデルに対するMixFlowのアプローチは、ImageNetの1.43 FID(ガイダンスなし)と1.10(ガイダンスなし)の256 x 256、および1.55 FID(ガイダンスなし)と1.10(ガイダンスなし)の512 x 512である。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Input Perturbation Reduces Exposure Bias in Diffusion Models [41.483581603727444]
本稿では,長いサンプリングチェーンが,自己回帰テキスト生成における露出バイアス問題と同様の誤差蓄積現象を引き起こすことを示す。
本稿では,推定時間予測誤差をシミュレートするために,基底真理サンプルを摂動させることにより,非常に単純で効果的なトレーニング正則化を提案する。
実験により,リコールと精度に影響を与えることなく,提案した入力摂動がサンプル品質を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-01-27T13:34:54Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。