論文の概要: Generative Modeling via Drifting
- arxiv url: http://arxiv.org/abs/2602.04770v1
- Date: Wed, 04 Feb 2026 17:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.650785
- Title: Generative Modeling via Drifting
- Title(参考訳): ドリフトによる生成モデリング
- Authors: Mingyang Deng, He Li, Tianhong Li, Yilun Du, Kaiming He,
- Abstract要約: 本稿では,訓練中の前進方向の分布を進化させ,一段階の推論を自然に認めるDrifting Modelsという新しいパラダイムを提案する。
実験では,1ステップのジェネレータが256 x 256の解像度でImageNetの最先端結果を達成し,FIDは潜時空間で1.54,ピクセル空間で1.61である。
- 参考スコア(独自算出の注目度): 63.351930190408545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative modeling can be formulated as learning a mapping f such that its pushforward distribution matches the data distribution. The pushforward behavior can be carried out iteratively at inference time, for example in diffusion and flow-based models. In this paper, we propose a new paradigm called Drifting Models, which evolve the pushforward distribution during training and naturally admit one-step inference. We introduce a drifting field that governs the sample movement and achieves equilibrium when the distributions match. This leads to a training objective that allows the neural network optimizer to evolve the distribution. In experiments, our one-step generator achieves state-of-the-art results on ImageNet at 256 x 256 resolution, with an FID of 1.54 in latent space and 1.61 in pixel space. We hope that our work opens up new opportunities for high-quality one-step generation.
- Abstract(参考訳): 生成的モデリングは、そのプッシュフォワード分布がデータ分布と一致するようにマッピングfを学習するものとして定式化することができる。
プッシュフォワード動作は、例えば拡散モデルやフローベースモデルにおいて、推論時に反復的に実行することができる。
本稿では,学習中の前進方向の分布を進化させ,一段階の推論を自然に認めるDrifting Modelsという新しいパラダイムを提案する。
本研究では, 試料の動きを制御し, 分布が一致した場合に平衡を達成できるドリフト場を導入する。
これにより、ニューラルネットワークオプティマイザが分散を進化させるためのトレーニング目標が導かれる。
実験では,1ステップのジェネレータが256 x 256の解像度でImageNetの最先端結果を達成し,FIDは潜時空間で1.54,ピクセル空間で1.61である。
われわれの仕事が高品質のワンステップ世代に新たな機会を開くことを願っている。
関連論文リスト
- Temporal Score Rescaling for Temperature Sampling in Diffusion and Flow Models [30.36841165328262]
本稿では,フローマッチングモデルのサンプリング多様性を判断するメカニズムを提案する。
これらの再スケーリングにより、局所的なサンプリング温度を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2025-10-01T17:59:51Z) - Score-based Idempotent Distillation of Diffusion Models [0.9367224590861915]
一等性生成ネットワーク(IGN)は、対象多様体への等等性写像に基づく新しい生成モデルである。
本研究では拡散モデルスコアから等等化モデルを蒸留することにより拡散とIGNを結合し、SIGNと呼ぶ。
提案手法は非常に安定しており, 対向的損失を伴わないため, 提案手法の理論的解析を行い, IGNを予め学習した拡散モデルから効果的に蒸留できることを実証的に示す。
論文 参考訳(メタデータ) (2025-09-25T19:36:10Z) - Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - One-step Diffusion with Distribution Matching Distillation [54.723565605974294]
本稿では,拡散モデルを1ステップ画像生成器に変換する手法である分散マッチング蒸留(DMD)を紹介する。
約KLの発散を最小化することにより,拡散モデルと分布レベルで一致した一段階画像生成装置を強制する。
提案手法は,イメージネット64x64では2.62 FID,ゼロショットCOCO-30kでは11.49 FIDに到達した。
論文 参考訳(メタデータ) (2023-11-30T18:59:20Z) - Masked Diffusion Models Are Fast Distribution Learners [32.485235866596064]
拡散モデルは、スクラッチからきめ細かい視覚情報を学習するために一般的に訓練されている。
まず, 素数分布を学習するためにモデルの事前学習を行うことにより, 強い拡散モデルを訓練するのに十分であることを示す。
そして、事前学習されたモデルは、様々な生成タスクに対して効率的に微調整することができる。
論文 参考訳(メタデータ) (2023-06-20T08:02:59Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Can Push-forward Generative Models Fit Multimodal Distributions? [3.8615905456206256]
生成ネットワークのリプシッツ定数はマルチモーダル分布に適合するために大きくなければならないことを示す。
本研究では,1次元および画像のデータセットを用いて,各ステップで入力されたスタックネットワークからなる生成モデルがそのような制約を負わないことを実証的に検証した。
論文 参考訳(メタデータ) (2022-06-29T09:03:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。