論文の概要: Training-Free Distribution Adaptation for Diffusion Models via Maximum Mean Discrepancy Guidance
- arxiv url: http://arxiv.org/abs/2601.08379v1
- Date: Tue, 13 Jan 2026 09:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.138408
- Title: Training-Free Distribution Adaptation for Diffusion Models via Maximum Mean Discrepancy Guidance
- Title(参考訳): 最大平均差分法による拡散モデルの学習自由分布適応
- Authors: Matina Mahdizadeh Sani, Nima Jamali, Mohammad Jalali, Farzan Farnia,
- Abstract要約: MMD Guidanceは、生成したサンプルと参照データセットの間の最大平均離散度(MMD)の勾配で逆拡散プロセスを強化する。
当社のフレームワークは,製品カーネルによる条件付き生成モデルにおけるアクシデント対応に自然に拡張する。
合成および実世界のベンチマーク実験により、MDD Guidanceはサンプルの忠実さを保ちながら分布アライメントを達成できることが示されている。
- 参考スコア(独自算出の注目度): 17.353524034156205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained diffusion models have emerged as powerful generative priors for both unconditional and conditional sample generation, yet their outputs often deviate from the characteristics of user-specific target data. Such mismatches are especially problematic in domain adaptation tasks, where only a few reference examples are available and retraining the diffusion model is infeasible. Existing inference-time guidance methods can adjust sampling trajectories, but they typically optimize surrogate objectives such as classifier likelihoods rather than directly aligning with the target distribution. We propose MMD Guidance, a training-free mechanism that augments the reverse diffusion process with gradients of the Maximum Mean Discrepancy (MMD) between generated samples and a reference dataset. MMD provides reliable distributional estimates from limited data, exhibits low variance in practice, and is efficiently differentiable, which makes it particularly well-suited for the guidance task. Our framework naturally extends to prompt-aware adaptation in conditional generation models via product kernels. Also, it can be applied with computational efficiency in latent diffusion models (LDMs), since guidance is applied in the latent space of the LDM. Experiments on synthetic and real-world benchmarks demonstrate that MMD Guidance can achieve distributional alignment while preserving sample fidelity.
- Abstract(参考訳): 事前学習された拡散モデルは、条件付きサンプル生成と条件付きサンプル生成の両方において強力な生成前駆体として現れてきたが、それらの出力は、しばしばユーザ固有のターゲットデータの特徴から逸脱する。
このようなミスマッチは、いくつかの参照例のみが利用可能であり、拡散モデルの再訓練が不可能な領域適応タスクにおいて特に問題となる。
既存の推論時間誘導法はサンプリング軌跡を調整できるが、通常はターゲット分布と直接整合するのではなく、分類器の確率などの代理目的を最適化する。
MMD Guidanceは,生成したサンプルと参照データセット間の最大平均離散度(MMD)の勾配で逆拡散過程を増強する学習自由機構である。
MMDは、限られたデータから信頼性の高い分布推定を提供し、実際は低分散を示し、効率的な微分が可能であり、ガイダンスタスクに特に適している。
当社のフレームワークは,製品カーネルによる条件付き生成モデルにおけるアクシデント対応に自然に拡張する。
また, 遅延拡散モデル (LDMs) では, LDMの潜時空間においてガイダンスが適用され, 計算効率が向上する。
合成および実世界のベンチマーク実験により、MDD Guidanceはサンプルの忠実さを保ちながら分布アライメントを達成できることが示されている。
関連論文リスト
- Diffusion Attribution Score: Evaluating Training Data Influence in Diffusion Models [22.39558434131574]
拡散モデルに対する既存のデータ帰属法は、典型的にはトレーニングサンプルの寄与を定量化する。
拡散損失の直接的利用は,拡散損失の計算により,そのような貢献を正確に表すことはできない。
本研究では,予測分布と属性スコアとの直接比較を行うために拡散属性スコア(textitDAS)を提案する。
論文 参考訳(メタデータ) (2024-10-24T10:58:17Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - MG-TSD: Multi-Granularity Time Series Diffusion Models with Guided Learning Process [26.661721555671626]
本稿では,最先端の予測性能を実現する新しい多粒度時系列(MG-TSD)モデルを提案する。
われわれのアプローチは外部データに頼らず、様々な領域にまたがって汎用的で適用可能である。
論文 参考訳(メタデータ) (2024-03-09T01:15:03Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。