論文の概要: Breaking the Likelihood-Quality Trade-off in Diffusion Models by Merging Pretrained Experts
- arxiv url: http://arxiv.org/abs/2511.19434v1
- Date: Mon, 24 Nov 2025 18:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.387775
- Title: Breaking the Likelihood-Quality Trade-off in Diffusion Models by Merging Pretrained Experts
- Title(参考訳): 専門知識の融合による拡散モデルにおける品質トレードオフの破滅
- Authors: Yasin Esfandiari, Stefan Bauer, Sebastian U. Stich, Andrea Dittadi,
- Abstract要約: 本稿では,2つの事前学習した拡散の専門家を相互に切り替えて組み合わせた簡単なプラグアンドプレイサンプリング手法を提案する。
我々は、高ノイズレベルの画像品質の専門家をグローバルな構造を形作るために応用し、低ノイズレベルの専門家に切り替えてピクセル統計を精査する。
- 参考スコア(独自算出の注目度): 46.49814310861219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models for image generation often exhibit a trade-off between perceptual sample quality and data likelihood: training objectives emphasizing high-noise denoising steps yield realistic images but poor likelihoods, whereas likelihood-oriented training overweights low-noise steps and harms visual fidelity. We introduce a simple plug-and-play sampling method that combines two pretrained diffusion experts by switching between them along the denoising trajectory. Specifically, we apply an image-quality expert at high noise levels to shape global structure, then switch to a likelihood expert at low noise levels to refine pixel statistics. The approach requires no retraining or fine-tuning -- only the choice of an intermediate switching step. On CIFAR-10 and ImageNet32, the merged model consistently matches or outperforms its base components, improving or preserving both likelihood and sample quality relative to each expert alone. These results demonstrate that expert switching across noise levels is an effective way to break the likelihood-quality trade-off in image diffusion models.
- Abstract(参考訳): 画像生成のための拡散モデルは、しばしば知覚的なサンプル品質とデータ可能性の間のトレードオフを示す: 高ノイズ化ステップを強調する訓練目的は、現実的なイメージを生み出すが、低ノイズ化は、低ノイズ化と視覚的忠実度を損なう。
そこで我々は,2つの事前学習した拡散の専門家を重畳した簡易なプラグアンドプレイサンプリング手法を提案する。
具体的には、高ノイズレベルの画像品質の専門家をグローバルな構造にし、低ノイズレベルの専門家に切り替えてピクセル統計を精査する。
このアプローチでは、トレーニングや微調整は必要ありません。
CIFAR-10とImageNet32では、マージされたモデルはベースコンポーネントと一貫して一致または性能を向上し、各専門家に対して可能性とサンプル品質の両方を向上または維持する。
これらの結果は,画像拡散モデルにおいて,ノイズレベルを専門家が切り替えることが,高い品質のトレードオフを打破する有効な方法であることを示す。
関連論文リスト
- A Simple Combination of Diffusion Models for Better Quality Trade-Offs in Image Denoising [43.44633086975204]
本稿では,事前学習した拡散モデルを活用するための直感的な手法を提案する。
次に,提案する線形結合拡散デノイザについて紹介する。
LCDDは最先端のパフォーマンスを達成し、制御され、よく機能するトレードオフを提供する。
論文 参考訳(メタデータ) (2025-03-18T19:02:19Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Preserving Image Properties Through Initializations in Diffusion Models [6.804700416902898]
現在適用されている安定拡散法は,小売写真の要求を尊重しないことを示す。
非常にノイズの多い画像でデノイザーを訓練する通常の習慣は、推論中に一貫性のない画像を生成する。
均一な背景を持つ中央の小売商品画像で訓練されたネットワークは、不規則な背景を持つ画像を生成する。
本手法は,拡散法における制御可能性を高めるために,他の制御法と良好に相互作用することができる。
論文 参考訳(メタデータ) (2024-01-04T06:55:49Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation [53.04220377034574]
高品質(未条件)な画像生成のための前方拡散プロセスに解析的画像減衰プロセスを導入することを提案する。
本手法は,フォワード画像からノイズへのマッピングを,テクスチメジからゼロへのマッピングとテクスティケロ・ツー・ノイズマッピングの同時マッピングとして表現する。
我々は,CIFAR-10やCelebA-HQ-256などの無条件画像生成や,超解像,サリエンシ検出,エッジ検出,画像インペインティングなどの画像条件下での下流処理について実験を行った。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。