論文の概要: LowDiff: Efficient Diffusion Sampling with Low-Resolution Condition
- arxiv url: http://arxiv.org/abs/2509.15342v1
- Date: Thu, 18 Sep 2025 18:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.867979
- Title: LowDiff: Efficient Diffusion Sampling with Low-Resolution Condition
- Title(参考訳): 低分解能高効率拡散サンプリング
- Authors: Jiuyi Xu, Qing Jin, Meida Chen, Andrew Feng, Yang Sui, Yangming Shi,
- Abstract要約: LowDiffは、カスケードアプローチに基づく、新しく効率的な拡散フレームワークである。
LowDiffは、低解像度から所望の解像度まで画像を段階的に洗練する統一モデルを採用している。
- 参考スコア(独自算出の注目度): 12.702798486507225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved remarkable success in image generation but their practical application is often hindered by the slow sampling speed. Prior efforts of improving efficiency primarily focus on compressing models or reducing the total number of denoising steps, largely neglecting the possibility to leverage multiple input resolutions in the generation process. In this work, we propose LowDiff, a novel and efficient diffusion framework based on a cascaded approach by generating increasingly higher resolution outputs. Besides, LowDiff employs a unified model to progressively refine images from low resolution to the desired resolution. With the proposed architecture design and generation techniques, we achieve comparable or even superior performance with much fewer high-resolution sampling steps. LowDiff is applicable to diffusion models in both pixel space and latent space. Extensive experiments on both conditional and unconditional generation tasks across CIFAR-10, FFHQ and ImageNet demonstrate the effectiveness and generality of our method. Results show over 50% throughput improvement across all datasets and settings while maintaining comparable or better quality. On unconditional CIFAR-10, LowDiff achieves an FID of 2.11 and IS of 9.87, while on conditional CIFAR-10, an FID of 1.94 and IS of 10.03. On FFHQ 64x64, LowDiff achieves an FID of 2.43, and on ImageNet 256x256, LowDiff built on LightningDiT-B/1 produces high-quality samples with a FID of 4.00 and an IS of 195.06, together with substantial efficiency gains.
- Abstract(参考訳): 拡散モデルは画像生成において顕著な成功を収めてきたが、実際の応用はサンプリング速度の遅さによってしばしば妨げられている。
効率を向上する以前の取り組みは、主にモデルを圧縮するか、デノナイジングステップの総数を減らし、生成プロセスにおいて複数の入力解像度を活用する可能性を無視していた。
本研究では,より高分解能な出力を生成することで,カスケードアプローチに基づく新しい,効率的な拡散フレームワークであるLowDiffを提案する。
さらに、ローディフは低解像度から所望の解像度まで画像を段階的に洗練する統一モデルを採用している。
提案したアーキテクチャ設計と生成技術により,高分解能サンプリングのステップをはるかに少なくして,同等あるいはさらに優れた性能を達成できる。
LowDiff はピクセル空間と潜在空間の拡散モデルに適用できる。
CIFAR-10,FFHQ,ImageNetにまたがる条件付きおよび非条件付き生成タスクの広範な実験により,本手法の有効性と汎用性を実証した。
結果によると、すべてのデータセットと設定で50%以上のスループット改善が達成され、同等あるいはより良い品質が維持される。
非条件のCIFAR-10では、ローディフはFIDが2.11、ISが9.87、条件のCIFAR-10ではFIDが1.94、ISが10.03となる。
FFHQ 64x64では、LowDiffはFIDが2.43で、ImageNet 256x256ではLightningDiT-B/1上に構築されたLowDiffはFIDが4.00、ISが195.06で高品質なサンプルを生成する。
関連論文リスト
- Simpler Diffusion (SiD2): 1.5 FID on ImageNet512 with pixel-space diffusion [34.70370851239368]
画素空間モデルは、品質と効率の両方において、潜在モデルと非常に競合することを示す。
エンド・ツー・エンドのピクセル空間拡散モデルを高分解能に拡張するための簡単なレシピを提案する。
論文 参考訳(メタデータ) (2024-10-25T06:20:06Z) - Learning Quantized Adaptive Conditions for Diffusion Models [19.9601581920218]
適応条件を利用して軌道曲率を小さくする新しい,効果的な手法を提案する。
本手法は, トレーニングパラメータの1%に過ぎず, 追加の正規化項の必要性を排除し, サンプル品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-09-26T02:49:51Z) - ResShift: Efficient Diffusion Model for Image Super-resolution by
Residual Shifting [70.83632337581034]
拡散に基づく画像超解像法(SR)は主に低推論速度によって制限される。
本稿では,SRの拡散段数を大幅に削減する新しい,効率的な拡散モデルを提案する。
本手法は,残差をシフトすることで高分解能画像と低分解能画像の間を移動させるマルコフ連鎖を構成する。
論文 参考訳(メタデータ) (2023-07-23T15:10:02Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。