論文の概要: CutDiffusion: A Simple, Fast, Cheap, and Strong Diffusion Extrapolation Method
- arxiv url: http://arxiv.org/abs/2404.15141v1
- Date: Tue, 23 Apr 2024 15:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 13:32:19.090232
- Title: CutDiffusion: A Simple, Fast, Cheap, and Strong Diffusion Extrapolation Method
- Title(参考訳): CutDiffusion: 単純・高速・チープ・強拡散外挿法
- Authors: Mingbao Lin, Zhihang Lin, Wengyi Zhan, Liujuan Cao, Rongrong Ji,
- Abstract要約: チューニング不要のCutDiffusionは、拡散補間プロセスの簡素化と高速化を目的としている。
CutDiffusionは、既存のパッチワイド外挿に従属するが、標準的なパッチ拡散プロセスを初期フェーズに切断する。
実験は、CutDiffusionの膨大な利点を浮き彫りにした。
- 参考スコア(独自算出の注目度): 67.6364885382287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transforming large pre-trained low-resolution diffusion models to cater to higher-resolution demands, i.e., diffusion extrapolation, significantly improves diffusion adaptability. We propose tuning-free CutDiffusion, aimed at simplifying and accelerating the diffusion extrapolation process, making it more affordable and improving performance. CutDiffusion abides by the existing patch-wise extrapolation but cuts a standard patch diffusion process into an initial phase focused on comprehensive structure denoising and a subsequent phase dedicated to specific detail refinement. Comprehensive experiments highlight the numerous almighty advantages of CutDiffusion: (1) simple method construction that enables a concise higher-resolution diffusion process without third-party engagement; (2) fast inference speed achieved through a single-step higher-resolution diffusion process, and fewer inference patches required; (3) cheap GPU cost resulting from patch-wise inference and fewer patches during the comprehensive structure denoising; (4) strong generation performance, stemming from the emphasis on specific detail refinement.
- Abstract(参考訳): 大規模な事前学習された低分解能拡散モデルから高分解能要求、すなわち拡散補間への変換は、拡散適応性を著しく改善する。
本研究では,拡散補間プロセスの簡素化と高速化を目的として,チューニング不要なCutDiffusionを提案する。
CutDiffusionは、既存のパッチワイド外挿法に依拠するが、標準的なパッチ拡散プロセスは、包括的構造に焦点をあてた初期フェーズと、それに続く特定の詳細精細化に特化したフェーズに切り替わる。
包括的実験では,(1)サードパーティの関与なしに高精度な高分解能拡散プロセスを可能にする簡易な手法構築,(2)単一ステップの高分解能拡散プロセスによって達成される高速な推論速度,および少ない推論パッチ,(3)包括的構造におけるパッチワイド推論と少ないパッチによる安価なGPUコスト,(4)具体的細かな精細化に重点を置いた強靭な生成性能が強調されている。
関連論文リスト
- Efficient Diffusion Model for Image Restoration by Residual Shifting [63.02725947015132]
本研究では,画像復元のための新しい,効率的な拡散モデルを提案する。
提案手法は,推論中の後処理の高速化を回避し,関連する性能劣化を回避する。
提案手法は,3つの古典的IRタスクにおける現在の最先端手法よりも優れた,あるいは同等の性能を実現する。
論文 参考訳(メタデータ) (2024-03-12T05:06:07Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - Towards More Accurate Diffusion Model Acceleration with A Timestep
Aligner [84.97253871387028]
数千のデノナイジングステップを用いて画像を生成するために定式化された拡散モデルは通常、遅い推論速度に悩まされる。
最小限のコストで特定の区間に対するより正確な積分方向を見つけるのに役立つ時間ステップ整合器を提案する。
実験により,我々のプラグイン設計を効率的に訓練し,様々な最先端加速度法の推論性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-10-14T02:19:07Z) - ResShift: Efficient Diffusion Model for Image Super-resolution by
Residual Shifting [70.83632337581034]
拡散に基づく画像超解像法(SR)は主に低推論速度によって制限される。
本稿では,SRの拡散段数を大幅に削減する新しい,効率的な拡散モデルを提案する。
本手法は,残差をシフトすることで高分解能画像と低分解能画像の間を移動させるマルコフ連鎖を構成する。
論文 参考訳(メタデータ) (2023-07-23T15:10:02Z) - Diffusion Sampling with Momentum for Mitigating Divergence Artifacts [10.181486597424486]
本研究では, 分散アーティファクトの潜在的な原因について検討し, 数値的手法の小さな安定性領域が主な原因である可能性が示唆された。
第1のテクニックは、最適化を改善するためのよく知られたテクニックであるヘビーボール運動量(HB)を、既存の拡散数値法に組み入れて安定性領域を広げることである。
第2のテクニックは、GHVB(Generalized Heavy Ball)と呼ばれ、精度とアーティファクトの抑制のトレードオフを提供する新しい高階法を構築する。
論文 参考訳(メタデータ) (2023-07-20T14:37:30Z) - Decoupled Diffusion Models: Simultaneous Image to Zero and Zero to Noise [53.04220377034574]
10機能未満の高画質(未条件)の画像生成のためのデカップリング拡散モデル(DDM)を提案する。
我々は,1) 画像から0遷移までをモデル化した解析的遷移確率に基づいて, 学習目標と(2) サンプリング式を逆時間に導出する。
1)無条件画像生成, CIFAR-10, CelebA-HQ-256, 2)超解像, 塩分検出, エッジ検出, 画像入力などの下流処理, テキスト処理, テキスト処理, テキスト処理, テキスト処理, 画像処理, 画像処理などと比較して, 非常に競争力のある性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。