論文の概要: Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation
- arxiv url: http://arxiv.org/abs/2306.13720v9
- Date: Fri, 29 Nov 2024 11:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:37.116212
- Title: Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation
- Title(参考訳): ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ・ゼロ:解析的画像減衰を伴う拡散モデル
- Authors: Yuhang Huang, Zheng Qin, Xinwang Liu, Kai Xu,
- Abstract要約: 高品質(未条件)な画像生成のための前方拡散プロセスに解析的画像減衰プロセスを導入することを提案する。
本手法は,フォワード画像からノイズへのマッピングを,テクスチメジからゼロへのマッピングとテクスティケロ・ツー・ノイズマッピングの同時マッピングとして表現する。
我々は,CIFAR-10やCelebA-HQ-256などの無条件画像生成や,超解像,サリエンシ検出,エッジ検出,画像インペインティングなどの画像条件下での下流処理について実験を行った。
- 参考スコア(独自算出の注目度): 53.04220377034574
- License:
- Abstract: Recent studies have demonstrated that the forward diffusion process is crucial for the effectiveness of diffusion models in terms of generative quality and sampling efficiency. We propose incorporating an analytical image attenuation process into the forward diffusion process for high-quality (un)conditioned image generation with significantly fewer denoising steps compared to the vanilla diffusion model requiring thousands of steps. In a nutshell, our method represents the forward image-to-noise mapping as simultaneous \textit{image-to-zero} mapping and \textit{zero-to-noise} mapping. Under this framework, we mathematically derive 1) the training objectives and 2) for the reverse time the sampling formula based on an analytical attenuation function which models image to zero mapping. The former enables our method to learn noise and image components simultaneously which simplifies learning. Importantly, because of the latter's analyticity in the \textit{zero-to-image} sampling function, we can avoid the ordinary differential equation-based accelerators and instead naturally perform sampling with an arbitrary step size. We have conducted extensive experiments on unconditioned image generation, \textit{e.g.}, CIFAR-10 and CelebA-HQ-256, and image-conditioned downstream tasks such as super-resolution, saliency detection, edge detection, and image inpainting. The proposed diffusion models achieve competitive generative quality with much fewer denoising steps compared to the state of the art, thus greatly accelerating the generation speed. In particular, to generate images of comparable quality, our models require only one-twentieth of the denoising steps compared to the baseline denoising diffusion probabilistic models. Moreover, we achieve state-of-the-art performances on the image-conditioned tasks using only no more than 10 steps.
- Abstract(参考訳): 近年の研究では, 進行拡散過程は, 生成的品質とサンプリング効率の観点から拡散モデルの有効性に欠かせないことが示されている。
本研究では,数千段のステップを必要とするバニラ拡散モデルと比較して,高画質(未条件)の画像生成のための前方拡散過程に解析的画像減衰プロセスを導入することを提案する。
簡単に言えば,本手法は前向き画像-雑音マッピングを,同時に \textit{image-to-zero} マッピングと \textit{zero-to-noise} マッピングとして表現する。
この枠組みの下では、数学的に導出する
1) 訓練の目的と
2) 逆時間の場合, 画像のゼロマッピングをモデル化した解析減衰関数に基づくサンプリング式が得られた。
前者はノイズと画像成分を同時に学習し,学習を簡略化する手法である。
重要なことは、後者のサンプリング関数であるtextit{zero-to-image} の解析性のため、通常の微分方程式ベースの加速器を避け、任意のステップサイズで自然にサンプリングを行うことができる。
我々は,未条件画像生成,<textit{e g }, CIFAR-10, CelebA-HQ-256, および超解像, 塩分検出, エッジ検出, 画像インペインティングなどの画像条件下下流タスクについて広範な実験を行った。
提案した拡散モデルでは, 最先端技術に比べてデノゲーションステップがはるかに少なく, 競合生成品質が向上し, 生成速度が大幅に向上する。
特に、同等の画質の画像を生成するためには、我々のモデルは拡散確率モデルのベースラインよりもデノナイジングステップの2分の1しか必要としない。
さらに,10段階以内のステップで画像条件付きタスクの最先端性能を実現する。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - AdaDiff: Adaptive Step Selection for Fast Diffusion Models [82.78899138400435]
我々は、インスタンス固有のステップ利用ポリシーを学ぶために設計された軽量フレームワークであるAdaDiffを紹介します。
AdaDiffはポリシーメソッドを使用して最適化され、慎重に設計された報酬関数を最大化する。
我々は3つの画像生成と2つのビデオ生成ベンチマークの実験を行い、本手法がベースラインと同じような視覚的品質を実現することを示す。
論文 参考訳(メタデータ) (2023-11-24T11:20:38Z) - SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Real-World Denoising via Diffusion Model [14.722529440511446]
実世界のイメージデノイングは、自然の環境で撮影されたノイズの多い画像からクリーンなイメージを復元することを目的としている。
拡散モデルは画像生成の分野で非常に有望な結果を得た。
本稿では,実世界の画像のデノナイズに使用可能な,新しい一般デノナイズ拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-05-08T04:48:03Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。