論文の概要: Relay Diffusion: Unifying diffusion process across resolutions for image
synthesis
- arxiv url: http://arxiv.org/abs/2309.03350v1
- Date: Mon, 4 Sep 2023 15:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:56:56.364877
- Title: Relay Diffusion: Unifying diffusion process across resolutions for image
synthesis
- Title(参考訳): リレー拡散:画像合成のための解像度を越えた拡散過程の統一
- Authors: Jiayan Teng, Wendi Zheng, Ming Ding, Wenyi Hong, Jianqiao Wangni,
Zhuoyi Yang, Jie Tang
- Abstract要約: リレー拡散モデル(Relay Diffusion Model, RDM)は、低分解能画像またはノイズを、ぼやけた拡散とブロックノイズによって拡散モデルに等価な高分解能画像に変換する。
RDMはCelebA-HQの最先端のFIDとImageNetのsFIDを256$times $256で達成し、ADM, LDM, DiTといった以前の作品を大きく上回っている。
- 参考スコア(独自算出の注目度): 26.96575808522695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models achieved great success in image synthesis, but still face
challenges in high-resolution generation. Through the lens of discrete cosine
transformation, we find the main reason is that \emph{the same noise level on a
higher resolution results in a higher Signal-to-Noise Ratio in the frequency
domain}. In this work, we present Relay Diffusion Model (RDM), which transfers
a low-resolution image or noise into an equivalent high-resolution one for
diffusion model via blurring diffusion and block noise. Therefore, the
diffusion process can continue seamlessly in any new resolution or model
without restarting from pure noise or low-resolution conditioning. RDM achieves
state-of-the-art FID on CelebA-HQ and sFID on ImageNet 256$\times$256,
surpassing previous works such as ADM, LDM and DiT by a large margin. All the
codes and checkpoints are open-sourced at
\url{https://github.com/THUDM/RelayDiffusion}.
- Abstract(参考訳): 拡散モデルは画像合成で大きな成功を収めたが、高分解能生成では依然として課題に直面している。
離散コサイン変換のレンズを通して、高分解能における同じノイズレベルが周波数領域において高い信号対雑音比となることが主な理由であることが分かる。
本研究では,低分解能画像やノイズを,ぼかし拡散とブロックノイズによる拡散モデルに等価な高分解能画像に転送するリレー拡散モデル(rdm)を提案する。
したがって、純粋なノイズや低解像度条件から再開することなく、拡散過程を任意の新しい解像度やモデルでシームレスに継続することができる。
RDM は CelebA-HQ の最先端 FID と ImageNet 256$\times$256 の sFID を達成し、ADM, LDM, DiT といった以前の作品を大きく上回っている。
すべてのコードとチェックポイントは、 \url{https://github.com/thudm/relaydiffusion}でオープンソースである。
関連論文リスト
- Diffusion-Aided Joint Source Channel Coding For High Realism Wireless Image Transmission [24.372996233209854]
DiffJSCCは条件拡散復調法により高現実性画像を生成する新しいフレームワークである。
768x512ピクセルのコダック画像を3072のシンボルで再現できる。
論文 参考訳(メタデータ) (2024-04-27T00:12:13Z) - Domain Transfer in Latent Space (DTLS) Wins on Image Super-Resolution --
a Non-Denoising Model [13.326634982790528]
本稿では,ガウス雑音から逃れる単純な手法を提案するが,画像超解像のための拡散モデルの基本構造を採用する。
実験結果から,本手法は最先端の大規模超解像モデルだけでなく,画像超解像に対する現在の拡散モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-11-04T09:57:50Z) - PartDiff: Image Super-resolution with Partial Diffusion Models [3.8435187580887717]
拡散確率モデル(DDPM)は,様々な画像生成タスクにおいて顕著な性能を達成している。
DDPMは、ランダムノイズから反復的にデノイングすることで、新しいデータを生成する。
しかし、拡散に基づく生成モデルは、多くのデノナイジングステップのために高い計算コストに悩まされる。
本稿では,部分拡散モデル (PartDiff) を提案する。
論文 参考訳(メタデータ) (2023-07-21T22:11:23Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z) - SDM: Spatial Diffusion Model for Large Hole Image Inpainting [106.90795513361498]
本稿では,空間拡散モデル(SDM)を提案する。
また,提案手法は非結合確率モデルと空間拡散スキームにより,高品質な大穴工法を実現する。
論文 参考訳(メタデータ) (2022-12-06T13:30:18Z) - Dimensionality-Varying Diffusion Process [52.52681373641533]
拡散モデルは、信号破壊プロセスを逆転して新しいデータを生成することを学習する。
信号分解による前方拡散過程の理論的一般化を行う。
FFHQで訓練された拡散モデルのFIDを,52.40から10.46までの1024Times1024$解像度で改善する。
論文 参考訳(メタデータ) (2022-11-29T09:05:55Z) - Progressive Deblurring of Diffusion Models for Coarse-to-Fine Image
Synthesis [39.671396431940224]
拡散モデルは、徐々にノイズを取り除き、増幅信号を増幅することにより、画像合成において顕著な結果を示した。
本稿では,画像の粗大な合成方法を提案する。
実験の結果,提案手法はLSUNの寝室や教会のデータセットにおいて,従来のFID法よりも優れていた。
論文 参考訳(メタデータ) (2022-07-16T15:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。