論文の概要: Implicit Diffusion Models for Continuous Super-Resolution
- arxiv url: http://arxiv.org/abs/2303.16491v2
- Date: Sun, 3 Sep 2023 10:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 05:53:29.059861
- Title: Implicit Diffusion Models for Continuous Super-Resolution
- Title(参考訳): 連続超解像のための暗黙的拡散モデル
- Authors: Sicheng Gao and Xuhui Liu and Bohan Zeng and Sheng Xu and Yanjing Li
and Xiaoyan Luo and Jianzhuang Liu and Xiantong Zhen and Baochang Zhang
- Abstract要約: 本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
- 参考スコア(独自算出の注目度): 65.45848137914592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image super-resolution (SR) has attracted increasing attention due to its
wide applications. However, current SR methods generally suffer from
over-smoothing and artifacts, and most work only with fixed magnifications.
This paper introduces an Implicit Diffusion Model (IDM) for high-fidelity
continuous image super-resolution. IDM integrates an implicit neural
representation and a denoising diffusion model in a unified end-to-end
framework, where the implicit neural representation is adopted in the decoding
process to learn continuous-resolution representation. Furthermore, we design a
scale-controllable conditioning mechanism that consists of a low-resolution
(LR) conditioning network and a scaling factor. The scaling factor regulates
the resolution and accordingly modulates the proportion of the LR information
and generated features in the final output, which enables the model to
accommodate the continuous-resolution requirement. Extensive experiments
validate the effectiveness of our IDM and demonstrate its superior performance
over prior arts.
- Abstract(参考訳): 画像超解像(SR)はその幅広い応用により注目を集めている。
しかし、現在のsrメソッドは一般的に過剰なスムーシングとアーティファクトに苦しんでおり、ほとんどは固定された倍率でしか動作しない。
本稿では,高忠実度連続画像の超解像のための暗黙拡散モデル(idm)を提案する。
IDMは暗黙のニューラル表現と暗黙の拡散モデルを統合されたエンドツーエンドフレームワークに統合し、暗黙のニューラル表現が復号プロセスで採用され、連続的なレゾリューション表現が学習される。
さらに、低解像度(LR)コンディショニングネットワークとスケーリング係数からなるスケール制御可能なコンディショニング機構を設計する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を調整し、連続分解能要件を満たすことができる。
IDMの有効性を検証し,先行技術よりも優れた性能を示した。
関連論文リスト
- Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [81.0962494325732]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z) - High-Resolution Image Synthesis with Latent Diffusion Models [14.786952412297808]
オートエンコーダ上での拡散モデルの訓練は、複雑性の低減と詳細保存の間のほぼ最適点に初めて到達することができる。
我々の潜伏拡散モデル(LDMs)は,様々なタスクにおける画像インペイントと高い競争性能の新たな技術を実現する。
論文 参考訳(メタデータ) (2021-12-20T18:55:25Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。