論文の概要: ControlSR: Taming Diffusion Models for Consistent Real-World Image Super Resolution
- arxiv url: http://arxiv.org/abs/2410.14279v2
- Date: Tue, 01 Apr 2025 08:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-02 14:12:27.675235
- Title: ControlSR: Taming Diffusion Models for Consistent Real-World Image Super Resolution
- Title(参考訳): ControlSR: Consistent Real-World Image Super Resolutionのための拡散モデルモデリング
- Authors: Yuhao Wan, Peng-Tao Jiang, Qibin Hou, Hao Zhang, Jinwei Chen, Ming-Ming Cheng, Bo Li,
- Abstract要約: 我々は、一貫した実世界の画像超解像(Real-ISR)に対して拡散モデルをテーム化する新しい方法であるControlSRを提案する。
提案モデルでは,複数のテストセット上で複数の測定値にまたがる性能が向上し,既存の手法よりもLR画像でより一貫したSR結果が得られる。
- 参考スコア(独自算出の注目度): 68.72454974431749
- License:
- Abstract: We present ControlSR, a new method that can tame Diffusion Models for consistent real-world image super-resolution (Real-ISR). Previous Real-ISR models mostly focus on how to activate more generative priors of text-to-image diffusion models to make the output high-resolution (HR) images look better. However, since these methods rely too much on the generative priors, the content of the output images is often inconsistent with the input LR ones. To mitigate the above issue, in this work, we tame Diffusion Models by effectively utilizing LR information to impose stronger constraints on the control signals from ControlNet in the latent space. We show that our method can produce higher-quality control signals, which enables the super-resolution results to be more consistent with the LR image and leads to clearer visual results. In addition, we also propose an inference strategy that imposes constraints in the latent space using LR information, allowing for the simultaneous improvement of fidelity and generative ability. Experiments demonstrate that our model can achieve better performance across multiple metrics on several test sets and generate more consistent SR results with LR images than existing methods. Our code is available at https://github.com/HVision-NKU/ControlSR.
- Abstract(参考訳): 我々は,一貫した実世界の画像超解像(Real-ISR)を拡散モデルで処理する新しい手法であるControlSRを提案する。
従来のReal-ISRモデルは、出力高解像度(HR)画像がより良く見えるように、テキストと画像の拡散モデルのより生成的な先行を活性化する方法に主に焦点を当てている。
しかし、これらの手法は生成先行に大きく依存しているため、出力画像の内容は入力LRと矛盾することが多い。
上記の問題を緩和するため,本研究では,LR情報を効果的に活用して,潜時空間におけるコントロールネットの制御信号に強い制約を課す拡散モデルを提案する。
提案手法は,高画質の制御信号を生成できることを示す。これにより,超解像がLR画像とより整合し,より鮮明な視覚的結果が得られる。
また、LR情報を用いて潜伏空間に制約を課す推論戦略を提案し、忠実度と生成能力の同時向上を可能にする。
実験により,本モデルでは,複数のテストセット上で複数の測定値にまたがる性能が向上し,既存の手法よりもLR画像でより一貫したSR結果が得られることが示された。
私たちのコードはhttps://github.com/HVision-NKU/ControlSRで公開されています。
関連論文リスト
- Unveiling Hidden Details: A RAW Data-Enhanced Paradigm for Real-World Super-Resolution [56.98910228239627]
リアル・ワールド・イメージ・スーパーレゾリューション(Real SR)は、低解像度(LR)画像から高忠実でディテールに富んだ高解像度(HR)画像を生成することを目的としている。
既存のReal SRメソッドは主にLR RGBドメインから詳細を生成することに重点を置いており、しばしば細部における豊かさや忠実さの欠如につながっている。
RAWデータに隠された詳細を用いて既存のRGBのみの手法を補完し、優れた出力を得る。
論文 参考訳(メタデータ) (2024-11-16T13:29:50Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Real Image Super-Resolution using GAN through modeling of LR and HR
process [20.537597542144916]
LRモデルとSRモデルに組み込んだ学習可能な適応正弦波非線形性を提案し,分解分布を直接学習する。
定量的および定性的な実験において提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T09:23:37Z) - Self-Supervised Learning for Real-World Super-Resolution from Dual
Zoomed Observations [66.09210030518686]
デュアルカメラズーム(SelfDZSR)で観測した実世界のRefSRに対する新しい自己教師型学習手法を提案する。
最初の問題として、よりズームされた(望遠的な)画像は、より少ないズームされた(短焦点)画像のSRをガイドする参照として自然に利用することができる。
2つ目の問題として、セルフDZSRは、短焦点画像のSR結果を得るための深層ネットワークを、望遠画像と同じ解像度で学習する。
論文 参考訳(メタデータ) (2022-03-02T13:30:56Z) - A Deep Residual Star Generative Adversarial Network for multi-domain
Image Super-Resolution [21.39772242119127]
Super-Resolution Residual StarGAN (SR2*GAN) は、単一のモデルのみを用いて複数のLRドメインのLR画像を超解する、新しくスケーラブルなアプローチである。
提案手法は,他の最先端手法と比較して定量的,定性的実験において有効であることを示す。
論文 参考訳(メタデータ) (2021-07-07T11:15:17Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Real-World Super-Resolution of Face-Images from Surveillance Cameras [25.258587196435464]
本稿では,現実的なLR/HRトレーニングペアを生成するための新しいフレームワークを提案する。
本フレームワークは、実写のぼやけたカーネル、ノイズ分布、JPEG圧縮アーチファクトを推定し、ソース領域のものと類似した画像特性を持つLR画像を生成する。
我々はGANベースのSRモデルを用いて、よく使われるVGG-loss[24]とLPIPS-loss[52]を交換した。
論文 参考訳(メタデータ) (2021-02-05T11:38:30Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z) - Closed-loop Matters: Dual Regression Networks for Single Image
Super-Resolution [73.86924594746884]
ディープニューラルネットワークは、画像超解像において有望な性能を示した。
これらのネットワークは、低分解能(LR)画像から高分解能(HR)画像への非線形マッピング関数を学習する。
本稿では,可能な関数の空間を削減するために,LRデータに新たな制約を導入することで,二重回帰手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T04:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。