論文の概要: UGPNet: Universal Generative Prior for Image Restoration
- arxiv url: http://arxiv.org/abs/2401.00370v1
- Date: Sun, 31 Dec 2023 02:16:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:40:25.616333
- Title: UGPNet: Universal Generative Prior for Image Restoration
- Title(参考訳): UGPNet:イメージ復元のためのユニバーサルジェネレーター
- Authors: Hwayoon Lee, Kyoungkook Kang, Hyeongmin Lee, Seung-Hwan Baek, Sunghyun
Cho
- Abstract要約: 本稿では,ユニバーサル画像復元フレームワークであるUGPNetを提案する。
UGPNetは高忠実度画像復元のための回帰法と生成法の両方をうまく活用できることを示す。
超高精細度画像復元のための回帰法と生成法の両方をUGPNetが有効に活用できることを示す。
- 参考スコア(独自算出の注目度): 26.872219158636604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent image restoration methods can be broadly categorized into two classes:
(1) regression methods that recover the rough structure of the original image
without synthesizing high-frequency details and (2) generative methods that
synthesize perceptually-realistic high-frequency details even though the
resulting image deviates from the original structure of the input. While both
directions have been extensively studied in isolation, merging their benefits
with a single framework has been rarely studied. In this paper, we propose
UGPNet, a universal image restoration framework that can effectively achieve
the benefits of both approaches by simply adopting a pair of an existing
regression model and a generative model. UGPNet first restores the image
structure of a degraded input using a regression model and synthesizes a
perceptually-realistic image with a generative model on top of the regressed
output. UGPNet then combines the regressed output and the synthesized output,
resulting in a final result that faithfully reconstructs the structure of the
original image in addition to perceptually-realistic textures. Our extensive
experiments on deblurring, denoising, and super-resolution demonstrate that
UGPNet can successfully exploit both regression and generative methods for
high-fidelity image restoration.
- Abstract(参考訳): 最近の画像復元手法は,(1)高周波ディテールを合成することなく原画像の粗い構造を復元する回帰法,(2)入力元の構造から逸脱した場合でも知覚的実数的高周波ディテールを合成する生成法,の2種類に大別できる。
どちらの方向も独立して広く研究されているが、その利点と単一のフレームワークを統合することはめったに研究されていない。
本稿では,既存の回帰モデルと生成モデルのペアを採用するだけで,両アプローチのメリットを効果的に実現できる普遍的な画像復元フレームワークであるUGPNetを提案する。
UGPNetはまず回帰モデルを用いて劣化した入力の画像構造を復元し、回帰出力の上に生成モデルを用いた知覚現実画像を生成する。
UGPNetは、回帰出力と合成出力を組み合わせることで、最終的な結果として、知覚的に現実的なテクスチャに加えて、元のイメージの構造を忠実に再構築する。
超高精細度画像復元のための回帰法と生成法の両方をUGPNetが有効に活用できることを示す。
関連論文リスト
- Latent Diffusion Prior Enhanced Deep Unfolding for Snapshot Spectral Compressive Imaging [17.511583657111792]
スナップショット分光画像再構成は、単発2次元圧縮計測から3次元空間スペクトル像を再構成することを目的としている。
我々は, 深部展開法に先立って劣化のないモデルを生成するため, 遅延拡散モデル(LDM)という生成モデルを導入する。
論文 参考訳(メタデータ) (2023-11-24T04:55:20Z) - Nest-DGIL: Nesterov-optimized Deep Geometric Incremental Learning for CS
Image Reconstruction [9.54126979075279]
第二次ネステロフ近位勾配最適化に基づく深層幾何学的漸進学習フレームワークを提案する。
再建フレームワークは, 一般的な線形再構成, カスケード幾何的漸進的復元, ネステロフ加速度, 後処理の4つのモジュールに分解される。
論文 参考訳(メタデータ) (2023-08-06T15:47:03Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z) - Invertible Rescaling Network and Its Extensions [118.72015270085535]
本研究では,新たな視点から双方向の劣化と復元をモデル化する,新しい可逆的枠組みを提案する。
我々は、有効な劣化画像を生成し、失われたコンテンツの分布を変換する可逆モデルを開発する。
そして、ランダムに描画された潜在変数とともに、生成された劣化画像に逆変換を適用することにより、復元可能とする。
論文 参考訳(メタデータ) (2022-10-09T06:58:58Z) - Deep Amended Gradient Descent for Efficient Spectral Reconstruction from
Single RGB Images [42.26124628784883]
本稿では、AGD-Netという、コンパクトで効率的でエンドツーエンドの学習ベースのフレームワークを提案する。
まず、古典的勾配降下アルゴリズムに基づいて問題を明示的に定式化する。
AGD-Netは、平均1.0dB以上のリコンストラクション品質を向上させることができる。
論文 参考訳(メタデータ) (2021-08-12T05:54:09Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Inverting Adversarially Robust Networks for Image Synthesis [37.927552662984034]
本稿では,特徴反転モデルの知覚的プリミティブとしてロバスト表現を用いることを提案する。
画像として頑健な表現を採用することにより,CNNに基づく特徴反転モデルの再構成精度が大幅に向上することを示す。
そこで本研究では,ロバストな表現に基づく符号化復号ネットワークを提案し,異常検出,スタイル転送,画像復号化などの応用にその利点を示す。
論文 参考訳(メタデータ) (2021-06-13T05:51:00Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。