論文の概要: Real-World Image Super Resolution via Unsupervised Bi-directional Cycle
Domain Transfer Learning based Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2211.10563v1
- Date: Sat, 19 Nov 2022 02:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:23:19.158556
- Title: Real-World Image Super Resolution via Unsupervised Bi-directional Cycle
Domain Transfer Learning based Generative Adversarial Network
- Title(参考訳): 教師なし双方向ドメイン転送学習による実世界の超解像
- Authors: Xiang Wang, Yimin Yang, Zhichang Guo, Zhili Zhou, Yu Liu, Qixiang
Pang, Shan Du
- Abstract要約: UBCDTLGAN(Unsupervised Bi-directional Cycle Domain Transfer Learning-based Generative Adrial Network)を提案する。
まず、UBCDTNは、人工劣化領域から実世界の画像領域にLR画像を転送することで、近似された実状LR画像を生成することができる。
第二に、SESRNは、近似されたリアルライクなLR画像をフォトリアリスティックなHR画像に超解ける能力を持っている。
- 参考スコア(独自算出の注目度): 14.898170534545727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Convolutional Neural Networks (DCNNs) have exhibited impressive
performance on image super-resolution tasks. However, these deep learning-based
super-resolution methods perform poorly in real-world super-resolution tasks,
where the paired high-resolution and low-resolution images are unavailable and
the low-resolution images are degraded by complicated and unknown kernels. To
break these limitations, we propose the Unsupervised Bi-directional Cycle
Domain Transfer Learning-based Generative Adversarial Network (UBCDTL-GAN),
which consists of an Unsupervised Bi-directional Cycle Domain Transfer Network
(UBCDTN) and the Semantic Encoder guided Super Resolution Network (SESRN).
First, the UBCDTN is able to produce an approximated real-like LR image through
transferring the LR image from an artificially degraded domain to the
real-world LR image domain. Second, the SESRN has the ability to super-resolve
the approximated real-like LR image to a photo-realistic HR image. Extensive
experiments on unpaired real-world image benchmark datasets demonstrate that
the proposed method achieves superior performance compared to state-of-the-art
methods.
- Abstract(参考訳): 深部畳み込みニューラルネットワーク(DCNN)は、画像の超解像処理において素晴らしい性能を示した。
しかし、これらの深層学習に基づく超解像法は、高解像と低解像のペア画像が使用できず、低解像が複雑で未知のカーネルによって劣化する現実の超解像タスクでは、性能が劣る。
これらの制限を解消するために、Unsupervised Bi-directional Domain Transfer Learning-based Generative Adversarial Network (UBCDTL-GAN) を提案し、これはUnsupervised Bi-directional Cycle Domain Transfer Network (UBCDTN) とSemantic Encoder Guided Super Resolution Network (SESRN) から構成される。
まず、UBCDTNは、人工劣化領域から実世界のLR画像領域にLR画像を転送することで、近似された実状LR画像を生成することができる。
第二に、SESRNは、近似されたリアルライクなLR画像をフォトリアリスティックなHR画像に超解ける能力を持っている。
非ペア化実世界画像ベンチマークデータセットの広範な実験により,提案手法が最先端の手法よりも優れた性能を達成できることが証明された。
関連論文リスト
- Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Learning Many-to-Many Mapping for Unpaired Real-World Image
Super-resolution and Downscaling [60.80788144261183]
実世界のLR画像とHR画像の双方向多対多マッピングを教師なしで同時に学習するSDFlowと呼ばれる画像ダウンスケーリングとSRモデルを提案する。
実世界の画像SRデータセットによる実験結果から,SDFlowは定量的かつ定性的に,多様な現実的なLRとSRの画像を生成可能であることが示唆された。
論文 参考訳(メタデータ) (2023-10-08T01:48:34Z) - Real-World Image Super-Resolution by Exclusionary Dual-Learning [98.36096041099906]
実世界の画像超解像は,高品質な画像を得るための実用的な画像復元問題である。
深層学習に基づく手法は、現実世界の超解像データセットの復元に期待できる品質を実現している。
本稿では,RWSR-EDL(Real-World Image Super-Resolution by Exclusionary Dual-Learning)を提案する。
論文 参考訳(メタデータ) (2022-06-06T13:28:15Z) - A Deep Residual Star Generative Adversarial Network for multi-domain
Image Super-Resolution [21.39772242119127]
Super-Resolution Residual StarGAN (SR2*GAN) は、単一のモデルのみを用いて複数のLRドメインのLR画像を超解する、新しくスケーラブルなアプローチである。
提案手法は,他の最先端手法と比較して定量的,定性的実験において有効であることを示す。
論文 参考訳(メタデータ) (2021-07-07T11:15:17Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z) - Deep Cyclic Generative Adversarial Residual Convolutional Networks for
Real Image Super-Resolution [20.537597542144916]
我々は、LRとHRデータ分布間の領域整合性を維持するために、深い循環ネットワーク構造を考える。
本稿では,LRからHRドメインへの変換のためのGAN(Generative Adversarial Network)フレームワークを用いた学習により,超解像残留周期生成逆ネットワーク(SRResCycGAN)を提案する。
論文 参考訳(メタデータ) (2020-09-07T11:11:18Z) - Benefiting from Bicubically Down-Sampled Images for Learning Real-World
Image Super-Resolution [22.339751911637077]
我々は、この不適切な問題を2つの比較的よく提示されたステップに分割することで、現実世界のSRを扱うことを提案する。
まず、実LR画像を教師付きで双対的にダウンサンプリングされた画像の空間に変換するネットワークを訓練する。
次に,2次元ダウンサンプル画像に基づいて学習した汎用SRネットワークを用いて,変換されたLR画像の超解像を行う。
論文 参考訳(メタデータ) (2020-07-06T20:27:58Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。