論文の概要: Best-Buddy GANs for Highly Detailed Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2103.15295v1
- Date: Mon, 29 Mar 2021 02:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:39:51.054040
- Title: Best-Buddy GANs for Highly Detailed Image Super-Resolution
- Title(参考訳): 高精細画像超解像のためのベストバディGAN
- Authors: Wenbo Li, Kun Zhou, Lu Qi, Liying Lu, Nianjuan Jiang, Jiangbo Lu,
Jiaya Jia
- Abstract要約: 我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
- 参考スコア(独自算出の注目度): 71.13466303340192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the single image super-resolution (SISR) problem, where a
high-resolution (HR) image is generated based on a low-resolution (LR) input.
Recently, generative adversarial networks (GANs) become popular to hallucinate
details. Most methods along this line rely on a predefined single-LR-single-HR
mapping, which is not flexible enough for the SISR task. Also, GAN-generated
fake details may often undermine the realism of the whole image. We address
these issues by proposing best-buddy GANs (Beby-GAN) for rich-detail SISR.
Relaxing the immutable one-to-one constraint, we allow the estimated patches to
dynamically seek the best supervision during training, which is beneficial to
producing more reasonable details. Besides, we propose a region-aware
adversarial learning strategy that directs our model to focus on generating
details for textured areas adaptively. Extensive experiments justify the
effectiveness of our method. An ultra-high-resolution 4K dataset is also
constructed to facilitate future super-resolution research.
- Abstract(参考訳): 我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
近年,GAN (Generative Adversarial Network) が注目されている。
この線に沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前に定義されたシングルLRシングルHRマッピングに依存している。
また、GANが生成した偽の細部は、画像全体の現実性を損なうことがある。
本稿では,リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチがトレーニング中の最高の監視を動的に求めることを可能にする。
さらに,テクスチャ領域の細部を適応的に生成することに焦点を当てた,地域対応の逆学習戦略を提案する。
大規模な実験は我々の方法の有効性を正当化する。
超高解像度4Kデータセットも、将来の超高解像度研究を促進するために構築されている。
関連論文リスト
- See More Details: Efficient Image Super-Resolution by Experts Mining [79.35310245195402]
本稿では,エキスパートマイニングを用いた効率的なSRモデルであるSeemoReを紹介する。
当社のアプローチは、さまざまなレベルの専門家を戦略的に取り入れ、協調的な方法論を採用しています。
正確なSRに欠かせない重要な要素を専門に扱うことで、我々のモデルは複雑な機能内詳細を明らかにすることに長けています。
論文 参考訳(メタデータ) (2024-02-05T16:11:04Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Single Image Internal Distribution Measurement Using Non-Local
Variational Autoencoder [11.985083962982909]
本稿では,非局所変分オートエンコーダ(textttNLVAE)という画像固有解を提案する。
textttNLVAEは,非局所領域からの非絡み合った情報を用いて高解像度画像を再構成する自己教師型戦略として導入された。
7つのベンチマークデータセットによる実験結果から,textttNLVAEモデルの有効性が示された。
論文 参考訳(メタデータ) (2022-04-02T18:43:55Z) - Memory-augmented Deep Unfolding Network for Guided Image
Super-resolution [67.83489239124557]
誘導画像超解像(GISR)は、HR画像の誘導の下で低解像度(LR)目標画像の空間分解能を高めて高解像度(HR)目標画像を得る。
従来のモデルベース手法は主に画像全体を取り、HR目標画像とHRガイダンス画像との事前分布を仮定する。
HR目標画像上で2種類の事前性を持つGISRの最大後部(MAP)推定モデルを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:37:13Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - FAN: Frequency Aggregation Network for Real Image Super-resolution [33.30542701042704]
単一画像超解像(SISR)は、低解像度(LR)入力画像から高解像度(HR)画像を復元することを目的としている。
実世界の超可溶化問題に対処するために,周波数集約ネットワークであるFANを提案する。
論文 参考訳(メタデータ) (2020-09-30T10:18:41Z) - Deep Cyclic Generative Adversarial Residual Convolutional Networks for
Real Image Super-Resolution [20.537597542144916]
我々は、LRとHRデータ分布間の領域整合性を維持するために、深い循環ネットワーク構造を考える。
本稿では,LRからHRドメインへの変換のためのGAN(Generative Adversarial Network)フレームワークを用いた学習により,超解像残留周期生成逆ネットワーク(SRResCycGAN)を提案する。
論文 参考訳(メタデータ) (2020-09-07T11:11:18Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z) - PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of
Generative Models [77.32079593577821]
PULSE (Photo Upsampling via Latent Space Exploration) は、それまで文献になかった解像度で高解像度でリアルな画像を生成する。
本手法は, 従来よりも高分解能, スケールファクターの知覚品質において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。