論文の概要: Perceptual Extreme Super Resolution Network with Receptive Field Block
- arxiv url: http://arxiv.org/abs/2005.12597v1
- Date: Tue, 26 May 2020 09:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 00:42:12.079962
- Title: Perceptual Extreme Super Resolution Network with Receptive Field Block
- Title(参考訳): 受容場ブロックを有する知覚極超解像ネットワーク
- Authors: Taizhang Shang, Qiuju Dai, Shengchen Zhu, Tong Yang, Yandong Guo
- Abstract要約: 拡張SRGANに基づく受信フィールドブロックを持つ超解像ネットワークを開発した。
RFB-ESRGANはオブジェクトの検出と分類において競合する結果を得た。
- 参考スコア(独自算出の注目度): 11.557328975199043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceptual Extreme Super-Resolution for single image is extremely difficult,
because the texture details of different images vary greatly. To tackle this
difficulty, we develop a super resolution network with receptive field block
based on Enhanced SRGAN. We call our network RFB-ESRGAN. The key contributions
are listed as follows. First, for the purpose of extracting multi-scale
information and enhance the feature discriminability, we applied receptive
field block (RFB) to super resolution. RFB has achieved competitive results in
object detection and classification. Second, instead of using large convolution
kernels in multi-scale receptive field block, several small kernels are used in
RFB, which makes us be able to extract detailed features and reduce the
computation complexity. Third, we alternately use different upsampling methods
in the upsampling stage to reduce the high computation complexity and still
remain satisfactory performance. Fourth, we use the ensemble of 10 models of
different iteration to improve the robustness of model and reduce the noise
introduced by each individual model. Our experimental results show the superior
performance of RFB-ESRGAN. According to the preliminary results of NTIRE 2020
Perceptual Extreme Super-Resolution Challenge, our solution ranks first among
all the participants.
- Abstract(参考訳): 画像のテクスチャの細部が大きく異なるため,単一画像に対する知覚的超解法は非常に困難である。
この課題に対処するため、SRGANの強化に基づく受信フィールドブロック付き超解像ネットワークを開発した。
RFB-ESRGANと呼ぶ。
主な貢献は以下のとおりである。
まず,マルチスケール情報の抽出と特徴識別性の向上を目的として,超解像に受容野ブロック(RFB)を適用した。
RFBはオブジェクトの検出と分類において競合する結果を得た。
第二に、大規模な畳み込みカーネルをマルチスケールの受容フィールドブロックで使用する代わりに、RFBではいくつかの小さなカーネルが使用されるため、詳細な特徴を抽出し、計算複雑性を低減することができる。
第3に、アップサンプリング段階で異なるアップサンプリング手法を交互に使用し、高い計算複雑性を低減し、依然として良好な性能を維持している。
第4に、異なるイテレーションの10モデルのアンサンブルを使用して、モデルの堅牢性を改善し、各モデルが導入するノイズを低減する。
RFB-ESRGANの優れた性能を示した。
NTIRE 2020 Perceptual Extreme Super-Resolution Challengeの予備結果によると、このソリューションはすべての参加者の中で第1位です。
関連論文リスト
- Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Infrared Image Super-Resolution via Heterogeneous Convolutional WGAN [4.6667021835430145]
我々は、ヘテロジニアスカーネルベースの超解像ワッサースタインGAN(HetSRWGAN)をIR画像の超解像に用いるフレームワークを提案する。
HetSRWGANは定性評価と定量的評価の両方において一貫して優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-09-02T14:01:05Z) - Multi-Attention Generative Adversarial Network for Remote Sensing Image
Super-Resolution [17.04588012373861]
画像超解像(SR)法では,空間分解能の高いリモートセンシング画像を生成することができる。
本稿では,GAN(Generative Adversarial Network)に基づく高解像度リモートセンシング画像を生成するネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:06:19Z) - Discrete Cosine Transform Network for Guided Depth Map Super-Resolution [19.86463937632802]
目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
論文 参考訳(メタデータ) (2021-04-14T17:01:03Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。