論文の概要: Learning A Single Network for Scale-Arbitrary Super-Resolution
- arxiv url: http://arxiv.org/abs/2004.03791v2
- Date: Fri, 23 Jul 2021 14:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:03:59.036072
- Title: Learning A Single Network for Scale-Arbitrary Super-Resolution
- Title(参考訳): 大規模任意超解法のための単一ネットワークの学習
- Authors: Longguang Wang, Yingqian Wang, Zaiping Lin, Jungang Yang, Wei An, and
Yulan Guo
- Abstract要約: 本稿では,スケール固有のネットワークから,スケール・アービタリー画像SRネットワークを学習することを提案する。
我々のプラグインモジュールは既存のネットワークに容易に適応でき、スケール・アービタリーSRを実現することができる。
- 参考スコア(独自算出の注目度): 43.025921944418485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the performance of single image super-resolution (SR) has been
significantly improved with powerful networks. However, these networks are
developed for image SR with a single specific integer scale (e.g., x2;x3,x4),
and cannot be used for non-integer and asymmetric SR. In this paper, we propose
to learn a scale-arbitrary image SR network from scale-specific networks.
Specifically, we propose a plug-in module for existing SR networks to perform
scale-arbitrary SR, which consists of multiple scale-aware feature adaption
blocks and a scale-aware upsampling layer. Moreover, we introduce a scale-aware
knowledge transfer paradigm to transfer knowledge from scale-specific networks
to the scale-arbitrary network. Our plug-in module can be easily adapted to
existing networks to achieve scale-arbitrary SR. These networks plugged with
our module can achieve promising results for non-integer and asymmetric SR
while maintaining state-of-the-art performance for SR with integer scale
factors. Besides, the additional computational and memory cost of our module is
very small.
- Abstract(参考訳): 近年,シングルイメージ超解像(SR)の性能は強力なネットワークで大幅に向上している。
しかし、これらのネットワークは1つの特定の整数スケール(x2;x3,x4など)のイメージSR向けに開発されており、非整数および非対称SRには使用できない。
本稿では,スケール固有のネットワークからスケール・アビトリ・イメージSRネットワークを学習することを提案する。
具体的には,複数のスケール対応特徴適応ブロックとスケール対応アップサンプリング層で構成される,既存のSRネットワーク用のプラグインモジュールを提案する。
さらに,スケール特化ネットワークからスケール特化ネットワークへ知識を伝達するための,スケール対応知識伝達パラダイムを導入する。
このプラグインモジュールは既存のネットワークに容易に適用でき、スケールアビタリーsrを実現します。
これらのネットワークをモジュールに接続することで、整数スケール係数を持つSRの最先端性能を維持しつつ、非整数および非対称SRに対して有望な結果が得られる。
さらに、我々のモジュールの計算コストとメモリコストも非常に小さいです。
関連論文リスト
- CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Scale-Aware Dynamic Network for Continuous-Scale Super-Resolution [16.67263192454279]
連続的スケールSRのためのSADN(Scale-Aware dynamic network)を提案する。
まず、複数のSRタスクを様々なスケールで特徴学習するためのSAD-Conv層を提案する。
第2に,マルチ双線形局所暗黙関数 (MBLIF) を付加した連続スケールアップサンプリングモジュール (CSUM) を考案した。
論文 参考訳(メタデータ) (2021-10-29T09:57:48Z) - Improving Super-Resolution Performance using Meta-Attention Layers [17.870338228921327]
畳み込みニューラルネットワーク(CNN)は多くの超解像(SR)と画像復元タスクで素晴らしい結果を得た。
SRのIll-posed性質は、複数の異なる劣化を経た画像を正確に超解き出すのを難しくする。
メタアテンション(メタアテンション)は、任意のSR CNNが関連する劣化パラメータで利用可能な情報を活用できるようにするメカニズムである。
論文 参考訳(メタデータ) (2021-10-27T09:20:21Z) - ClassSR: A General Framework to Accelerate Super-Resolution Networks by
Data Characteristic [35.02837100573671]
大型画像(2K-8K)上での超解像(SR)ネットワークの高速化を目指す。
異なる画像領域は復元の困難度が異なり、異なるキャパシティを持つネットワークで処理できることがわかった。
分類とSRを統一したフレームワークで組み合わせた新しいソリューションパイプラインであるClassSRを提案する。
論文 参考訳(メタデータ) (2021-03-06T06:00:31Z) - MPRNet: Multi-Path Residual Network for Lightweight Image Super
Resolution [2.3576437999036473]
軽量SRにおけるSOTA性能を向上させる軽量超解像ネットワークを提案する。
提案アーキテクチャには新たなアテンション機構であるTwo-Fold Attention Moduleが含まれており,モデルの表現能力を最大化することができる。
論文 参考訳(メタデータ) (2020-11-09T17:11:15Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。