論文の概要: Improving Super-Resolution Performance using Meta-Attention Layers
- arxiv url: http://arxiv.org/abs/2110.14638v1
- Date: Wed, 27 Oct 2021 09:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:44:49.062739
- Title: Improving Super-Resolution Performance using Meta-Attention Layers
- Title(参考訳): メタアテンション層を用いた超解像性能の向上
- Authors: Matthew Aquilina, Christian Galea, John Abela, Kenneth P. Camilleri,
Reuben A. Farrugia
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は多くの超解像(SR)と画像復元タスクで素晴らしい結果を得た。
SRのIll-posed性質は、複数の異なる劣化を経た画像を正確に超解き出すのを難しくする。
メタアテンション(メタアテンション)は、任意のSR CNNが関連する劣化パラメータで利用可能な情報を活用できるようにするメカニズムである。
- 参考スコア(独自算出の注目度): 17.870338228921327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have achieved impressive results across
many super-resolution (SR) and image restoration tasks. While many such
networks can upscale low-resolution (LR) images using just the raw pixel-level
information, the ill-posed nature of SR can make it difficult to accurately
super-resolve an image which has undergone multiple different degradations.
Additional information (metadata) describing the degradation process (such as
the blur kernel applied, compression level, etc.) can guide networks to
super-resolve LR images with higher fidelity to the original source. Previous
attempts at informing SR networks with degradation parameters have indeed been
able to improve performance in a number of scenarios. However, due to the
fully-convolutional nature of many SR networks, most of these metadata fusion
methods either require a complete architectural change, or necessitate the
addition of significant extra complexity. Thus, these approaches are difficult
to introduce into arbitrary SR networks without considerable design
alterations. In this paper, we introduce meta-attention, a simple mechanism
which allows any SR CNN to exploit the information available in relevant
degradation parameters. The mechanism functions by translating the metadata
into a channel attention vector, which in turn selectively modulates the
network's feature maps. Incorporating meta-attention into SR networks is
straightforward, as it requires no specific type of architecture to function
correctly. Extensive testing has shown that meta-attention can consistently
improve the pixel-level accuracy of state-of-the-art (SOTA) networks when
provided with relevant degradation metadata. For PSNR, the gain on
blurred/downsampled (X4) images is of 0.2969 dB (on average) and 0.3320 dB for
SOTA general and face SR models, respectively.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は多くの超解像(SR)と画像復元タスクで素晴らしい結果を得た。
このようなネットワークの多くは、生のピクセルレベルの情報のみを用いて、低解像度(LR)画像をアップスケールすることができるが、SRの不正な性質は、複数の異なる劣化を経た画像を正確に超解き出すのを難しくする。
劣化過程を記述した追加情報(例えば、ぼやけたカーネル、圧縮レベルなど)は、元のソースに対して高い忠実度で高解像度のLR画像にネットワークを誘導することができる。
SRネットワークに劣化パラメータをインフォームする以前の試みは、多くのシナリオで性能を改善することができた。
しかし、多くのSRネットワークの完全な畳み込みの性質のため、これらのメタデータの融合手法の多くは完全なアーキテクチャ変更を必要とするか、あるいは追加の複雑さを追加する必要がある。
したがって、設計変更を伴わずに任意のSRネットワークを導入することは困難である。
本稿では、任意のSR CNNが関連する劣化パラメータで利用可能な情報を利用するためのシンプルなメカニズムであるメタアテンションを紹介する。
このメカニズムは、メタデータをチャネルアテンションベクトルに翻訳することで機能し、ネットワークの特徴マップを選択的に変調する。
SRネットワークにメタアテンションを組み込むことは、正確に機能する特定のタイプのアーキテクチャを必要としないため、簡単である。
拡張テストにより、メタアテンションは関連する劣化メタデータが提供されると、最新技術(SOTA)ネットワークのピクセルレベルの精度を一貫して改善できることが示された。
PSNRでは、ぼやけた/ダウンサンプル(X4)画像のゲインはそれぞれ0.2969dB(平均)と0.3320dB(SOTA一般モデルと顔SRモデル)である。
関連論文リスト
- A Heterogeneous Dynamic Convolutional Neural Network for Image
Super-resolution [111.97970576223622]
画像超解像(HDSRNet)における異種動的畳み込みネットワークを提案する。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
実験結果から,HDSRNetは画像解決に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - EBSR: Enhanced Binary Neural Network for Image Super-Resolution [18.93043462670991]
画像超解像のための量子ネットワーク、特にバイナリニューラルネットワーク(BNN)は、大きな性能劣化に悩まされている。
本稿では,より空間的・チャネル的情報を保持することにより,二元的畳み込みを増大させる,空間的再スケーリングとチャネル的シフトと再スケーリングの2つの効果的な手法を提案する。
EBSRと呼ばれる提案モデルは,異なるデータセットと異なるモデルサイズにまたがって,定量的かつ質的に先行技術よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T02:36:13Z) - CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Lightweight Stepless Super-Resolution of Remote Sensing Images via
Saliency-Aware Dynamic Routing Strategy [15.587621728422414]
深層学習アルゴリズムは、リモートセンシング画像(RSI)超解像(SR)の性能を大幅に改善した
しかし、ネットワークの深さとパラメータの増大は、計算とストレージに大きな負担をもたらす。
本稿では、RSIの軽量でステップレスなSRを実現するために、SalDRN(Saliency-aware dynamic routing network)を提案する。
論文 参考訳(メタデータ) (2022-10-14T07:49:03Z) - Meta-Learning based Degradation Representation for Blind
Super-Resolution [54.93926549648434]
メタラーニングに基づく地域劣化対応SRネットワーク(MRDA)を提案する。
我々はMRDAを用いて、数回の反復後に特定の複雑な劣化に迅速に適応し、暗黙的な劣化情報を抽出する。
教師ネットワークMRDA$_T$は、SRのためにMLNが抽出した劣化情報をさらに活用するように設計されている。
論文 参考訳(メタデータ) (2022-07-28T09:03:00Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Real Image Super Resolution Via Heterogeneous Model Ensemble using
GP-NAS [63.48801313087118]
本稿では,高密度スキップ接続を有するディープ残差ネットワークを用いた画像超解像法を提案する。
提案手法は、AIM 2020 Real Image Super-Resolution Challengeの3トラックで1位を獲得した。
論文 参考訳(メタデータ) (2020-09-02T22:33:23Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Unpaired Image Super-Resolution using Pseudo-Supervision [12.18340575383456]
生成逆数ネットワークを用いた非対位画像超解像(SR)手法を提案する。
我々のネットワークは、未ペアカーネル/ノイズ補正ネットワークと擬ペアSRネットワークで構成されている。
多様なデータセットに対する実験により,提案手法は未ペアSR問題に対する既存の解よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-02-26T10:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。