論文の概要: CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2212.04362v3
- Date: Thu, 13 Apr 2023 07:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 17:15:17.345607
- Title: CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution
- Title(参考訳): CiaoSR: 任意スケール画像超解像のための連続入射注意ネットワーク
- Authors: Jiezhang Cao, Qin Wang, Yongqin Xian, Yawei Li, Bingbing Ni, Zhiming
Pi, Kai Zhang, Yulun Zhang, Radu Timofte, Luc Van Gool
- Abstract要約: 本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
- 参考スコア(独自算出の注目度): 158.2282163651066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning continuous image representations is recently gaining popularity for
image super-resolution (SR) because of its ability to reconstruct
high-resolution images with arbitrary scales from low-resolution inputs.
Existing methods mostly ensemble nearby features to predict the new pixel at
any queried coordinate in the SR image. Such a local ensemble suffers from some
limitations: i) it has no learnable parameters and it neglects the similarity
of the visual features; ii) it has a limited receptive field and cannot
ensemble relevant features in a large field which are important in an image. To
address these issues, this paper proposes a continuous implicit
attention-in-attention network, called CiaoSR. We explicitly design an implicit
attention network to learn the ensemble weights for the nearby local features.
Furthermore, we embed a scale-aware attention in this implicit attention
network to exploit additional non-local information. Extensive experiments on
benchmark datasets demonstrate CiaoSR significantly outperforms the existing
single image SR methods with the same backbone. In addition, CiaoSR also
achieves the state-of-the-art performance on the arbitrary-scale SR task. The
effectiveness of the method is also demonstrated on the real-world SR setting.
More importantly, CiaoSR can be flexibly integrated into any backbone to
improve the SR performance.
- Abstract(参考訳): 連続画像表現の学習は、低解像度入力から任意のスケールで高解像度画像を再構成できるため、画像超解像(SR)として最近人気が高まっている。
既存の手法のほとんどは、SR画像内の任意のクエリされた座標で新しいピクセルを予測するために、近くの特徴をまとめる。
このようなローカルアンサンブルにはいくつかの制限がある。
一 学習可能なパラメータがなく、視覚的特徴の類似性を無視していること。
二 受容体が限られており、画像において重要な大きなフィールドにおいて関連した特徴を合理化できないこと。
この問題に対処するため,本論文ではciaosrと呼ばれる暗黙の注意のネットワークを提案する。
暗黙の注意ネットワークを明示的に設計し,近傍の局所特徴のアンサンブル重みを学習する。
さらに,この暗黙の注意ネットワークにスケールアウェアの注意を埋め込み,追加の非ローカル情報を活用する。
ベンチマークデータセットに対する大規模な実験は、CiaoSRが既存の単一画像SRメソッドを同じバックボーンで大幅に上回っていることを示している。
さらに、CiaoSRは任意のスケールのSRタスクで最先端のパフォーマンスを達成する。
本手法の有効性は実世界のsr設定にも示される。
さらに重要なことに、ciaosrはsrのパフォーマンスを改善するために任意のバックボーンに柔軟に統合できる。
関連論文リスト
- UnmixingSR: Material-aware Network with Unsupervised Unmixing as Auxiliary Task for Hyperspectral Image Super-resolution [5.167168688234238]
本論文では、UnmixingSRと呼ばれる、コンポーネント対応ハイパースペクトル画像(HIS)超解像ネットワークを提案する。
我々は、SR問題の解法における方法の安定性を高めるために、LR量とHR量との結合を用いる。
実験結果から,SR問題に組み込まれた補助的タスクとしてのアンミックスプロセスが実現可能で合理的であることが示唆された。
論文 参考訳(メタデータ) (2024-07-09T03:41:02Z) - AnySR: Realizing Image Super-Resolution as Any-Scale, Any-Resource [84.74855803555677]
我々はAnySRを導入し、既存の任意のスケールのSRメソッドを任意のソース実装に再構築する。
私たちのAnySRは、1)任意のスケールタスクを任意のリソース実装として構築し、追加のパラメータなしで小さなスケールのリソース要件を減らします。
その結果,AnySR は SISR タスクをより効率的な計算方法で実装し,既存の任意のスケールの SISR メソッドに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-07-05T04:00:14Z) - Beyond Image Super-Resolution for Image Recognition with Task-Driven Perceptual Loss [47.36902705025445]
画像認識のための超解法(SR4IR)は、画像認識性能に有用なSR画像の生成をガイドする。
本稿では,SR4IRが,特定の画像認識タスクに有用なSR画像を生成することで,優れたタスク性能を実現することを実証する。
論文 参考訳(メタデータ) (2024-04-02T06:52:31Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Super-Resolution Neural Operator [5.018040244860608]
本稿では,低分解能(LR)画像から任意のスケールで高分解能(HR)画像を分解できるフレームワークを提案する。
LR-HR画像対を異なる格子サイズで近似した連続関数として扱うことにより、SRNOは対応する関数空間間のマッピングを学習する。
実験により、SRNOは既存の連続SR法よりも精度と実行時間の両方で優れていることが示された。
論文 参考訳(メタデータ) (2023-03-05T06:17:43Z) - Lightweight Stepless Super-Resolution of Remote Sensing Images via
Saliency-Aware Dynamic Routing Strategy [15.587621728422414]
深層学習アルゴリズムは、リモートセンシング画像(RSI)超解像(SR)の性能を大幅に改善した
しかし、ネットワークの深さとパラメータの増大は、計算とストレージに大きな負担をもたらす。
本稿では、RSIの軽量でステップレスなSRを実現するために、SalDRN(Saliency-aware dynamic routing network)を提案する。
論文 参考訳(メタデータ) (2022-10-14T07:49:03Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Image Super-Resolution with Cross-Scale Non-Local Attention and
Exhaustive Self-Exemplars Mining [66.82470461139376]
本稿では,再帰型ニューラルネットワークに統合されたCS-NLアテンションモジュールを提案する。
新しいCS-NLと局所的および非局所的非局所的前駆体を強力な再帰核融合セルで組み合わせることで、単一の低分解能画像内でよりクロススケールな特徴相関を見出すことができる。
論文 参考訳(メタデータ) (2020-06-02T07:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。