論文の概要: Efficient Image Super-Resolution Using Pixel Attention
- arxiv url: http://arxiv.org/abs/2010.01073v1
- Date: Fri, 2 Oct 2020 16:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:28:57.494222
- Title: Efficient Image Super-Resolution Using Pixel Attention
- Title(参考訳): 画素アテンションを用いた高効率画像超解像
- Authors: Hengyuan Zhao, Xiangtao Kong, Jingwen He, Yu Qiao and Chao Dong
- Abstract要約: 本研究は,画像スーパーレゾリューション(SR)のための軽量畳み込みニューラルネットワークの設計を目的とする。
新たに提案した画素アテンション方式により,比較的簡潔で効果的なネットワークを構築する。
画素アテンション(PA)は,定式化におけるチャネルアテンションや空間アテンションと類似している。
- 参考スコア(独自算出の注目度): 44.03012395351704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work aims at designing a lightweight convolutional neural network for
image super resolution (SR). With simplicity bare in mind, we construct a
pretty concise and effective network with a newly proposed pixel attention
scheme. Pixel attention (PA) is similar as channel attention and spatial
attention in formulation. The difference is that PA produces 3D attention maps
instead of a 1D attention vector or a 2D map. This attention scheme introduces
fewer additional parameters but generates better SR results. On the basis of
PA, we propose two building blocks for the main branch and the reconstruction
branch, respectively. The first one - SC-PA block has the same structure as the
Self-Calibrated convolution but with our PA layer. This block is much more
efficient than conventional residual/dense blocks, for its twobranch
architecture and attention scheme. While the second one - UPA block combines
the nearest-neighbor upsampling, convolution and PA layers. It improves the
final reconstruction quality with little parameter cost. Our final model- PAN
could achieve similar performance as the lightweight networks - SRResNet and
CARN, but with only 272K parameters (17.92% of SRResNet and 17.09% of CARN).
The effectiveness of each proposed component is also validated by ablation
study. The code is available at https://github.com/zhaohengyuan1/PAN.
- Abstract(参考訳): 本研究は,画像スーパーレゾリューション(sr)のための軽量畳み込みニューラルネットワークの設計を目的とする。
単純さを念頭に置いて、新たに提案された画素アテンション方式により、かなり簡潔で効果的なネットワークを構築する。
画素アテンション(PA)は,定式化におけるチャネルアテンションや空間アテンションと類似している。
違いは、PAが1Dの注意ベクトルや2Dマップの代わりに3Dの注意マップを生成することである。
このアテンションスキームは、より少ない追加パラメータを導入するが、より良いSR結果を生成する。
そこで本研究では,本店と再建支店の2つのビルディングブロックを提案する。
1つ目 - SC-PAブロックは自己キャリブレーションの畳み込みと同じ構造ですが、私たちのPA層で。
このブロックは2分岐アーキテクチャとアテンションスキームのために、従来の残差ブロックよりもはるかに効率的である。
2つ目 - UPAブロックは最寄りのアップサンプリング、畳み込み、PAレイヤを結合する。
パラメータコストが少なく、最終的な復元品質が向上する。
最後のmodel-panは軽量ネットワークであるsrresnetとcarnと同じような性能を実現できたが、srresnetの17.92%、carnの17.09%しかなかった。
また, 各成分の有効性をアブレーション法で検証した。
コードはhttps://github.com/zhaohengyuan1/PANで公開されている。
関連論文リスト
- UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - From Coarse to Fine: Hierarchical Pixel Integration for Lightweight
Image Super-Resolution [41.0555613285837]
トランスフォーマーモデルによる画像超解像(SR)の競争性能の向上
SRネットワークのローカルマップ(LAM)の解釈から洞察を得た新しいアテンションブロックを提案する。
細部では、パッチ内自己注意属性(IPSA)モジュールを使用して、局所パッチ内の長距離画素依存性をモデル化する。
論文 参考訳(メタデータ) (2022-11-30T06:32:34Z) - Efficient Image Super-Resolution using Vast-Receptive-Field Attention [49.87316814164699]
注意機構は、高度な超解像(SR)ネットワークの設計において重要な役割を果たす。
本研究では,アテンション機構の改善により,効率的なSRネットワークを設計する。
VAst-receptive-field Pixel attention networkであるVapSRを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:01:00Z) - Blueprint Separable Residual Network for Efficient Image
Super-Resolution [47.05693747583342]
2つの効率的な設計を含むBSRN(Blueprint Separable Residual Network)を提案する。
ひとつは、冗長な畳み込み操作で発生するブループリント分離畳み込み(BSConv)である。
もう1つは、より効果的なアテンションモジュールを導入することで、モデル能力を高めることである。
論文 参考訳(メタデータ) (2022-05-12T10:11:28Z) - PixelFolder: An Efficient Progressive Pixel Synthesis Network for Image
Generation [88.55256389703082]
Pixelは画像生成のための有望な研究パラダイムである。
本稿では,Pixel のような効率的な画像生成に向けたプログレッシブピクセル合成ネットワークを提案する。
Pixelは支出を大幅に減らし、2つのベンチマークデータセットで新しい最先端(SOTA)パフォーマンスを得る。
論文 参考訳(メタデータ) (2022-04-02T10:55:11Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Highly Efficient Natural Image Matting [15.977598189574659]
軽量モデルを用いたトリマップフリーな自然画像マッチング手法を提案する。
非常に軽量なモデルを構築し、人気のある自然画像ベンチマーク上で1% (344k) の大規模モデルで同等の性能を実現する。
論文 参考訳(メタデータ) (2021-10-25T09:23:46Z) - EPSANet: An Efficient Pyramid Split Attention Block on Convolutional
Neural Network [41.994043409345956]
本研究では, ピラミッド分割注意(PSA)モジュールという, 軽量かつ効果的に注目する手法を提案する。
ResNetのボトルネックブロックにおける3x3畳み込みをPSAモジュールに置き換えることで、EPSA(Efficient Pyramid Split Attention)と呼ばれる新しい表現ブロックを得る。
EPSAブロックは、確立されたバックボーンネットワークにプラグイン・アンド・プレイコンポーネントとして簡単に追加でき、モデル性能の大幅な改善が達成できる。
論文 参考訳(メタデータ) (2021-05-30T07:26:41Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。