論文の概要: Attention Cube Network for Image Restoration
- arxiv url: http://arxiv.org/abs/2009.05907v3
- Date: Sun, 24 Jan 2021 11:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:32:34.835344
- Title: Attention Cube Network for Image Restoration
- Title(参考訳): 画像復元のための注意キューブネットワーク
- Authors: Yucheng Hang, Qingmin Liao, Wenming Yang, Yupeng Chen, Jie Zhou
- Abstract要約: より強力な特徴表現と特徴相関学習のための画像復元のための注意キューブネットワーク(A-CubeNet)を提案する。
本研究では,空間次元,チャネルワイド次元,階層次元の3次元から新たな注意機構を設計する。
定量的比較と視覚解析の両面において,最先端画像復元法よりも本手法の方が優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 39.49175636499541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep convolutional neural network (CNN) have been widely used in
image restoration and obtained great success. However, most of existing methods
are limited to local receptive field and equal treatment of different types of
information. Besides, existing methods always use a multi-supervised method to
aggregate different feature maps, which can not effectively aggregate
hierarchical feature information. To address these issues, we propose an
attention cube network (A-CubeNet) for image restoration for more powerful
feature expression and feature correlation learning. Specifically, we design a
novel attention mechanism from three dimensions, namely spatial dimension,
channel-wise dimension and hierarchical dimension. The adaptive spatial
attention branch (ASAB) and the adaptive channel attention branch (ACAB)
constitute the adaptive dual attention module (ADAM), which can capture the
long-range spatial and channel-wise contextual information to expand the
receptive field and distinguish different types of information for more
effective feature representations. Furthermore, the adaptive hierarchical
attention module (AHAM) can capture the long-range hierarchical contextual
information to flexibly aggregate different feature maps by weights depending
on the global context. The ADAM and AHAM cooperate to form an "attention in
attention" structure, which means AHAM's inputs are enhanced by ASAB and ACAB.
Experiments demonstrate the superiority of our method over state-of-the-art
image restoration methods in both quantitative comparison and visual analysis.
Code is available at https://github.com/YCHang686/A-CubeNet.
- Abstract(参考訳): 近年,画像復元には深層畳み込みニューラルネットワーク(CNN)が広く使われており,大きな成功を収めている。
しかし,既存の手法のほとんどは局所受容領域に限られており,情報の種類も等しく扱われる。
また,既存手法は常に多教師付き手法を用いて異なる特徴マップを集約するが,階層的特徴情報を効果的に集約することはできない。
そこで本研究では,より強力な特徴表現と特徴相関学習のための画像復元のためのアテンションキューブネットワーク(a-cubenet)を提案する。
具体的には,空間次元,チャネル次元,階層次元という3次元から新たな注意機構を設計する。
アダプティブ空間注意部(ASAB)とアダプティブチャネル注意部(ACAB)は、アダプティブデュアル注意モジュール(ADAM)を構成する。
さらに、アダプティブ階層的アテンションモジュール(AHAM)は、長距離階層的コンテキスト情報をキャプチャして、グローバルコンテキストに応じて重みによって異なる特徴マップを柔軟に集約することができる。
ADAMとAHAMは協力して「注意の注意」構造を形成し、AHAMの入力はASABとACABによって強化される。
実験は, 定量的比較と視覚的解析の両方において, 最先端画像復元法よりも優れていることを示す。
コードはhttps://github.com/YCHang686/A-CubeNetで入手できる。
関連論文リスト
- Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Efficient Multi-Scale Attention Module with Cross-Spatial Learning [4.046170185945849]
効率的なマルチスケールアテンション(EMA)モジュールを提案する。
チャネルごとの情報保持と計算オーバーヘッドの低減に重点を置いている。
我々は画像分類と物体検出タスクについて広範囲にわたるアブレーション研究と実験を行った。
論文 参考訳(メタデータ) (2023-05-23T00:35:47Z) - SDA-$x$Net: Selective Depth Attention Networks for Adaptive Multi-scale
Feature Representation [14.7929472540577]
既存のマルチスケールの解は、小さな受容場を無視しながら、受容場のサイズを増大させるリスクをもたらす。
我々は,チャネル,空間,分岐などの既存の注意次元に加えて,新しい注意次元,すなわち深さを導入する。
本稿では,様々な視覚タスクにおいて,マルチスケールオブジェクトを対称に扱うための,新しい選択的な奥行き注意ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T12:49:55Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - An attention-driven hierarchical multi-scale representation for visual
recognition [3.3302293148249125]
畳み込みニューラルネットワーク(CNN)は、視覚内容の理解に革命をもたらした。
グラフ畳み込みネットワーク(GCN)を探索することにより,高レベルの長距離依存関係を捕捉する手法を提案する。
本手法は,細粒度と総称的な視覚的分類の両問題を解くのに極めて効果的である。
論文 参考訳(メタデータ) (2021-10-23T09:22:22Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Rotate to Attend: Convolutional Triplet Attention Module [21.228370317693244]
3分岐構造を用いた新しい注意重み計算法である三重項注意法を提案する。
本手法は単純かつ効率的であり,アドオンモジュールとして従来のバックボーンネットワークに簡単に接続できる。
ImageNet-1k上の画像分類や,MSCOCOおよびPASCAL VOCデータセット上でのオブジェクト検出など,様々な課題に対する本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-06T21:31:00Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。