論文の概要: Dense Dual-Attention Network for Light Field Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2110.12114v1
- Date: Sat, 23 Oct 2021 02:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 23:58:19.491235
- Title: Dense Dual-Attention Network for Light Field Image Super-Resolution
- Title(参考訳): 光場画像超解像のための高密度デュアルアテンションネットワーク
- Authors: Yu Mo, Yingqian Wang, Chao Xiao, Jungang Yang, Wei An
- Abstract要約: 光場(LF)画像は、画像超解像(SR)の性能向上に利用することができる。
LF画像SRの異なる視点から特有の情報を組み込むことは困難である。
LF画像SRのための高密度デュアルアテンションネットワークを提案する。
- 参考スコア(独自算出の注目度): 13.683743266136014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field (LF) images can be used to improve the performance of image
super-resolution (SR) because both angular and spatial information is
available. It is challenging to incorporate distinctive information from
different views for LF image SR. Moreover, the long-term information from the
previous layers can be weakened as the depth of network increases. In this
paper, we propose a dense dual-attention network for LF image SR. Specifically,
we design a view attention module to adaptively capture discriminative features
across different views and a channel attention module to selectively focus on
informative information across all channels. These two modules are fed to two
branches and stacked separately in a chain structure for adaptive fusion of
hierarchical features and distillation of valid information. Meanwhile, a dense
connection is used to fully exploit multi-level information. Extensive
experiments demonstrate that our dense dual-attention mechanism can capture
informative information across views and channels to improve SR performance.
Comparative results show the advantage of our method over state-of-the-art
methods on public datasets.
- Abstract(参考訳): 光フィールド(lf)画像は、角情報と空間情報の両方が利用可能なため、画像スーパーレゾリューション(sr)の性能を向上させるために使用できる。
LF画像SRの異なる視点から特有の情報を組み込むことは困難である。
また、ネットワークの深さが大きくなるにつれて、前層からの長期情報も弱められる。
本稿では,LF画像SRのための高密度二重アテンションネットワークを提案する。
具体的には,異なる視点にまたがる識別的特徴を適応的に捉えるビューアテンションモジュールと,チャネルアテンションモジュールをデザインし,すべてのチャンネルにまたがる情報に選択的に集中する。
これら2つのモジュールは2つの分岐に供給され、階層的特徴の適応融合と有効な情報の蒸留のために鎖構造に別々に積み上げられる。
一方、密接な接続は多レベル情報を完全に活用するために使用される。
広範にわたる実験により,sr性能を改善するために,ビューとチャネル間の情報収集を行うことができる。
比較の結果,公開データセットにおける最先端手法よりも優れた手法が得られた。
関連論文リスト
- Learning Accurate and Enriched Features for Stereo Image Super-Resolution [0.0]
ステレオ画像超解像(ステレオSR)は、代替的な視点から補完情報を組み込むことで、超解像の質を高めることを目的としている。
我々は,空間的詳細を正確に保存し,豊富なコンテキスト情報を組み込むため,MSSFNet(Mixed-scale selective fusion Network)を提案する。
MSSFNetは、定量評価と定性評価の両方において最先端のアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-23T03:34:17Z) - Spatial-frequency Dual-Domain Feature Fusion Network for Low-Light Remote Sensing Image Enhancement [49.15531684596958]
低照度リモートセンシング画像強調のためのDFFN(Dual-Domain Feature Fusion Network)を提案する。
第1フェーズは振幅情報を学習して画像輝度を復元し、第2フェーズは位相情報を学習して詳細を洗練させる。
我々は、現在の暗光リモートセンシング画像強調におけるデータセットの欠如に対応するために、2つの暗光リモートセンシングデータセットを構築した。
論文 参考訳(メタデータ) (2024-04-26T13:21:31Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - SufrinNet: Toward Sufficient Cross-View Interaction for Stereo Image
Enhancement in The Dark [119.01585302856103]
低照度ステレオ画像強調(LLSIE)は、暗黒環境で撮影された視覚的に不快なステレオ画像の品質を高めるための比較的新しいタスクである。
1)クロスビューの相互作用が不十分なこと,2)ビュー内学習に長距離依存が欠如していること,である。
SufrinNet(SufrinNet)を用いた新しいLLSIEモデルを提案する。
論文 参考訳(メタデータ) (2022-11-02T04:01:30Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Single Image Super-Resolution via a Holistic Attention Network [87.42409213909269]
本稿では,階層,チャネル,位置間の全体的相互依存性をモデル化するための新しい全体論的注意ネットワーク(HAN)を提案する。
提案したHANは階層的特徴を適応的に強調し,層間相関を考慮した。
実験により、提案HANは、最先端の単一画像超解像アプローチに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-08-20T04:13:15Z) - Light Field Image Super-Resolution Using Deformable Convolution [46.03974092854241]
LF画像SRの差分問題に対処する変形可能な畳み込みネットワーク(LF-DFnet)を提案する。
我々のLF-DFnetは、より忠実な詳細で高解像度の画像を生成し、最先端の復元精度を実現する。
論文 参考訳(メタデータ) (2020-07-07T15:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。