論文の概要: DEA-Net: Single image dehazing based on detail-enhanced convolution and
content-guided attention
- arxiv url: http://arxiv.org/abs/2301.04805v1
- Date: Thu, 12 Jan 2023 04:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:27:15.723344
- Title: DEA-Net: Single image dehazing based on detail-enhanced convolution and
content-guided attention
- Title(参考訳): DEA-Net:細部強調畳み込みとコンテンツ誘導による単一画像デハージング
- Authors: Zixuan Chen, Zewei He, Zhe-Ming Lu
- Abstract要約: 本稿では,De detail-enhanced convolution(DEConv)とContent-guided attention(CGA)を組み合わせたDeep-enhanced attention block(DEAB)を提案する。
これらの成分を組み合わせることで,高品質なヘイズフリー画像を復元するための詳細注意ネットワーク(DEA-Net)を提案する。
- 参考スコア(独自算出の注目度): 16.33443834279481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single image dehazing is a challenging ill-posed problem which estimates
latent haze-free images from observed hazy images. Some existing deep learning
based methods are devoted to improving the model performance via increasing the
depth or width of convolution. The learning ability of convolutional neural
network (CNN) structure is still under-explored. In this paper, a
detail-enhanced attention block (DEAB) consisting of the detail-enhanced
convolution (DEConv) and the content-guided attention (CGA) is proposed to
boost the feature learning for improving the dehazing performance.
Specifically, the DEConv integrates prior information into normal convolution
layer to enhance the representation and generalization capacity. Then by using
the re-parameterization technique, DEConv is equivalently converted into a
vanilla convolution with NO extra parameters and computational cost. By
assigning unique spatial importance map (SIM) to every channel, CGA can attend
more useful information encoded in features. In addition, a CGA-based mixup
fusion scheme is presented to effectively fuse the features and aid the
gradient flow. By combining above mentioned components, we propose our
detail-enhanced attention network (DEA-Net) for recovering high-quality
haze-free images. Extensive experimental results demonstrate the effectiveness
of our DEA-Net, outperforming the state-of-the-art (SOTA) methods by boosting
the PSNR index over 41 dB with only 3.653 M parameters. The source code of our
DEA-Net will be made available at https://github.com/cecret3350/DEA-Net.
- Abstract(参考訳): 単一画像デハジングは、観測されたヘイズ画像から潜伏したヘイズフリー画像を推定する難題である。
既存のディープラーニングベースの手法は、畳み込みの深さや幅を増大させることで、モデルの性能を改善することに専心している。
畳み込みニューラルネットワーク(CNN)構造の学習能力はまだ解明されていない。
本稿では,de detail-enhanced convolution (DEConv) とcontent-guided attention (CGA) を組み合わせたDEABを提案する。
具体的には、deconvは従来の情報を通常の畳み込み層に統合し、表現と一般化能力を高める。
次に、再パラメータ化手法を用いて、DeConvは等価に、余分なパラメータと計算コストのないバニラ畳み込みに変換する。
各チャネルに独自の空間重要度マップ(SIM)を割り当てることで、CGAは機能に符号化されたより有用な情報にたどり着くことができる。
さらに,cgaベースのmixup fusionスキームにより,その特徴を効果的に融合し,勾配流を支援する。
上述の成分を組み合わせることで,高品質なヘイズフリー画像を復元するための詳細注意ネットワーク(DEA-Net)を提案する。
実験の結果,3.653MパラメータのPSNR指数を41dB以上に高めることにより,最先端(SOTA)手法よりも優れた結果が得られた。
DEA-Netのソースコードはhttps://github.com/cecret3350/DEA-Netで公開されます。
関連論文リスト
- SODAWideNet++: Combining Attention and Convolutions for Salient Object Detection [3.2586315449885106]
本稿では,Salient Object Detectionのために設計されたSODAWideNet++と呼ばれる新しいエンコーダ・デコーダ型ニューラルネットワークを提案する。
視覚変換器が初期からグローバルな受容場を得る能力に触発されて、注意誘導長距離特徴抽出(AGLRFE)モジュールを導入する。
ImageNet事前トレーニングの現在のパラダイムとは対照的に、提案したモデルエンドツーエンドの事前トレーニングのためにアノテーションをバイナライズすることで、COCOセマンティックセグメンテーションデータセットから118Kの注釈付き画像を修正します。
論文 参考訳(メタデータ) (2024-08-29T15:51:06Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - AMSA-UNet: An Asymmetric Multiple Scales U-net Based on Self-attention for Deblurring [7.00986132499006]
asymmetric multiple scales U-net based on self-attention (AMSA-UNet) was proposed to improve the accuracy and compute complexity。
マルチスケールなU字型アーキテクチャを導入することで、ネットワークはグローバルレベルでぼやけた領域に集中でき、ローカルレベルで画像の詳細を回復することができる。
論文 参考訳(メタデータ) (2024-06-13T11:39:02Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - CNN based Multistage Gated Average Fusion (MGAF) for Human Action
Recognition Using Depth and Inertial Sensors [1.52292571922932]
畳み込みニューラルネットワーク(CNN)は、アーキテクチャのすべてのレイヤから機能を抽出し、融合するためのレバレッジを提供する。
我々は,CNNの全層から特徴を抽出し,融合する多段Gated Average Fusion (MGAF) ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T11:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。