論文の概要: Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network
- arxiv url: http://arxiv.org/abs/2008.02763v1
- Date: Thu, 6 Aug 2020 17:04:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:30:08.553546
- Title: Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network
- Title(参考訳): 自己校正型Deraining Networkにおける共同自己意識とスケール集約
- Authors: Cong Wang, Yutong Wu, Zhixun Su, Junyang Chen
- Abstract要約: 本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
- 参考スコア(独自算出の注目度): 13.628218953897946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of multimedia, single image deraining is a basic pre-processing
work, which can greatly improve the visual effect of subsequent high-level
tasks in rainy conditions. In this paper, we propose an effective algorithm,
called JDNet, to solve the single image deraining problem and conduct the
segmentation and detection task for applications. Specifically, considering the
important information on multi-scale features, we propose a Scale-Aggregation
module to learn the features with different scales. Simultaneously,
Self-Attention module is introduced to match or outperform their convolutional
counterparts, which allows the feature aggregation to adapt to each channel.
Furthermore, to improve the basic convolutional feature transformation process
of Convolutional Neural Networks (CNNs), Self-Calibrated convolution is applied
to build long-range spatial and inter-channel dependencies around each spatial
location that explicitly expand fields-of-view of each convolutional layer
through internal communications and hence enriches the output features. By
designing the Scale-Aggregation and Self-Attention modules with Self-Calibrated
convolution skillfully, the proposed model has better deraining results both on
real-world and synthetic datasets. Extensive experiments are conducted to
demonstrate the superiority of our method compared with state-of-the-art
methods. The source code will be available at
\url{https://supercong94.wixsite.com/supercong94}.
- Abstract(参考訳): マルチメディアの分野では、単一画像レーダリングは基本的な前処理作業であり、雨天時の高レベルタスクの視覚効果を大幅に改善することができる。
本稿では,JDNetとよばれる効率的なアルゴリズムを提案し,画像のデライン化問題を解くとともに,アプリケーションのセグメンテーションと検出処理を行う。
具体的には,マルチスケール機能に関する重要な情報を考慮して,異なるスケールで機能を学ぶためのスケール集約モジュールを提案する。
同時に、Self-Attentionモジュールが導入され、各チャネルに適合する機能アグリゲーションを実現している。
さらに、畳み込みニューラルネットワーク(CNN)の基本的な畳み込み特徴変換プロセスを改善するために、自己校正畳み込み畳み込みは、内部通信を通じて各畳み込み層の視野を明示的に拡張し、出力特徴を豊かにする、各空間位置の長範囲空間およびチャネル間依存関係を構築する。
自己校正畳み込みによるスケール・アグリゲーションと自己保持モジュールを巧みに設計することにより、提案モデルは実世界のデータセットと合成データセットの両方でより良い評価結果が得られる。
最先端手法と比較して,本手法の優位性を示すため,大規模な実験を行った。
ソースコードは \url{https://supercong94.wixsite.com/supercong94} で入手できる。
関連論文リスト
- Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution [6.857919231112562]
ウィンドウベーストランスは超高解像度タスクにおいて優れた性能を示した。
畳み込みニューラルネットワークよりも計算複雑性と推論レイテンシが高い。
線形適応ミキサーネットワーク(LAMNet)という,畳み込みに基づくトランスフォーマーフレームワークを構築する。
論文 参考訳(メタデータ) (2024-09-26T07:24:09Z) - SENetV2: Aggregated dense layer for channelwise and global
representations [0.0]
我々は,Squeeze残余モジュール内に,多分岐密度層である新しい多層パーセプトロンを導入する。
この融合により、チャネルワイドパターンを捕捉し、グローバルな知識を持つネットワークの能力が向上する。
ベンチマークデータセットの広範な実験を行い、モデルを検証し、確立したアーキテクチャと比較する。
論文 参考訳(メタデータ) (2023-11-17T14:10:57Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Semantic Labeling of High Resolution Images Using EfficientUNets and
Transformers [5.177947445379688]
畳み込みニューラルネットワークとディープトランスを組み合わせた新しいセグメンテーションモデルを提案する。
提案手法は,最先端技術と比較してセグメント化精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-20T12:03:54Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - GOCor: Bringing Globally Optimized Correspondence Volumes into Your
Neural Network [176.3781969089004]
特徴相関層は、画像ペア間の密接な対応を含むコンピュータビジョン問題において、重要なニューラルネットワークモジュールとして機能する。
我々は,特徴相関層の直接置換として機能する,完全に微分可能な密マッチングモジュール GOCor を提案する。
本手法は,幾何マッチング,光学フロー,密接なセマンティックマッチングのタスクにおいて,特徴相関層を著しく上回っている。
論文 参考訳(メタデータ) (2020-09-16T17:33:01Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。