論文の概要: Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention
- arxiv url: http://arxiv.org/abs/2308.07781v1
- Date: Tue, 15 Aug 2023 13:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:44:38.584773
- Title: Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention
- Title(参考訳): 動的デュアル自己認識による画像遅延変換器ネットワークの学習
- Authors: Zhentao Fan, Hongming Chen, Yufeng Li
- Abstract要約: 本稿では,動的二重自己アテンション(DDSA)を用いた画像デコライニング変換器を提案する。
具体的には、トップk近似計算に基づいて、最も有用な類似度値のみを選択し、スパースアテンションを実現する。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
- 参考スコア(独自算出の注目度): 46.11162082219387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Transformer-based architecture has been introduced into single
image deraining task due to its advantage in modeling non-local information.
However, existing approaches tend to integrate global features based on a dense
self-attention strategy since it tend to uses all similarities of the tokens
between the queries and keys. In fact, this strategy leads to ignoring the most
relevant information and inducing blurry effect by the irrelevant
representations during the feature aggregation. To this end, this paper
proposes an effective image deraining Transformer with dynamic dual
self-attention (DDSA), which combines both dense and sparse attention
strategies to better facilitate clear image reconstruction. Specifically, we
only select the most useful similarity values based on top-k approximate
calculation to achieve sparse attention. In addition, we also develop a novel
spatial-enhanced feed-forward network (SEFN) to further obtain a more accurate
representation for achieving high-quality derained results. Extensive
experiments on benchmark datasets demonstrate the effectiveness of our proposed
method.
- Abstract(参考訳): 近年,非局所情報モデリングの利点から,トランスフォーマーをベースとしたアーキテクチャが単一画像デライニングタスクに導入されている。
しかし、既存のアプローチでは、クエリとキー間のトークンの類似点をすべて利用する傾向があるため、密集した自己注意戦略に基づいてグローバル機能を統合する傾向がある。
実際、この戦略は、最も関連する情報を無視し、機能集約中の無関係な表現によるぼやけ効果を誘発する。
そこで本稿では,高密度かつ疎度な注意戦略を組み合わせた動的二重自己注意変換方式(DDSA)を提案する。
具体的には、トップk近似計算に基づいて最も有用な類似度値のみを選択し、疎注意を得る。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
ベンチマークデータセットの大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- WTDUN: Wavelet Tree-Structured Sampling and Deep Unfolding Network for Image Compressed Sensing [51.94493817128006]
マルチスケールウェーブレットサブバンド上で直接動作するWTDUNという新しいウェーブレットドメインの深層展開フレームワークを提案する。
本手法は,ウェーブレット係数の固有間隔とマルチスケール構造を利用して,木構造によるサンプリングと再構成を実現する。
論文 参考訳(メタデータ) (2024-11-25T12:31:03Z) - IPT-V2: Efficient Image Processing Transformer using Hierarchical Attentions [26.09373405194564]
我々は,IPTV2と呼ばれる階層的な注意を払って,効率的な画像処理トランスフォーマアーキテクチャを提案する。
我々は、局所的およびグローバルな受容領域における適切なトークン相互作用を得るために、焦点コンテキスト自己注意(FCSA)とグローバルグリッド自己注意(GGSA)を採用する。
提案した IPT-V2 は,様々な画像処理タスクにおいて,デノナイズ,デブロアリング,デコライニングを網羅し,従来の手法よりも性能と計算の複雑さのトレードオフを得る。
論文 参考訳(メタデータ) (2024-03-31T10:01:20Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Remote Sensing Image Change Detection with Graph Interaction [1.8579693774597708]
本稿では,BGINet-CDを用いたリモートセンシングによる画像変化検出のためのバイテンポラル画像グラフインタラクションネットワークを提案する。
本モデルは,GZ CDデータセット上の他の最先端手法(SOTA)と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-05T03:32:49Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Learning A Sparse Transformer Network for Effective Image Deraining [42.01684644627124]
有効デレインネットワークであるスパーストランス(DRSformer)を提案する。
学習可能なトップk選択演算子を開発し、各クエリのキーから最も重要な注意点を適応的に保持し、より優れた機能アグリゲーションを実現する。
我々は,協調改良デライン方式を示すために,専門家による特徴補償器を混合したモデルを開発した。
論文 参考訳(メタデータ) (2023-03-21T15:41:57Z) - Semantic Labeling of High Resolution Images Using EfficientUNets and
Transformers [5.177947445379688]
畳み込みニューラルネットワークとディープトランスを組み合わせた新しいセグメンテーションモデルを提案する。
提案手法は,最先端技術と比較してセグメント化精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-20T12:03:54Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。