論文の概要: Encoder-minimal and Decoder-minimal Framework for Remote Sensing Image
Dehazing
- arxiv url: http://arxiv.org/abs/2312.07849v1
- Date: Wed, 13 Dec 2023 02:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 16:58:29.984446
- Title: Encoder-minimal and Decoder-minimal Framework for Remote Sensing Image
Dehazing
- Title(参考訳): リモートセンシング画像復調のためのエンコーダ最小デコーダ最小化フレームワーク
- Authors: Yuanbo Wen, Tao Gao, Ziqi Li, Jing Zhang, Ting Chen
- Abstract要約: RSHazeNetは、効率的なリモートセンシング画像デハージングのためのエンコーダ最小化およびデコーダ最小化フレームワークである。
我々は、ITFM(Intra-level Transposed fusion Module)と呼ばれる革新的なモジュールを開発する。
- 参考スコア(独自算出の注目度): 13.759978932686519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Haze obscures remote sensing images, hindering valuable information
extraction. To this end, we propose RSHazeNet, an encoder-minimal and
decoder-minimal framework for efficient remote sensing image dehazing.
Specifically, regarding the process of merging features within the same level,
we develop an innovative module called intra-level transposed fusion module
(ITFM). This module employs adaptive transposed self-attention to capture
comprehensive context-aware information, facilitating the robust context-aware
feature fusion. Meanwhile, we present a cross-level multi-view interaction
module (CMIM) to enable effective interactions between features from various
levels, mitigating the loss of information due to the repeated sampling
operations. In addition, we propose a multi-view progressive extraction block
(MPEB) that partitions the features into four distinct components and employs
convolution with varying kernel sizes, groups, and dilation factors to
facilitate view-progressive feature learning. Extensive experiments demonstrate
the superiority of our proposed RSHazeNet. We release the source code and all
pre-trained models at \url{https://github.com/chdwyb/RSHazeNet}.
- Abstract(参考訳): Hazeはリモートセンシング画像を隠蔽し、貴重な情報抽出を妨げる。
そこで我々は,効率的なリモートセンシング画像復調のためのエンコーダ最小化およびデコーダ最小化フレームワークRSHazeNetを提案する。
具体的には,同レベルにおける機能統合のプロセスについて,ITFM(Intra-level Transposed fusion Module)と呼ばれるイノベーティブモジュールを開発した。
本モジュールは、包括的コンテキストアウェア情報を取り込むために適応的トランスポスドセルフアテンションを用い、ロバストなコンテキストアウェア機能融合を容易にする。
一方,様々なレベルの特徴間の効果的な相互作用を可能にするための多層多視点対話モジュール(CMIM)を提案し,繰り返しサンプリング操作による情報の損失を軽減した。
さらに,これらの特徴を4つの異なるコンポーネントに分割するマルチビュープログレッシブ抽出ブロック (mpeb) を提案する。
大規模な実験により提案したRSHazeNetの優位性を実証した。
ソースコードと事前トレーニング済みのすべてのモデルを \url{https://github.com/chdwyb/rshazenet} でリリースします。
関連論文リスト
- UTSRMorph: A Unified Transformer and Superresolution Network for Unsupervised Medical Image Registration [4.068692674719378]
複雑な画像登録は、医用画像解析において重要な課題である。
本稿では,UTSRMorphネットワークと統合トランスフォーマー(UTSRMorph)ネットワークという,教師なしの新たな画像登録手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T06:28:43Z) - Local-to-Global Cross-Modal Attention-Aware Fusion for HSI-X Semantic Segmentation [19.461033552684576]
HSI-X分類のためのローカル・グローバル・クロスモーダル・アテンション・アウェア・フュージョン(LoGoCAF)フレームワークを提案する。
LoGoCAFは、HSIとXのモダリティから情報を学ぶために、ピクセルからピクセルまでのセマンティックセマンティックセマンティックセマンティクスアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-06-25T16:12:20Z) - A Semantic-Aware and Multi-Guided Network for Infrared-Visible Image Fusion [41.34335755315773]
マルチモダリティ画像融合は、2つのソース画像から特定のモダリティ情報と共有モダリティ情報を融合することを目的としている。
本稿では,3分岐エンコーダデコーダアーキテクチャと,それに対応する融合層を融合戦略として提案する。
可視・近赤外画像融合および医用画像融合タスクにおける最先端手法と比較して,本手法は競争力のある結果を得た。
論文 参考訳(メタデータ) (2024-06-11T09:32:40Z) - Multi-Level Feature Fusion Network for Lightweight Stereo Image Super-Resolution [12.066710423371559]
軽量ステレオ画像超解像(MFFSSR)のための効率的なマルチレベル特徴融合ネットワークを提案する。
MFFSSRは、ハイブリットアテンション特徴抽出ブロック(HAFEB)を使用して、マルチレベルなイントラビュー特徴を抽出する。
より少ないパラメータで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-09T02:01:51Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Mutual Information-driven Triple Interaction Network for Efficient Image
Dehazing [54.168567276280505]
画像デハージングのための相互情報駆動型トリプルインタラクションネットワーク(MITNet)を提案する。
振幅誘導ヘイズ除去と呼ばれる第1段階は、ヘイズ除去のためのヘイズ画像の振幅スペクトルを復元することを目的としている。
第2段階は位相誘導構造が洗練され、位相スペクトルの変換と微細化を学ぶことに尽力した。
論文 参考訳(メタデータ) (2023-08-14T08:23:58Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。