論文の概要: LE2Fusion: A novel local edge enhancement module for infrared and
visible image fusion
- arxiv url: http://arxiv.org/abs/2305.17374v1
- Date: Sat, 27 May 2023 05:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:55:54.576788
- Title: LE2Fusion: A novel local edge enhancement module for infrared and
visible image fusion
- Title(参考訳): LE2Fusion:赤外および可視画像融合のための新しい局所端強調モジュール
- Authors: Yongbiao Xiao, Hui Li, Chunyang Cheng, and Xiaoning Song
- Abstract要約: 複雑な照明条件下では、局所領域のエッジ情報に注意を払うアルゴリズムはほとんどない。
本稿では, LE2Fusion と呼ばれる局所的なエッジ拡張に基づく融合ネットワークを提案する。
実験により,提案手法は,公開データセット上での最先端の融合手法よりも優れた核融合性能を示すことが示された。
- 参考スコア(独自算出の注目度): 7.11574718614606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared and visible image fusion task aims to generate a fused image which
contains salient features and rich texture details from multi-source images.
However, under complex illumination conditions, few algorithms pay attention to
the edge information of local regions which is crucial for downstream tasks. To
this end, we propose a fusion network based on the local edge enhancement,
named LE2Fusion. Specifically, a local edge enhancement (LE2) module is
proposed to improve the edge information under complex illumination conditions
and preserve the essential features of image. For feature extraction, a
multi-scale residual attention (MRA) module is applied to extract rich
features. Then, with LE2, a set of enhancement weights are generated which are
utilized in feature fusion strategy and used to guide the image reconstruction.
To better preserve the local detail information and structure information, the
pixel intensity loss function based on the local region is also presented. The
experiments demonstrate that the proposed method exhibits better fusion
performance than the state-of-the-art fusion methods on public datasets.
- Abstract(参考訳): Infrared and visible image fusion taskは、多ソース画像から有能な特徴と豊かなテクスチャを含む融合画像を生成することを目的としている。
しかし, 複雑な照明条件下では, 下流作業に欠かせないローカル領域のエッジ情報に注目するアルゴリズムはほとんどない。
そこで本研究では, LE2Fusion というローカルエッジ拡張に基づく融合ネットワークを提案する。
特に、複雑な照明条件下でのエッジ情報の改善と画像の本質的特徴の保存のために、局所エッジ強調(le2)モジュールが提案されている。
特徴抽出にはマルチスケール残留注意モジュール(MRA)を用いてリッチな特徴を抽出する。
そして、LE2では、特徴融合戦略で利用し、画像再構成を誘導する一連の強調重みを生成する。
局所的詳細情報と構造情報をよりよく保存するために、局所的領域に基づく画素強度損失関数も提示する。
実験により,提案手法は,公開データセットにおける最先端の融合手法よりも高い融合性能を示すことが示された。
関連論文リスト
- Guided Image Restoration via Simultaneous Feature and Image Guided
Fusion [67.30078778732998]
本稿では,SFIGFネットワークを提案する。
GF ( guided filter) のメカニズムに従って, 特徴量と画像レベルの誘導核融合を考察する。
特徴領域と画像領域の両方で誘導融合が実装されているため,提案したSFIGFは文脈情報とテキスト情報の両方を忠実に再構築することが期待される。
論文 参考訳(メタデータ) (2023-12-14T12:15:45Z) - A Multi-scale Information Integration Framework for Infrared and Visible
Image Fusion [50.84746752058516]
赤外線および可視画像融合は、ソース画像の強度と詳細情報を含む融合画像を生成することを目的としている。
既存の手法は主に損失関数の単純な重みを採用し、各モードの情報保持を決定する。
近赤外・可視画像融合のためのマルチスケールデュアルアテンション(MDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T14:40:05Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - DePF: A Novel Fusion Approach based on Decomposition Pooling for
Infrared and Visible Images [7.11574718614606]
分解プール法(デプール法)に基づく新しい融合ネットワークを提案し,これをDePFと呼ぶ。
切り離しに基づくエンコーダは、ソース画像のマルチスケール画像と詳細特徴を同時に抽出するように設計されている。
実験により,提案手法は最先端技術よりも優れた核融合性能を示すことが示された。
論文 参考訳(メタデータ) (2023-05-27T05:47:14Z) - Multi-modal Gated Mixture of Local-to-Global Experts for Dynamic Image
Fusion [59.19469551774703]
赤外線と可視画像の融合は,複数の情報源からの包括的情報を統合して,様々な作業において優れた性能を実現することを目的としている。
局所-言語の専門家によるマルチモーダルゲート混合を用いた動的画像融合フレームワークを提案する。
本モデルは,Mixture of Local Experts (MoLE) とMixture of Global Experts (MoGE) から構成される。
論文 参考訳(メタデータ) (2023-02-02T20:06:58Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Remote Sensing Cross-Modal Text-Image Retrieval Based on Global and
Local Information [15.32353270625554]
リモートセンシング(RS)画像の高速かつ柔軟な情報抽出を可能にするため,クロスモーダルリモートセンシングテキスト画像検索(RSCTIR)は近年,緊急な研究ホットスポットとなっている。
まず,グローバル・ローカル情報(GaLR)に基づく新しいRSCTIRフレームワークを提案し,多レベル情報ダイナミックフュージョン(MIDF)モジュールを設計し,異なるレベルの機能を効果的に統合する。
公開データセットの実験は、RSCTIRタスク上でのGaLR法の最先端性能を強く実証している。
論文 参考訳(メタデータ) (2022-04-21T03:18:09Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z) - When Image Decomposition Meets Deep Learning: A Novel Infrared and
Visible Image Fusion Method [27.507158159317417]
赤外線と可視光の融合は画像処理と画像強調においてホットな話題である。
本稿では,新しいデュアルストリーム自動エンコーダを用いた核融合ネットワークを提案する。
論文 参考訳(メタデータ) (2020-09-02T19:32:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。