論文の概要: NestFuse: An Infrared and Visible Image Fusion Architecture based on
Nest Connection and Spatial/Channel Attention Models
- arxiv url: http://arxiv.org/abs/2007.00328v2
- Date: Sat, 11 Jul 2020 06:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:10:30.641904
- Title: NestFuse: An Infrared and Visible Image Fusion Architecture based on
Nest Connection and Spatial/Channel Attention Models
- Title(参考訳): NestFuse:Nest接続と空間/チャネル注意モデルに基づく赤外線可視画像融合アーキテクチャ
- Authors: Hui Li, Xiao-Jun Wu, Tariq Durrani
- Abstract要約: 赤外線・可視画像融合のための新しい手法を提案する。
ネスト接続型ネットワークと空間/チャネルアテンションモデルを開発した。
実験は、公開データセット上で実施される。
- 参考スコア(独自算出の注目度): 12.16870022547833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a novel method for infrared and visible image fusion
where we develop nest connection-based network and spatial/channel attention
models. The nest connection-based network can preserve significant amounts of
information from input data in a multi-scale perspective. The approach
comprises three key elements: encoder, fusion strategy and decoder
respectively. In our proposed fusion strategy, spatial attention models and
channel attention models are developed that describe the importance of each
spatial position and of each channel with deep features. Firstly, the source
images are fed into the encoder to extract multi-scale deep features. The novel
fusion strategy is then developed to fuse these features for each scale.
Finally, the fused image is reconstructed by the nest connection-based decoder.
Experiments are performed on publicly available datasets. These exhibit that
our proposed approach has better fusion performance than other state-of-the-art
methods. This claim is justified through both subjective and objective
evaluation. The code of our fusion method is available at
https://github.com/hli1221/imagefusion-nestfuse
- Abstract(参考訳): 本稿では,ネスト接続型ネットワークと空間/チャネルアテンションモデルを開発する赤外線・可視画像融合法を提案する。
nest接続ベースのネットワークは、複数スケールの観点で入力データからかなりの量の情報を保存できる。
このアプローチは、それぞれエンコーダ、融合戦略、デコーダの3つの重要な要素から構成される。
提案する融合戦略では,それぞれの空間的位置と深い特徴を有する各チャネルの重要性を記述した空間的注意モデルとチャネル注意モデルが開発されている。
まず、ソースイメージをエンコーダに供給して、マルチスケールの深い特徴を抽出する。
新たな融合戦略が開発され、それぞれのスケールでこれらの特徴を融合させる。
最後に、融合画像をネスト接続ベースのデコーダで再構成する。
実験は公開データセット上で実施される。
これらの結果から,提案手法は他の最先端手法よりも高い核融合性能を示した。
この主張は主観的評価と客観的評価の両方によって正当化される。
私たちのfusionメソッドのコードはhttps://github.com/hli1221/imagefusion-nestfuseで利用可能です。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。