論文の概要: WavePF: A Novel Fusion Approach based on Wavelet-guided Pooling for
Infrared and Visible Images
- arxiv url: http://arxiv.org/abs/2305.17376v1
- Date: Sat, 27 May 2023 05:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:42:46.567449
- Title: WavePF: A Novel Fusion Approach based on Wavelet-guided Pooling for
Infrared and Visible Images
- Title(参考訳): wavepf: 赤外線および可視画像のためのウェーブレット誘導プールに基づく新しい融合手法
- Authors: Hui Li, Yongbiao Xiao, Chunyang Cheng, Zhongwei Shen, Xiaoning Song
- Abstract要約: ウェーブレット誘導プール法(ウェーブプール法)に基づく新しい融合ネットワークをWavePFと呼ぶ。
具体的には、ウェーブプールに基づくエンコーダは、複数スケールの画像とソース画像の詳細な特徴を同時に抽出するように設計されている。
実験により,複数の画像融合ベンチマークにおいて,最先端の核融合性能よりも優れた核融合性能を示すことが示された。
- 参考スコア(独自算出の注目度): 7.11574718614606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared and visible image fusion aims to generate synthetic images
simultaneously containing salient features and rich texture details, which can
be used to boost downstream tasks. However, existing fusion methods are
suffering from the issues of texture loss and edge information deficiency,
which result in suboptimal fusion results. Meanwhile, the straight-forward
up-sampling operator can not well preserve the source information from
multi-scale features. To address these issues, a novel fusion network based on
the wavelet-guided pooling (wave-pooling) manner is proposed, termed as WavePF.
Specifically, a wave-pooling based encoder is designed to extract multi-scale
image and detail features of source images at the same time. In addition, the
spatial attention model is used to aggregate these salient features. After
that, the fused features will be reconstructed by the decoder, in which the
up-sampling operator is replaced by the wave-pooling reversed operation.
Different from the common max-pooling technique, image features after the
wave-pooling layer can retain abundant details information, which can benefit
the fusion process. In this case, rich texture details and multi-scale
information can be maintained during the reconstruction phase. The experimental
results demonstrate that our method exhibits superior fusion performance over
the state-of-the-arts on multiple image fusion benchmarks
- Abstract(参考訳): 赤外線および可視画像融合は、下降タスクの促進に使用できる、優れた特徴と豊富なテクスチャ詳細を含む合成画像を同時に生成することを目的としている。
しかし, 既存の核融合法は, テクスチャロスやエッジ情報不足の問題に悩まされており, 結果として準最適核融合が生じる。
一方、ストレートフォワードアップサンプリングオペレータは、マルチスケールの特徴からソース情報を十分に保存できない。
これらの問題に対処するため、ウェーブレット誘導プール法(ウェーブプール法)に基づく新しい融合ネットワークをWavePFと呼ぶ。
具体的には、ウェーブプールに基づくエンコーダは、複数スケールの画像とソース画像の詳細な特徴を同時に抽出するように設計されている。
さらに,空間的注意モデルを用いて,これらの特徴を集約する。
その後、融合した特徴はデコーダによって再構成され、アップサンプリング演算子がウェーブプール反転操作に置き換えられる。
一般的な最大サンプリング技術とは異なり、ウェーブプール層後の画像特徴は豊富な詳細情報を保持でき、融合プロセスの恩恵を受けることができる。
この場合、再建段階では、リッチテクスチャの詳細とマルチスケール情報を維持することができる。
実験結果から,複数の画像融合ベンチマークにおいて,本手法は最先端の核融合性能を示すことが示された。
関連論文リスト
- Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - Diffusion Hyperfeatures: Searching Through Time and Space for Semantic Correspondence [88.00004819064672]
Diffusion Hyperfeaturesは、マルチスケールおよびマルチタイムステップの機能マップをピクセル単位の機能記述子に統合するためのフレームワークである。
提案手法は,SPair-71k実画像ベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - A Deep Decomposition Network for Image Processing: A Case Study for
Visible and Infrared Image Fusion [38.17268441062239]
本稿では畳み込みニューラルネットワークに基づく新しい画像分解法を提案する。
赤外線画像と可視光画像を入力し、それぞれ3つの高周波特徴画像と低周波特徴画像に分解する。
2つの特徴画像セットは、特定の融合戦略を用いて融合特徴画像を取得する。
論文 参考訳(メタデータ) (2021-02-21T06:34:33Z) - When Image Decomposition Meets Deep Learning: A Novel Infrared and
Visible Image Fusion Method [27.507158159317417]
赤外線と可視光の融合は画像処理と画像強調においてホットな話題である。
本稿では,新しいデュアルストリーム自動エンコーダを用いた核融合ネットワークを提案する。
論文 参考訳(メタデータ) (2020-09-02T19:32:28Z) - DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion [28.7553352357059]
本稿では,自動エンコーダを用いた新しい核融合ネットワークを提案する。
エンコーダは、低周波情報と高周波情報とで、画像を背景と詳細の特徴マップに分解する。
テストフェーズでは、背景と詳細の特徴マップをそれぞれ融合モジュールを介してマージし、デコーダにより融合画像の堅牢性を回復する。
論文 参考訳(メタデータ) (2020-03-20T11:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。