論文の概要: DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion
- arxiv url: http://arxiv.org/abs/2003.09210v3
- Date: Thu, 8 Apr 2021 07:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 23:01:22.525004
- Title: DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion
- Title(参考訳): DIDFuse:赤外線と可視画像融合のための深部画像分解
- Authors: Zixiang Zhao, Shuang Xu, Chunxia Zhang, Junmin Liu, Pengfei Li,
Jiangshe Zhang
- Abstract要約: 本稿では,自動エンコーダを用いた新しい核融合ネットワークを提案する。
エンコーダは、低周波情報と高周波情報とで、画像を背景と詳細の特徴マップに分解する。
テストフェーズでは、背景と詳細の特徴マップをそれぞれ融合モジュールを介してマージし、デコーダにより融合画像の堅牢性を回復する。
- 参考スコア(独自算出の注目度): 28.7553352357059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared and visible image fusion, a hot topic in the field of image
processing, aims at obtaining fused images keeping the advantages of source
images. This paper proposes a novel auto-encoder (AE) based fusion network. The
core idea is that the encoder decomposes an image into background and detail
feature maps with low- and high-frequency information, respectively, and that
the decoder recovers the original image. To this end, the loss function makes
the background/detail feature maps of source images similar/dissimilar. In the
test phase, background and detail feature maps are respectively merged via a
fusion module, and the fused image is recovered by the decoder. Qualitative and
quantitative results illustrate that our method can generate fusion images
containing highlighted targets and abundant detail texture information with
strong robustness and meanwhile surpass state-of-the-art (SOTA) approaches.
- Abstract(参考訳): 画像処理分野におけるホットトピックである赤外線および可視画像融合は,画像の利点を活かした融合画像を得ることを目的としている。
本稿では,新しい自動エンコーダ(AE)ベースの核融合ネットワークを提案する。
中心となる考え方は、エンコーダが背景と細部の特徴マップにそれぞれ低周波と高周波の情報を分解し、デコーダが元の画像を復元するというものである。
この目的のために、損失関数はソース画像の背景/詳細特徴マップを類似/異同させる。
テストフェーズでは、背景特徴マップとディテール特徴マップをそれぞれフュージョンモジュールを介してマージし、デコーダによって融合画像を復元する。
定性的かつ定量的な結果から,本手法は,強い強靭性を持ちながら,最先端(SOTA)アプローチを超越した,鮮明なテクスチャ情報を含む融合画像を生成することができることを示す。
関連論文リスト
- Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - Guided Image Restoration via Simultaneous Feature and Image Guided
Fusion [67.30078778732998]
本稿では,SFIGFネットワークを提案する。
GF ( guided filter) のメカニズムに従って, 特徴量と画像レベルの誘導核融合を考察する。
特徴領域と画像領域の両方で誘導融合が実装されているため,提案したSFIGFは文脈情報とテキスト情報の両方を忠実に再構築することが期待される。
論文 参考訳(メタデータ) (2023-12-14T12:15:45Z) - DePF: A Novel Fusion Approach based on Decomposition Pooling for
Infrared and Visible Images [7.11574718614606]
分解プール法(デプール法)に基づく新しい融合ネットワークを提案し,これをDePFと呼ぶ。
切り離しに基づくエンコーダは、ソース画像のマルチスケール画像と詳細特徴を同時に抽出するように設計されている。
実験により,提案手法は最先端技術よりも優れた核融合性能を示すことが示された。
論文 参考訳(メタデータ) (2023-05-27T05:47:14Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - A Deep Decomposition Network for Image Processing: A Case Study for
Visible and Infrared Image Fusion [38.17268441062239]
本稿では畳み込みニューラルネットワークに基づく新しい画像分解法を提案する。
赤外線画像と可視光画像を入力し、それぞれ3つの高周波特徴画像と低周波特徴画像に分解する。
2つの特徴画像セットは、特定の融合戦略を用いて融合特徴画像を取得する。
論文 参考訳(メタデータ) (2021-02-21T06:34:33Z) - When Image Decomposition Meets Deep Learning: A Novel Infrared and
Visible Image Fusion Method [27.507158159317417]
赤外線と可視光の融合は画像処理と画像強調においてホットな話題である。
本稿では,新しいデュアルストリーム自動エンコーダを用いた核融合ネットワークを提案する。
論文 参考訳(メタデータ) (2020-09-02T19:32:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。