論文の概要: RFN-Nest: An end-to-end residual fusion network for infrared and visible
images
- arxiv url: http://arxiv.org/abs/2103.04286v1
- Date: Sun, 7 Mar 2021 07:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:38:39.343441
- Title: RFN-Nest: An end-to-end residual fusion network for infrared and visible
images
- Title(参考訳): RFN-Nest:赤外・可視画像のためのエンドツーエンド残差核融合ネットワーク
- Authors: Hui Li, Xiao-Jun Wu, Josef Kittler
- Abstract要約: 赤外線および可視画像融合のためのエンドツーエンド融合ネットワークアーキテクチャ(RFN-Nest)を提案する。
RFNを訓練するために、新しい詳細保存損失関数と機能強化損失関数が提案される。
パブリックドメインデータセットの実験結果から,既存手法と比較して,我々のエンドツーエンドのフュージョンネットワークは最先端の手法よりも優れた性能を提供することが示された。
- 参考スコア(独自算出の注目度): 37.935940961760785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the image fusion field, the design of deep learning-based fusion methods
is far from routine. It is invariably fusion-task specific and requires a
careful consideration. The most difficult part of the design is to choose an
appropriate strategy to generate the fused image for a specific task in hand.
Thus, devising learnable fusion strategy is a very challenging problem in the
community of image fusion. To address this problem, a novel end-to-end fusion
network architecture (RFN-Nest) is developed for infrared and visible image
fusion. We propose a residual fusion network (RFN) which is based on a residual
architecture to replace the traditional fusion approach. A novel
detail-preserving loss function, and a feature enhancing loss function are
proposed to train RFN. The fusion model learning is accomplished by a novel
two-stage training strategy. In the first stage, we train an auto-encoder based
on an innovative nest connection (Nest) concept. Next, the RFN is trained using
the proposed loss functions. The experimental results on public domain data
sets show that, compared with the existing methods, our end-to-end fusion
network delivers a better performance than the state-of-the-art methods in both
subjective and objective evaluation. The code of our fusion method is available
at https://github.com/hli1221/imagefusion-rfn-nest
- Abstract(参考訳): 画像融合分野では、深層学習に基づく融合法の設計は日常的ではない。
それは常に融合タスク特異的であり、慎重な考慮が必要です。
設計の最も難しい部分は、特定のタスクの融合画像を生成するための適切な戦略を選択することです。
したがって、学習可能な融合戦略の考案は、画像融合のコミュニティで非常に困難な問題です。
この問題を解決するために、赤外線および可視画像融合のための新しいエンドツーエンド融合ネットワークアーキテクチャ(RFN-Nest)を開発した。
本稿では,従来の核融合方式を代替する残差構造に基づく残差核融合ネットワーク(RFN)を提案する。
RFNを訓練するために、新しい詳細保存損失関数と機能強化損失関数が提案される。
融合モデル学習は、新しい二段階学習戦略によって達成される。
最初の段階では、革新的なネスト接続(Nest)の概念に基づいて自動エンコーダをトレーニングします。
次に、提案された損失関数を用いてrfnを訓練する。
パブリックドメインデータセットにおける実験結果は,既存の手法と比較して,主観的および客観的評価において,エンドツーエンドのフュージョンネットワークが最先端の手法よりも優れた性能を提供することを示した。
私たちの融合メソッドのコードはhttps://github.com/hli1221/imagefusion-rfn-nestで入手できます。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - FuseFormer: A Transformer for Visual and Thermal Image Fusion [3.6064695344878093]
本稿では,従来の評価指標を損失関数として用いた場合の限界を緩和する画像融合問題に対する新しい手法を提案する。
提案手法は,局所的およびグローバルなコンテキスト情報に順応的に対処するトランスフォーマーベースのマルチスケール融合戦略を統合する。
提案手法は,新たな損失関数の定義とともに,他の競合融合アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-01T19:40:39Z) - ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss
via Meta-Learning [17.91346343984845]
メタラーニングに基づく統合画像融合フレームワークReFusionを導入する。
ReFusionはパラメータ化された損失関数を採用し、特定のシナリオとタスクに応じてトレーニングフレームワークによって動的に調整される。
赤外線可視、医療、マルチフォーカス、マルチ露光画像融合など、様々なタスクに適応することができる。
論文 参考訳(メタデータ) (2023-12-13T07:40:39Z) - A Task-guided, Implicitly-searched and Meta-initialized Deep Model for
Image Fusion [69.10255211811007]
本稿では,課題の多い現実シナリオにおいて,画像融合問題に対処するためのタスク誘導,インプリシト検索,メタ一般化(TIM)深層モデルを提案する。
具体的には、画像融合の教師なし学習プロセスを導くために、下流タスクからの情報を組み込む制約付き戦略を提案する。
このフレームワーク内に暗黙の探索スキームを設計し、高速な融合モデルのためのコンパクトなアーキテクチャを自動で発見する。
論文 参考訳(メタデータ) (2023-05-25T08:54:08Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。