論文の概要: Res2NetFuse: A Fusion Method for Infrared and Visible Images
- arxiv url: http://arxiv.org/abs/2112.14540v1
- Date: Wed, 29 Dec 2021 13:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 14:42:24.429040
- Title: Res2NetFuse: A Fusion Method for Infrared and Visible Images
- Title(参考訳): Res2NetFuse:赤外線と可視画像の融合手法
- Authors: Xu Song and Xiao-Jun Wu and Hui Li and Jun Sun and Vasile Palade
- Abstract要約: 本稿では、赤外線と可視画像のための新しいRes2Netベースの融合フレームワークを提案する。
提案した融合モデルは,それぞれエンコーダ,フュージョン層,デコーダの3つの部分を有する。
実験により,本手法は客観的および主観的評価において,最先端の融合性能を実現することを示す。
- 参考スコア(独自算出の注目度): 18.097069554528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel Res2Net-based fusion framework for infrared and
visible images. The proposed fusion model has three parts: an encoder, a fusion
layer and a decoder, respectively. The Res2Net-based encoder is used to extract
multi-scale features of source images, the paper introducing a new training
strategy for training a Res2Net-based encoder that uses only a single image.
Then, a new fusion strategy is developed based on the attention model. Finally,
the fused image is reconstructed by the decoder. The proposed approach is also
analyzed in detail. Experiments show that our method achieves state-of-the-art
fusion performance in objective and subjective assessment by comparing with the
existing methods.
- Abstract(参考訳): 本稿では,赤外線および可視画像のためのres2netベースの融合フレームワークを提案する。
提案した融合モデルは,それぞれエンコーダ,フュージョン層,デコーダの3つの部分を有する。
Res2Netベースのエンコーダは、ソースイメージのマルチスケールの特徴を抽出するために使用され、単一のイメージのみを使用するRes2Netベースのエンコーダをトレーニングするための新しいトレーニング戦略を導入する。
そして、注目モデルに基づいて新たな融合戦略を開発する。
そして、デコーダによって融合画像が再構成される。
提案手法も詳細に分析されている。
実験により,本手法は既存手法との比較により,客観的,主観的評価において最先端の融合性能を実現することを示す。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Meta-Auxiliary Network for 3D GAN Inversion [18.777352198191004]
本稿では,新たに開発された3D GANをジェネレータとして利用しながら,新しいメタ補助フレームワークを提案する。
最初の段階では、オフザシェルフインバージョン技術を用いて、入力画像を編集可能な潜在コードに変換する。
補助的ネットワークは、与えられた画像を入力としてジェネレータパラメータを洗練し、畳み込み層の重み付けとボリュームレンダリングのサンプリング位置のオフセットを予測する。
第2段階では、入力された画像に補助ネットワークを高速に適応させるメタラーニングを行い、その後、メタラーニングされた補助ネットワークを介して最終再構成画像を合成する。
論文 参考訳(メタデータ) (2023-05-18T11:26:27Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - A Joint Convolution Auto-encoder Network for Infrared and Visible Image
Fusion [7.799758067671958]
我々は、赤外線および可視画像融合のためのジョイント畳み込みオートエンコーダ(JCAE)ネットワークを設計する。
クロタリーナ動物の赤外線認識能力に触発され,赤外線および可視画像融合のためのジョイント・コンボリューション・オートエンコーダ(JCAE)ネットワークを設計した。
論文 参考訳(メタデータ) (2022-01-26T03:49:27Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - EPNet: Enhancing Point Features with Image Semantics for 3D Object
Detection [60.097873683615695]
我々は,複数のセンサの活用を含む,3次元検出タスクにおける2つの重要な課題に対処することを目指している。
本稿では,画像アノテーションを使わずに,意味的な画像特徴をポイントワイズで拡張する新たな融合モジュールを提案する。
これら2つのコンポーネントを統合するために,EPNetというエンドツーエンドで学習可能なフレームワークを設計する。
論文 参考訳(メタデータ) (2020-07-17T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。