論文の概要: Infrared and Visible Image Fusion via Interactive Compensatory Attention
Adversarial Learning
- arxiv url: http://arxiv.org/abs/2203.15337v1
- Date: Tue, 29 Mar 2022 08:28:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:11:16.310074
- Title: Infrared and Visible Image Fusion via Interactive Compensatory Attention
Adversarial Learning
- Title(参考訳): 対話型補償注意適応学習による赤外・可視画像融合
- Authors: Zhishe Wang, Wenyu Shao, Yanlin Chen, Jiawei Xu, Xiaoqin Zhang
- Abstract要約: 本稿では, 融合バランスを改善するために, 生成的対角訓練に基づく新しいエンド・ツー・エンド・モードを提案する。
特にジェネレータでは、トリプルパスを持つマルチレベルエンコーダデコーダネットワークを構築し、赤外線および可視経路を採用し、さらなる強度と情報勾配を提供する。
さらに、二重判別器は、融合した結果とソース画像の類似した分布を特定するように設計されており、生成器はよりバランスの取れた結果を生成するように最適化されている。
- 参考スコア(独自算出の注目度): 7.995162257955025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing generative adversarial fusion methods generally concatenate
source images and extract local features through convolution operation, without
considering their global characteristics, which tends to produce an unbalanced
result and is biased towards the infrared image or visible image. Toward this
end, we propose a novel end-to-end mode based on generative adversarial
training to achieve better fusion balance, termed as \textit{interactive
compensatory attention fusion network} (ICAFusion). In particular, in the
generator, we construct a multi-level encoder-decoder network with a triple
path, and adopt infrared and visible paths to provide additional intensity and
gradient information. Moreover, we develop interactive and compensatory
attention modules to communicate their pathwise information, and model their
long-range dependencies to generate attention maps, which can more focus on
infrared target perception and visible detail characterization, and further
increase the representation power for feature extraction and feature
reconstruction. In addition, dual discriminators are designed to identify the
similar distribution between fused result and source images, and the generator
is optimized to produce a more balanced result. Extensive experiments
illustrate that our ICAFusion obtains superior fusion performance and better
generalization ability, which precedes other advanced methods in the subjective
visual description and objective metric evaluation. Our codes will be public at
\url{https://github.com/Zhishe-Wang/ICAFusion}
- Abstract(参考訳): 既存の生成逆核融合法では、大域的な特性を考慮せず、一般にソースイメージを結合し畳み込み操作により局所的な特徴を抽出するが、これは不均衡な結果を生み出し、赤外線画像や可視画像に対して偏りが生じる。
そこで本研究では,より優れた融合バランスを実現するために,生成的対人訓練に基づく新たなエンドツーエンドモードを提案し,これをICAFusion(textit{interactive compensatory attention fusion network)と呼ぶ。
特にジェネレータでは、三重経路を持つマルチレベルエンコーダ・デコーダネットワークを構築し、赤外線と可視パスを採用し、さらなる強度と勾配情報を提供する。
さらに,パスワイズ情報を伝達するための対話的および補償的注意モジュールを開発し,その長距離依存性をモデル化して注意マップを生成する。
さらに、2つの判別器は、融合結果とソース画像の類似分布を識別するために設計され、ジェネレータはよりバランスの取れた結果を生成するように最適化される。
広範な実験により,我々のicafusionは,主観的視覚記述と客観的測定における他の先進的手法に先行する,優れた核融合性能とより良い一般化能力を得ることが示された。
我々のコードは \url{https://github.com/Zhishe-Wang/ICAFusion} で公開される。
関連論文リスト
- A Semantic-Aware and Multi-Guided Network for Infrared-Visible Image Fusion [41.34335755315773]
マルチモダリティ画像融合は、2つのソース画像から特定のモダリティ情報と共有モダリティ情報を融合することを目的としている。
本稿では,3分岐エンコーダデコーダアーキテクチャと,それに対応する融合層を融合戦略として提案する。
可視・近赤外画像融合および医用画像融合タスクにおける最先端手法と比較して,本手法は競争力のある結果を得た。
論文 参考訳(メタデータ) (2024-06-11T09:32:40Z) - Fusion of Infrared and Visible Images based on Spatial-Channel
Attentional Mechanism [3.388001684915793]
Infrared and visible image fusion (IVIF) の革新的アプローチであるAMFusionNetを提案する。
可視光源からのテクスチャ特徴と赤外線画像からの熱的詳細を同化することにより,包括的情報に富んだ画像を生成する。
提案手法は, 品質と量の観点から, 最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2023-08-25T21:05:11Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Breaking Free from Fusion Rule: A Fully Semantic-driven Infrared and
Visible Image Fusion [51.22863068854784]
赤外線と可視画像の融合はコンピュータビジョンの分野において重要な役割を果たす。
従来のアプローチでは、損失関数の様々な融合ルールを設計する努力が続けられていた。
セマンティックガイダンスを十分に活用する意味レベル融合ネットワークを開発した。
論文 参考訳(メタデータ) (2022-11-22T13:59:59Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - TGFuse: An Infrared and Visible Image Fusion Approach Based on
Transformer and Generative Adversarial Network [15.541268697843037]
本稿では,軽量トランスモジュールと対向学習に基づく赤外可視画像融合アルゴリズムを提案する。
大域的相互作用力にインスパイアされた我々は、トランスフォーマー技術を用いて、効果的な大域的核融合関係を学習する。
実験により提案したモジュールの有効性が実証された。
論文 参考訳(メタデータ) (2022-01-25T07:43:30Z) - A Dual-branch Network for Infrared and Visible Image Fusion [20.15854042473049]
高密度ブロックとGANに基づく新しい手法を提案する。
ネットワーク全体の各層に入力された画像可視光画像を直接挿入します。
提案手法により得られた融合画像は,複数の評価指標に基づいて良好なスコアが得られることを示す。
論文 参考訳(メタデータ) (2021-01-24T04:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。