論文の概要: Causality-Driven Infrared and Visible Image Fusion
- arxiv url: http://arxiv.org/abs/2505.20830v1
- Date: Tue, 27 May 2025 07:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.48077
- Title: Causality-Driven Infrared and Visible Image Fusion
- Title(参考訳): 因果性駆動型赤外・可視画像融合
- Authors: Linli Ma, Suzhen Lin, Jianchao Zeng, Zanxia Jin, Yanbo Wang, Fengyuan Li, Yubing Luo,
- Abstract要約: 本稿では,画像融合タスクを因果性の観点から再検討する。
モデルとバイアスの影響は、調整された因果グラフを構築することによって切り離される。
共同設立者の干渉を排除するため、バックドア調整ベースのフィーチャーフュージョンモジュール(BAFFM)が提案されている。
- 参考スコア(独自算出の注目度): 7.454657847653563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image fusion aims to combine complementary information from multiple source images to generate more comprehensive scene representations. Existing methods primarily rely on the stacking and design of network architectures to enhance the fusion performance, often ignoring the impact of dataset scene bias on model training. This oversight leads the model to learn spurious correlations between specific scenes and fusion weights under conventional likelihood estimation framework, thereby limiting fusion performance. To solve the above problems, this paper first re-examines the image fusion task from the causality perspective, and disentangles the model from the impact of bias by constructing a tailored causal graph to clarify the causalities among the variables in image fusion task. Then, the Back-door Adjustment based Feature Fusion Module (BAFFM) is proposed to eliminate confounder interference and enable the model to learn the true causal effect. Finally, Extensive experiments on three standard datasets prove that the proposed method significantly surpasses state-of-the-art methods in infrared and visible image fusion.
- Abstract(参考訳): 画像融合は、複数のソース画像から補完的な情報を組み合わせて、より包括的なシーン表現を生成することを目的としている。
既存の手法は主に、融合性能を高めるためにネットワークアーキテクチャの積み重ねと設計に依存しており、しばしばデータセットシーンのバイアスがモデルトレーニングに与える影響を無視している。
これにより,従来の推定手法を用いて,特定のシーンと融合重みの急激な相関関係を学習し,融合性能を抑えることができる。
本稿では,まず画像融合タスクの因果関係を因果関係の観点から再検討し,画像融合タスクにおける変数間の因果関係を明らかにするために,適切な因果グラフを構築することにより,バイアスの影響からモデルを切り離す。
次に, バックドア調整に基づく機能融合モジュール (BAFFM) を提案し, 共同設立者の干渉を排除し, モデルが真の因果効果を学習できるようにする。
最後に,3つの標準データセットに対する拡張実験により,提案手法が赤外線および可視画像融合における最先端手法を大幅に超えることを示した。
関連論文リスト
- Guided and Variance-Corrected Fusion with One-shot Style Alignment for Large-Content Image Generation [2.3141583665677503]
一般的なアプローチでは、一連の重複したイメージパッチを共同生成し、隣接するパッチをマージして大きなイメージを取得する。
既存の手法による結果は、しばしば目立った成果物、例えば、縫い目や一貫性のないオブジェクトやスタイルを示す。
重み付き平均を重なり合う領域に適用することにより、遠方の画像領域からの負の影響を緩和する誘導核融合(GF)を提案する。
また,遅延補正型核融合 (VCF) も提案し, 劣化後のデータの分散を補正し, より正確な拡散確率モデルの融合を生成する。
論文 参考訳(メタデータ) (2024-12-17T10:33:34Z) - CoMoFusion: Fast and High-quality Fusion of Infrared and Visible Image with Consistency Model [20.02742423120295]
現在の生成モデルに基づく融合法は、しばしば不安定なトレーニングと遅い推論速度に悩まされる。
CoMoFusionは高品質な画像を生成し、高速な画像推論速度を実現する。
また、融合した画像のテクスチャや鮮やかな情報を高めるために、画素値選択に基づく新規な損失も設計する。
論文 参考訳(メタデータ) (2024-05-31T12:35:06Z) - Decomposition-based and Interference Perception for Infrared and Visible
Image Fusion in Complex Scenes [4.919706769234434]
本稿では,分解に基づく干渉知覚画像融合法を提案する。
可視画像の画素を光透過の散乱度から分類し,画像の細部とエネルギー情報を分離する。
この洗練された分解により、複雑なシーンにあるより干渉するピクセルを識別するモデルが提案される。
論文 参考訳(メタデータ) (2024-02-03T09:27:33Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。