論文の概要: EPOFusion: Exposure aware Progressive Optimization Method for Infrared and Visible Image Fusion
- arxiv url: http://arxiv.org/abs/2603.16130v1
- Date: Tue, 17 Mar 2026 05:34:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.109308
- Title: EPOFusion: Exposure aware Progressive Optimization Method for Infrared and Visible Image Fusion
- Title(参考訳): EPOFusion:赤外線・可視画像融合のための露出認識プログレッシブ最適化手法
- Authors: Zhiwei Wang, Yayu Zheng, Defeng He, Li Zhao, Xiaoqin Zhang, Yuxing Li, Edmund Y. Lam,
- Abstract要約: EPOFusion(エポフュージョン)は、赤外線および可視光融合モデルである。
オーバー露光領域から微細な赤外線特徴を抽出する際のエンコーダを容易にするための誘導モジュールが導入された。
マルチスケールのコンテキスト融合モジュールを組み込んだ反復デコーダは、融合した画像を徐々に強化するように設計されている。
より優れた露光認識を実現するために、最初の赤外線および可視光過剰露光データセットを構築した。
- 参考スコア(独自算出の注目度): 31.371511441847577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Overexposure frequently occurs in practical scenarios, causing the loss of critical visual information. However, existing infrared and visible fusion methods still exhibit unsatisfactory performance in highly bright regions. To address this, we propose EPOFusion, an exposure-aware fusion model. Specifically, a guidance module is introduced to facilitate the encoder in extracting fine-grained infrared features from overexposed regions. Meanwhile, an iterative decoder incorporating a multiscale context fusion module is designed to progressively enhance the fused image, ensuring consistent details and superior visual quality. Finally, an adaptive loss function dynamically constrains the fusion process, enabling an effective balance between the modalities under varying exposure conditions. To achieve better exposure awareness, we construct the first infrared and visible overexposure dataset (IVOE) with high quality infrared guided annotations for overexposed regions. Extensive experiments show that EPOFusion outperforms existing methods. It maintains infrared cues in overexposed regions while achieving visually faithful fusion in non-overexposed areas, thereby enhancing both visual fidelity and downstream task performance. Code, fusion results and IVOE dataset will be made available at https://github.com/warren-wzw/EPOFusion.git.
- Abstract(参考訳): 過剰露光は現実的なシナリオで頻繁に発生し、重要な視覚情報が失われる。
しかし、既存の赤外線および可視光融合法は、非常に明るい地域では不満足な性能を示す。
そこで本研究では、露光認識融合モデルであるEPOFusionを提案する。
具体的には、過剰に露出した領域から微細な赤外線特徴を抽出する際のエンコーダを容易にするための誘導モジュールを導入する。
一方、マルチスケールのコンテキスト融合モジュールを組み込んだ反復デコーダは、融合した画像を徐々に強化し、一貫した詳細と優れた視覚的品質を確保するように設計されている。
最後に、適応損失関数は核融合過程を動的に制限し、様々な露光条件下でのモダリティ間の効果的なバランスを可能にする。
より優れた露出認識を実現するために,高画質の赤外誘導アノテーションを用いた第1次赤外可視オーバー露光データセット(IVOE)を構築した。
大規模な実験により、EPOFusionは既存の手法より優れていることが示された。
非露出領域における視覚的に忠実な融合を実現しつつ、過剰発現領域における赤外線の手がかりを維持し、視覚的忠実度と下流タスク性能の両立を図る。
コード、融合結果、IVOEデータセットはhttps://github.com/warren-wzw/EPOFusion.git.comで利用可能になる。
関連論文リスト
- Perceptual Region-Driven Infrared-Visible Co-Fusion for Extreme Scene Enhancement [8.10747908396949]
マルチ露光とマルチモーダルイメージングを組み合わせた地域認識に基づく融合フレームワークを提案する。
このフレームワークは、極端環境における単一露光法制限を克服し、マルチモーダル・マルチ露光データを融合する。
合成データと実世界のデータの両方で行った実験は、最先端の手法と比較して画像の明瞭さが優れ、性能が向上した。
論文 参考訳(メタデータ) (2025-12-06T11:17:35Z) - SGDFuse: SAM-Guided Diffusion for High-Fidelity Infrared and Visible Image Fusion [65.80051636480836]
本稿では,Segment Anything Model(SAM)によって導かれる条件拡散モデルを提案する。
このフレームワークは2段階のプロセスで動作し、まずマルチモーダルな特徴の予備的な融合を行い、その後、拡散モデルの粗大な分極生成を駆動する条件としてセマンティックマスクを利用する。
SGDFuseは主観的評価と客観的評価の両方において最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-08-07T10:58:52Z) - DFVO: Learning Darkness-free Visible and Infrared Image Disentanglement and Fusion All at Once [57.15043822199561]
可視・赤外画像のアンタングル化と融合を同時に行うためのダークネスフリーネットワーク(DFVO)を提案する。
DFVOは、従来の2段階のカスケードトレーニング(エンハンスメントと融合)を置き換えるために、ケースケードマルチタスクアプローチを採用している
提案手法は,定性的および定量的評価の観点から,最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2025-05-07T15:59:45Z) - UMCFuse: A Unified Multiple Complex Scenes Infrared and Visible Image Fusion Framework [18.30261731071375]
UMCFuseと呼ばれる複雑なシーンにおける赤外線と可視画像の融合のための統合フレームワークを提案する。
我々は、可視画像のピクセルを光透過の散乱度から分類し、全体的な強度から細部を分離する。
論文 参考訳(メタデータ) (2024-02-03T09:27:33Z) - IAIFNet: An Illumination-Aware Infrared and Visible Image Fusion Network [13.11361803763253]
我々はIAIFNetという名前のイルミネーション対応赤外線・可視画像融合ネットワークを提案する。
本フレームワークでは,まず,入力画像の入射照明マップを推定する。
適応微分融合モジュール (ADFM) と有向目標認識モジュール (STAM) の助けを借りて, 画像融合ネットワークは, 照明付赤外線と可視画像の有向的特徴を高画質の融合画像に効果的に統合する。
論文 参考訳(メタデータ) (2023-09-26T15:12:29Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。