論文の概要: Perceptual Region-Driven Infrared-Visible Co-Fusion for Extreme Scene Enhancement
- arxiv url: http://arxiv.org/abs/2512.06400v1
- Date: Sat, 06 Dec 2025 11:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.343391
- Title: Perceptual Region-Driven Infrared-Visible Co-Fusion for Extreme Scene Enhancement
- Title(参考訳): 極端シーン強調のための知覚領域駆動型赤外線可視光共融合
- Authors: Jing Tao, Yonghong Zong, Banglei Guana, Pengju Sun, Taihang Lei, Yang Shanga, Qifeng Yu,
- Abstract要約: マルチ露光とマルチモーダルイメージングを組み合わせた地域認識に基づく融合フレームワークを提案する。
このフレームワークは、極端環境における単一露光法制限を克服し、マルチモーダル・マルチ露光データを融合する。
合成データと実世界のデータの両方で行った実験は、最先端の手法と比較して画像の明瞭さが優れ、性能が向上した。
- 参考スコア(独自算出の注目度): 8.10747908396949
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In photogrammetry, accurately fusing infrared (IR) and visible (VIS) spectra while preserving the geometric fidelity of visible features and incorporating thermal radiation is a significant challenge, particularly under extreme conditions. Existing methods often compromise visible imagery quality, impacting measurement accuracy. To solve this, we propose a region perception-based fusion framework that combines multi-exposure and multi-modal imaging using a spatially varying exposure (SVE) camera. This framework co-fuses multi-modal and multi-exposure data, overcoming single-exposure method limitations in extreme environments. The framework begins with region perception-based feature fusion to ensure precise multi-modal registration, followed by adaptive fusion with contrast enhancement. A structural similarity compensation mechanism, guided by regional saliency maps, optimizes IR-VIS spectral integration. Moreover, the framework adapts to single-exposure scenarios for robust fusion across different conditions. Experiments conducted on both synthetic and real-world data demonstrate superior image clarity and improved performance compared to state-of-the-art methods, as evidenced by both quantitative and visual evaluations.
- Abstract(参考訳): 光電図では、可視像の幾何学的忠実さを保ちながら、赤外線(IR)と可視光(VIS)スペクトルを正確に融合させ、特に極端な条件下では、熱放射を取り入れることは重要な課題である。
既存の手法はしばしば可視画像の品質を妥協し、測定精度に影響を及ぼす。
そこで本稿では,空間的に変化する露光(SVE)カメラを用いたマルチ露光とマルチモーダルイメージングを組み合わせた領域認識に基づく融合フレームワークを提案する。
このフレームワークは、極端環境における単一露光法制限を克服し、マルチモーダル・マルチ露光データを融合する。
このフレームワークは、地域認識に基づく特徴融合から始まり、正確なマルチモーダル登録を保証し、その後コントラスト拡張を伴う適応融合を行う。
構造的類似度補償機構は、地域差分マップによって導かれ、IR-VISスペクトル統合を最適化する。
さらに、このフレームワークは異なる条件をまたいだ堅牢な融合のための単一露光シナリオに適応する。
合成データと実世界のデータの両方で行った実験は、定量評価と視覚評価の両方で証明されているように、画像の明瞭さと、最先端の手法と比較して性能が向上したことを示している。
関連論文リスト
- Retinex-MEF: Retinex-based Glare Effects Aware Unsupervised Multi-Exposure Image Fusion [15.733055563028039]
マルチ露光画像融合(MEF)は、同一シーンの複数の異なる露光画像を1つのよく露出した複合体に合成する。
シーンリフレクタンスから画像照明を分離するRetinex理論は、一貫したシーン表現を保証するための自然な枠組みを提供する。
本稿では、過剰露光によるグラア効果をモデル化するために、Retinex-MEFと呼ばれる教師なし制御可能な手法を導入する。
論文 参考訳(メタデータ) (2025-03-10T12:19:03Z) - RGB-Thermal Infrared Fusion for Robust Depth Estimation in Complex Environments [0.0]
本稿では,深度推定精度とロバスト性を向上させるマルチモーダル深度推定モデルRTFusionを提案する。
このモデルは、相互補完的アライメント(MCA)モジュールからなる独自の融合機構であるEGFusionを組み込んでいる。
MS2およびViViD++データセットの実験では、提案モデルが高品質な深度マップを一貫して生成していることが示されている。
論文 参考訳(メタデータ) (2025-03-05T01:35:14Z) - Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - UMCFuse: A Unified Multiple Complex Scenes Infrared and Visible Image Fusion Framework [18.30261731071375]
UMCFuseと呼ばれる複雑なシーンにおける赤外線と可視画像の融合のための統合フレームワークを提案する。
我々は、可視画像のピクセルを光透過の散乱度から分類し、全体的な強度から細部を分離する。
論文 参考訳(メタデータ) (2024-02-03T09:27:33Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - A Synthesis-Based Approach for Thermal-to-Visible Face Verification [105.63410428506536]
本稿では,ARL-VTFおよびTUFTSマルチスペクトル顔データセット上での最先端性能を実現するアルゴリズムを提案する。
MILAB-VTF(B)も提案する。
論文 参考訳(メタデータ) (2021-08-21T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。