論文の概要: Fusing in 3D: Free-Viewpoint Fusion Rendering with a 3D Infrared-Visible Scene Representation
- arxiv url: http://arxiv.org/abs/2601.12697v1
- Date: Mon, 19 Jan 2026 03:38:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.74528
- Title: Fusing in 3D: Free-Viewpoint Fusion Rendering with a 3D Infrared-Visible Scene Representation
- Title(参考訳): 3次元赤外線可視画像表現による自由視点融合レンダリング
- Authors: Chao Yang, Deshui Miao, Chao Tian, Guoqing Zhu, Yameng Gu, Zhenyu He,
- Abstract要約: 赤外線可視画像融合は、赤外線と可視情報を単一の融合画像に統合することを目的としている。
既存の2次元融合法は、複雑なシナリオの包括的理解を無視して、固定されたカメラ視点から画像を融合することに焦点を当てている。
Infrared-Visible Gaussian Fusionフレームワークを提案する。これはマルチモーダル2次元入力からシーン形状を再構成し、融合画像の直接レンダリングを可能にする。
- 参考スコア(独自算出の注目度): 9.888838004473323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrared-visible image fusion aims to integrate infrared and visible information into a single fused image. Existing 2D fusion methods focus on fusing images from fixed camera viewpoints, neglecting a comprehensive understanding of complex scenarios, which results in the loss of critical information about the scene. To address this limitation, we propose a novel Infrared-Visible Gaussian Fusion (IVGF) framework, which reconstructs scene geometry from multimodal 2D inputs and enables direct rendering of fused images. Specifically, we propose a cross-modal adjustment (CMA) module that modulates the opacity of Gaussians to solve the problem of cross-modal conflicts. Moreover, to preserve the distinctive features from both modalities, we introduce a fusion loss that guides the optimization of CMA, thus ensuring that the fused image retains the critical characteristics of each modality. Comprehensive qualitative and quantitative experiments demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): 赤外線可視画像融合は、赤外線と可視情報を単一の融合画像に統合することを目的としている。
既存の2D融合法は、固定されたカメラ視点から画像を融合させることに重点を置いており、複雑なシナリオの包括的理解を無視しているため、シーンに関する重要な情報が失われる。
この制限に対処するために,マルチモーダル2次元入力からシーン形状を再構成し,融合画像の直接レンダリングを可能にする,新しい赤外線可視ガウス融合(IVGF)フレームワークを提案する。
具体的には, ガウスの不透明度を変調し, クロスモーダル・コンフリクトの問題を解決するクロスモーダル・アライメント (CMA) モジュールを提案する。
さらに,両モードの特徴を保存するために,CMAの最適化を導く融合損失を導入し,融合画像が各モードの臨界特性を保持することを保証する。
総合的な質的,定量的な実験により,提案手法の有効性が示された。
関連論文リスト
- Causality-Driven Infrared and Visible Image Fusion [7.454657847653563]
本稿では,画像融合タスクを因果性の観点から再検討する。
モデルとバイアスの影響は、調整された因果グラフを構築することによって切り離される。
共同設立者の干渉を排除するため、バックドア調整ベースのフィーチャーフュージョンモジュール(BAFFM)が提案されている。
論文 参考訳(メタデータ) (2025-05-27T07:48:52Z) - DFVO: Learning Darkness-free Visible and Infrared Image Disentanglement and Fusion All at Once [57.15043822199561]
可視・赤外画像のアンタングル化と融合を同時に行うためのダークネスフリーネットワーク(DFVO)を提案する。
DFVOは、従来の2段階のカスケードトレーニング(エンハンスメントと融合)を置き換えるために、ケースケードマルチタスクアプローチを採用している
提案手法は,定性的および定量的評価の観点から,最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2025-05-07T15:59:45Z) - UMCFuse: A Unified Multiple Complex Scenes Infrared and Visible Image Fusion Framework [18.30261731071375]
UMCFuseと呼ばれる複雑なシーンにおける赤外線と可視画像の融合のための統合フレームワークを提案する。
我々は、可視画像のピクセルを光透過の散乱度から分類し、全体的な強度から細部を分離する。
論文 参考訳(メタデータ) (2024-02-03T09:27:33Z) - A Multi-scale Information Integration Framework for Infrared and Visible Image Fusion [46.545365049713105]
赤外線および可視画像融合は、ソース画像の強度と詳細情報を含む融合画像を生成することを目的としている。
既存の手法は主に損失関数の単純な重みを採用し、各モードの情報保持を決定する。
近赤外・可視画像融合のためのマルチスケールデュアルアテンション(MDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T14:40:05Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。