論文の概要: FusionRegister: Every Infrared and Visible Image Fusion Deserves Registration
- arxiv url: http://arxiv.org/abs/2603.07667v1
- Date: Sun, 08 Mar 2026 14:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.011619
- Title: FusionRegister: Every Infrared and Visible Image Fusion Deserves Registration
- Title(参考訳): FusionRegister:すべての赤外線と可視画像の融合は登録を保存する
- Authors: Congcong Bian, Haolong Ma, Hui Li, Zhongwei Shen, Xiaoqing Luo, Xiaoning Song, Xiao-Jun Wu,
- Abstract要約: 近赤外・可視画像融合タスクにおいて,視覚的先行性によって誘導されるクロスモダリティ登録法を提案する。
3つのデータセットの実験によると、FusionRegisterは、最先端のメソッドの融合品質を継承するだけでなく、より詳細なアライメントと堅牢性を提供する。
- 参考スコア(独自算出の注目度): 19.632037446234104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatial registration across different visual modalities is a critical but formidable step in multi-modality image fusion for real-world perception. Although several methods are proposed to address this issue, the existing registration-based fusion methods typically require extensive pre-registration operations, limiting their efficiency. To overcome these limitations, a general cross-modality registration method guided by visual priors is proposed for infrared and visible image fusion task, termed FusionRegister. Firstly, FusionRegister achieves robustness by learning cross-modality misregistration representations rather than forcing alignment of all differences, ensuring stable outputs even under challenging input conditions. Moreover, FusionRegister demonstrates strong generality by operating directly on fused results, where misregistration is explicitly represented and effectively handled, enabling seamless integration with diverse fusion methods while preserving their intrinsic properties. In addition, its efficiency is further enhanced by serving the backbone fusion method as a natural visual prior provider, which guides the registration process to focus only on mismatch regions, thereby avoiding redundant operations. Extensive experiments on three datasets demonstrate that FusionRegister not only inherits the fusion quality of state-of-the-art methods, but also delivers superior detail alignment and robustness, making it highly suitable for infrared and visible image fusion method. The code will be available at https://github.com/bociic/FusionRegister.
- Abstract(参考訳): 異なる視覚的モダリティをまたいだ空間的登録は、実世界の知覚のための多モード画像融合の重要なステップである。
この問題に対処するためにいくつかの方法が提案されているが、既存の登録ベースの融合法は一般的に広範な事前登録操作を必要とし、その効率を制限している。
これらの制約を克服するために、FusionRegisterと呼ばれる赤外線および可視画像融合タスクに対して、視覚的優先によってガイドされる一般的なモダリティ登録手法を提案する。
第一に、FusionRegisterは、全ての差分を強制するのではなく、モダリティ間の誤登録表現を学習することで堅牢性を達成し、困難な入力条件下でも安定した出力を確保する。
さらに、FusionRegisterは、誤登録が明示的に表現され、効果的に処理されるような、融合結果を直接操作することで強力な汎用性を示し、本質的な特性を維持しながら、多様な融合メソッドとのシームレスな統合を可能にする。
さらに、バックボーン融合法を自然な視覚的事前提供者として提供することにより、その効率をさらに向上させ、登録プロセスがミスマッチ領域のみに集中するように誘導し、冗長な操作を回避する。
3つのデータセットに対する大規模な実験により、FusionRegisterは最先端のメソッドの融合品質を継承するだけでなく、優れた詳細アライメントとロバスト性を提供し、赤外線と可視画像の融合に非常に適していることが示された。
コードはhttps://github.com/bociic/FusionRegister.comで入手できる。
関連論文リスト
- AngularFuse: A Closer Look at Angle-based Perception for Spatial-Sensitive Multi-Modality Image Fusion [54.84069863008752]
本稿では,空間感性画像融合(AngularFuse)のための角度に基づく知覚フレームワークを提案する。
ラプラシアンエッジエンハンスメントと適応ヒストグラムを組み合わせることで、よりリッチなディテールとよりバランスの取れた明るさで参照画像を生成する。
MSRS、RoadScene、M3FDのパブリックデータセットの実験は、AngularFuseが既存の主流メソッドよりも明確なマージンで優れていることを示している。
論文 参考訳(メタデータ) (2025-10-14T08:13:15Z) - SGDFuse: SAM-Guided Diffusion for High-Fidelity Infrared and Visible Image Fusion [65.80051636480836]
本稿では,Segment Anything Model(SAM)によって導かれる条件拡散モデルを提案する。
このフレームワークは2段階のプロセスで動作し、まずマルチモーダルな特徴の予備的な融合を行い、その後、拡散モデルの粗大な分極生成を駆動する条件としてセマンティックマスクを利用する。
SGDFuseは主観的評価と客観的評価の両方において最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-08-07T10:58:52Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - BusReF: Infrared-Visible images registration and fusion focus on
reconstructible area using one set of features [39.575353043949725]
マルチモーダルカメラが連携するシナリオでは、非アライメント画像を扱う際の問題は回避できない。
既存の画像融合アルゴリズムは、より正確な融合結果を得るために、厳密に登録された入力画像対に大きく依存している。
本稿では,BusRefと呼ばれる単一のフレームワークにおける画像登録と融合の問題に対処することを目的とする。
論文 参考訳(メタデータ) (2023-12-30T17:32:44Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - Breaking Free from Fusion Rule: A Fully Semantic-driven Infrared and
Visible Image Fusion [51.22863068854784]
赤外線と可視画像の融合はコンピュータビジョンの分野において重要な役割を果たす。
従来のアプローチでは、損失関数の様々な融合ルールを設計する努力が続けられていた。
セマンティックガイダンスを十分に活用する意味レベル融合ネットワークを開発した。
論文 参考訳(メタデータ) (2022-11-22T13:59:59Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。