論文の概要: AngularFuse: A Closer Look at Angle-based Perception for Spatial-Sensitive Multi-Modality Image Fusion
- arxiv url: http://arxiv.org/abs/2510.12260v1
- Date: Tue, 14 Oct 2025 08:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.242003
- Title: AngularFuse: A Closer Look at Angle-based Perception for Spatial-Sensitive Multi-Modality Image Fusion
- Title(参考訳): AngularFuse: 空間感性多モード画像融合のための角度に基づく知覚をよりよく見る
- Authors: Xiaopeng Liu, Yupei Lin, Sen Zhang, Xiao Wang, Yukai Shi, Liang Lin,
- Abstract要約: 本稿では,空間感性画像融合(AngularFuse)のための角度に基づく知覚フレームワークを提案する。
ラプラシアンエッジエンハンスメントと適応ヒストグラムを組み合わせることで、よりリッチなディテールとよりバランスの取れた明るさで参照画像を生成する。
MSRS、RoadScene、M3FDのパブリックデータセットの実験は、AngularFuseが既存の主流メソッドよりも明確なマージンで優れていることを示している。
- 参考スコア(独自算出の注目度): 54.84069863008752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visible-infrared image fusion is crucial in key applications such as autonomous driving and nighttime surveillance. Its main goal is to integrate multimodal information to produce enhanced images that are better suited for downstream tasks. Although deep learning based fusion methods have made significant progress, mainstream unsupervised approaches still face serious challenges in practical applications. Existing methods mostly rely on manually designed loss functions to guide the fusion process. However, these loss functions have obvious limitations. On one hand, the reference images constructed by existing methods often lack details and have uneven brightness. On the other hand, the widely used gradient losses focus only on gradient magnitude. To address these challenges, this paper proposes an angle-based perception framework for spatial-sensitive image fusion (AngularFuse). At first, we design a cross-modal complementary mask module to force the network to learn complementary information between modalities. Then, a fine-grained reference image synthesis strategy is introduced. By combining Laplacian edge enhancement with adaptive histogram equalization, reference images with richer details and more balanced brightness are generated. Last but not least, we introduce an angle-aware loss, which for the first time constrains both gradient magnitude and direction simultaneously in the gradient domain. AngularFuse ensures that the fused images preserve both texture intensity and correct edge orientation. Comprehensive experiments on the MSRS, RoadScene, and M3FD public datasets show that AngularFuse outperforms existing mainstream methods with clear margin. Visual comparisons further confirm that our method produces sharper and more detailed results in challenging scenes, demonstrating superior fusion capability.
- Abstract(参考訳): 可視赤外画像融合は、自動運転や夜間監視といった重要な応用において重要である。
その主な目的は、下流タスクに適した拡張されたイメージを生成するために、マルチモーダル情報を統合することである。
深層学習に基づく融合法は大きな進歩を遂げてきたが、主流の教師なしアプローチは依然として実践的な応用において深刻な課題に直面している。
既存の方法のほとんどは、融合プロセスのガイドとして手動で設計された損失関数に依存している。
しかし、これらの損失関数には明らかな制限がある。
一方、既存の手法による参照画像は詳細を欠くことが多く、明るさが不均一であることが多い。
一方, 広く使用されている勾配損失は, 勾配等級にのみ焦点が当てられている。
これらの課題に対処するために,空間感性画像融合(AngularFuse)のための角度に基づく知覚フレームワークを提案する。
まず、モーダル間の補完情報をネットワークに学習させるために、モーダル間補完マスクモジュールを設計する。
次に、微細な参照画像合成戦略を導入する。
ラプラシアンエッジエンハンスメントと適応ヒストグラム等化を組み合わせることで、よりリッチなディテールとよりバランスの取れた明るさで参照画像を生成する。
最後に、勾配領域において、勾配の大きさと方向の両方を同時に制約する角度認識損失を導入する。
AngularFuseは、融合したイメージがテクスチャの強度と正しいエッジの向きの両方を保存することを保証します。
MSRS、RoadScene、M3FDの公開データセットに関する総合的な実験は、AngularFuseが既存の主流メソッドよりも明確なマージンで優れていることを示している。
さらに視覚的比較により,よりシャープで詳細な結果が得られることが確認され,優れた融合能力が示された。
関連論文リスト
- Gradient-based multi-focus image fusion with focus-aware saliency enhancement [18.335216974790754]
MFIF(Multi-focus Image fusion)は、複数の部分集中インプットから全焦点画像を取得することを目的としている。
本稿では,高品質な融合境界を生成する重要な境界拡張に基づくMFIF法を提案する。
本手法は主観的評価と客観的評価の両面で,12の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-09-26T14:20:44Z) - DFVO: Learning Darkness-free Visible and Infrared Image Disentanglement and Fusion All at Once [57.15043822199561]
可視・赤外画像のアンタングル化と融合を同時に行うためのダークネスフリーネットワーク(DFVO)を提案する。
DFVOは、従来の2段階のカスケードトレーニング(エンハンスメントと融合)を置き換えるために、ケースケードマルチタスクアプローチを採用している
提案手法は,定性的および定量的評価の観点から,最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2025-05-07T15:59:45Z) - Self-Supervised Enhancement of Forward-Looking Sonar Images: Bridging Cross-Modal Degradation Gaps through Feature Space Transformation and Multi-Frame Fusion [17.384482405769567]
前向きのソナー画像の強調は、正確な水中目標検出に不可欠である。
本稿では,画素領域からソナー画像をロバストな特徴領域にマッピングする特徴空間変換を提案する。
提案手法は既存の手法よりも優れ,ノイズを効果的に抑制し,詳細なエッジを保ち,明るさを大幅に改善する。
論文 参考訳(メタデータ) (2025-04-15T08:34:56Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Breaking Free from Fusion Rule: A Fully Semantic-driven Infrared and
Visible Image Fusion [51.22863068854784]
赤外線と可視画像の融合はコンピュータビジョンの分野において重要な役割を果たす。
従来のアプローチでは、損失関数の様々な融合ルールを設計する努力が続けられていた。
セマンティックガイダンスを十分に活用する意味レベル融合ネットワークを開発した。
論文 参考訳(メタデータ) (2022-11-22T13:59:59Z) - PIE-Net: Photometric Invariant Edge Guided Network for Intrinsic Image
Decomposition [17.008724191799313]
固有の画像分解は、画像から画像形成成分(反射および陰影)を回収する過程である。
本稿では,固有画像分解のためのエッジ駆動ハイブリッドCNN手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T20:46:15Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。