論文の概要: Direction-aware multi-scale gradient loss for infrared and visible image fusion
- arxiv url: http://arxiv.org/abs/2510.13067v1
- Date: Wed, 15 Oct 2025 01:26:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.461794
- Title: Direction-aware multi-scale gradient loss for infrared and visible image fusion
- Title(参考訳): 近赤外・可視画像融合のための方向認識型マルチスケール勾配損失
- Authors: Kaixuan Yang, Wei Xiang, Zhenshuai Chen, Tong Jin, Yunpeng Liu,
- Abstract要約: 赤外線および可視光画像融合は、共登録されたソース画像からの相補的な情報を統合して、単一の情報的結果を生成することを目的としている。
水平および垂直の部品を別々に監視し,その符号をスケールにわたって保持する方向認識型多スケール勾配損失を導入する。
- 参考スコア(独自算出の注目度): 11.688147476759566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Infrared and visible image fusion aims to integrate complementary information from co-registered source images to produce a single, informative result. Most learning-based approaches train with a combination of structural similarity loss, intensity reconstruction loss, and a gradient-magnitude term. However, collapsing gradients to their magnitude removes directional information, yielding ambiguous supervision and suboptimal edge fidelity. We introduce a direction-aware, multi-scale gradient loss that supervises horizontal and vertical components separately and preserves their sign across scales. This axis-wise, sign-preserving objective provides clear directional guidance at both fine and coarse resolutions, promoting sharper, better-aligned edges and richer texture preservation without changing model architectures or training protocols. Experiments on open-source model and multiple public benchmarks demonstrate effectiveness of our approach.
- Abstract(参考訳): 赤外線および可視光画像融合は、共登録されたソース画像からの相補的な情報を統合して、単一の情報的結果を生成することを目的としている。
ほとんどの学習ベースのアプローチは、構造的類似性損失、強度再構成損失、勾配のマグニチュード項を組み合わせて訓練する。
しかし、その大きさへの勾配の崩壊は方向情報を取り除き、不明瞭な監督と最適下縁の忠実さをもたらす。
水平および垂直の部品を別々に監視し,その符号をスケールにわたって保持する方向認識型多スケール勾配損失を導入する。
この軸回りのサイン保存目的は、細かな解像度と粗い解像度の両方において明確な方向指示を与え、モデルアーキテクチャやトレーニングプロトコルを変更することなく、よりシャープで、より整合性の高いエッジとよりリッチなテクスチャ保存を促進する。
オープンソースモデルと複数の公開ベンチマークの実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- AngularFuse: A Closer Look at Angle-based Perception for Spatial-Sensitive Multi-Modality Image Fusion [54.84069863008752]
本稿では,空間感性画像融合(AngularFuse)のための角度に基づく知覚フレームワークを提案する。
ラプラシアンエッジエンハンスメントと適応ヒストグラムを組み合わせることで、よりリッチなディテールとよりバランスの取れた明るさで参照画像を生成する。
MSRS、RoadScene、M3FDのパブリックデータセットの実験は、AngularFuseが既存の主流メソッドよりも明確なマージンで優れていることを示している。
論文 参考訳(メタデータ) (2025-10-14T08:13:15Z) - Self-Supervised Enhancement of Forward-Looking Sonar Images: Bridging Cross-Modal Degradation Gaps through Feature Space Transformation and Multi-Frame Fusion [17.384482405769567]
前向きのソナー画像の強調は、正確な水中目標検出に不可欠である。
本稿では,画素領域からソナー画像をロバストな特徴領域にマッピングする特徴空間変換を提案する。
提案手法は既存の手法よりも優れ,ノイズを効果的に抑制し,詳細なエッジを保ち,明るさを大幅に改善する。
論文 参考訳(メタデータ) (2025-04-15T08:34:56Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Infrared and Visible Image Fusion via Interactive Compensatory Attention
Adversarial Learning [7.995162257955025]
本稿では, 融合バランスを改善するために, 生成的対角訓練に基づく新しいエンド・ツー・エンド・モードを提案する。
特にジェネレータでは、トリプルパスを持つマルチレベルエンコーダデコーダネットワークを構築し、赤外線および可視経路を採用し、さらなる強度と情報勾配を提供する。
さらに、二重判別器は、融合した結果とソース画像の類似した分布を特定するように設計されており、生成器はよりバランスの取れた結果を生成するように最適化されている。
論文 参考訳(メタデータ) (2022-03-29T08:28:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。