論文の概要: DDFusion:Degradation-Decoupled Fusion Framework for Robust Infrared and Visible Images Fusion
- arxiv url: http://arxiv.org/abs/2504.10871v2
- Date: Mon, 13 Oct 2025 14:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 15:48:08.371264
- Title: DDFusion:Degradation-Decoupled Fusion Framework for Robust Infrared and Visible Images Fusion
- Title(参考訳): DDFusion:ロバスト赤外・可視画像融合のための分解分解融合フレームワーク
- Authors: Tianpei Zhang, Jufeng Zhao, Yiming Zhu, Guangmang Cui, Yuxin Jing,
- Abstract要約: 本稿では,分解脱結合核融合(DDFusion)フレームワークを提案する。
DDFusionはクリーンかつ劣化した条件下で優れた核融合性能を達成する。
- 参考スコア(独自算出の注目度): 9.242363983469346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional infrared and visible image fusion(IVIF) methods often assume high-quality inputs, neglecting real-world degradations such as low-light and noise, which limits their practical applicability. To address this, we propose a Degradation-Decoupled Fusion(DDFusion) framework, which achieves degradation decoupling and jointly models degradation suppression and image fusion in a unified manner. Specifically, the Degradation-Decoupled Optimization Network(DDON) performs degradation-specific decomposition to decouple inter-degradation and degradation-information components, followed by component-specific extraction paths for effective suppression of degradation and enhancement of informative features. The Interactive Local-Global Fusion Network (ILGFN) aggregates complementary features across multi-scale pathways and alleviates performance degradation caused by the decoupling between degradation optimization and image fusion. Extensive experiments demonstrate that DDFusion achieves superior fusion performance under both clean and degraded conditions. Our code is available at https://github.com/Lmmh058/DDFusion.
- Abstract(参考訳): 従来の赤外線および可視画像融合(IVIF)法は、しばしば高品質な入力を仮定し、低照度や雑音などの現実の劣化を無視し、実用性を制限する。
そこで本研究では,分解脱カップリングと共同モデルによる劣化抑制と画像融合を統一的に実現した,分解脱カップリング型核融合(DDFusion)フレームワークを提案する。
具体的には、分解分解分解最適化ネットワーク(DDON)は、分解間成分と劣化情報成分を分離するための分解特異的分解を行い、次いで、分解の効果的抑制と情報的特徴の強化のための成分特異的抽出経路を導出する。
ILGFN(Interactive Local-Global Fusion Network)は、マルチスケールの経路にまたがる相補的特徴を集約し、劣化最適化と画像融合の分離による性能劣化を軽減する。
DDFusionは洗浄条件と劣化条件の両方で優れた核融合性能を示す。
私たちのコードはhttps://github.com/Lmmh058/DDFusion.orgから入手可能です。
関連論文リスト
- Reversible Efficient Diffusion for Image Fusion [66.35113261837469]
マルチモーダル画像融合は、様々なソース画像からの補完情報を統一表現に統合することを目的としている。
拡散モデルは画像生成において顕著な生成能力を示してきたが、画像融合タスクに適用した場合、しばしば細かな損失に悩まされる。
この問題はマルコフ過程に固有のノイズ誤差の蓄積から発生し、融合した結果の不整合と劣化をもたらす。
本稿では,分散推定を回避しつつ,拡散モデルの強力な生成能力を継承する,明示的な教師付きトレーニングフレームワークであるReversible Efficient Diffusion(RED)モデルを提案する。
論文 参考訳(メタデータ) (2026-01-28T05:14:55Z) - MdaIF: Robust One-Stop Multi-Degradation-Aware Image Fusion with Language-Driven Semantics [8.783211177601045]
赤外線と可視画像の融合は、相補的なマルチモーダル情報を単一の融合結果に統合することを目的としている。
大規模言語モデル(MdaIF)により駆動される多段劣化シナリオのためのワンストップ劣化認識画像融合フレームワークを提案する。
気象に配慮した多様な劣化知識とシーン特徴表現を適応的に抽出するために,我々は,事前学習された視覚言語モデル(VLM)をフレームワークに採用する。
論文 参考訳(メタデータ) (2025-11-16T09:43:12Z) - Coupled Degradation Modeling and Fusion: A VLM-Guided Degradation-Coupled Network for Degradation-Aware Infrared and Visible Image Fusion [9.915632806109555]
VLM誘導劣化結合型核融合ネットワーク(VGDCFusion)を提案する。
我々のVGDCFusionは、様々な劣化した画像シナリオ下で、既存の最先端の融合アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-10-13T14:26:33Z) - Dual-Domain Perspective on Degradation-Aware Fusion: A VLM-Guided Robust Infrared and Visible Image Fusion Framework [9.915632806109555]
GD2Fusionは、分解知覚のための視覚言語モデルと二重領域(周波数/空間)共同最適化を統合する新しいフレームワークである。
既存のアルゴリズムやデュアルソースの劣化シナリオの戦略と比較して、融合性能が優れている。
論文 参考訳(メタデータ) (2025-09-05T10:48:46Z) - SGDFuse: SAM-Guided Diffusion for High-Fidelity Infrared and Visible Image Fusion [38.09521879556221]
本稿では,Segment Anything Model(SAM)によって導かれる条件拡散モデルを提案する。
このフレームワークは2段階のプロセスで動作し、まずマルチモーダルな特徴の予備的な融合を行い、その後、拡散モデルの粗大な分極生成を駆動する条件としてセマンティックマスクを利用する。
SGDFuseは主観的評価と客観的評価の両方において最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-08-07T10:58:52Z) - Infrared and Visible Image Fusion Based on Implicit Neural Representations [3.8530055385287403]
赤外線と可視光画像融合は、両モードの強度を組み合わせることで、情報に富む画像を生成することを目的としている。
Inlicit Neural Representations (INR) に基づく画像融合手法を提案する。
実験の結果,INRFuseは主観的視覚的品質と客観的評価指標の両方において既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-06-20T06:34:19Z) - DFVO: Learning Darkness-free Visible and Infrared Image Disentanglement and Fusion All at Once [57.15043822199561]
可視・赤外画像のアンタングル化と融合を同時に行うためのダークネスフリーネットワーク(DFVO)を提案する。
DFVOは、従来の2段階のカスケードトレーニング(エンハンスメントと融合)を置き換えるために、ケースケードマルチタスクアプローチを採用している
提案手法は,定性的および定量的評価の観点から,最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2025-05-07T15:59:45Z) - ControlFusion: A Controllable Image Fusion Framework with Language-Vision Degradation Prompts [82.52042409680267]
現在の画像融合法は、現実の撮像シナリオで発生する複合劣化に対処するのに苦労している。
本稿では,制御フュージョンと呼ばれる言語ビジョンプロンプトを用いた制御可能な画像融合フレームワークを提案する。
実験では、制御フュージョンは、融合品質と劣化処理においてSOTA融合法より優れている。
論文 参考訳(メタデータ) (2025-03-30T08:18:53Z) - DSPFusion: Image Fusion via Degradation and Semantic Dual-Prior Guidance [48.84182709640984]
既存の融合法は高品質な画像に向いているが、厳しい状況下で撮影された劣化画像に苦慮している。
この研究は、textbfDegradation と textbfSemantic textbfPrior による劣化画像 textbfFusion (textbfDSPFusion) のための二重誘導フレームワークを提示する。
論文 参考訳(メタデータ) (2025-03-30T08:18:50Z) - Contourlet Refinement Gate Framework for Thermal Spectrum Distribution Regularized Infrared Image Super-Resolution [54.293362972473595]
画像超解像(SR)は、高解像度(HR)画像を低解像度(LR)画像から再構成することを目的としている。
SRタスクに対処する現在のアプローチは、RGB画像の特徴を抽出するか、同様の劣化パターンを仮定するものである。
スペクトル分布の忠実さを保ちつつ、赤外線変調特性を復元するコントゥーレット改質ゲートフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T14:24:03Z) - Infrared-Assisted Single-Stage Framework for Joint Restoration and Fusion of Visible and Infrared Images under Hazy Conditions [9.415977819944246]
本稿では,赤外線画像を用いた統合学習フレームワークを提案する。
本手法は, ヘイズを除去しながらIR-VIS画像を効果的に融合させ, 鮮明で無害な融合結果をもたらす。
論文 参考訳(メタデータ) (2024-11-16T02:57:12Z) - DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - IAIFNet: An Illumination-Aware Infrared and Visible Image Fusion Network [13.11361803763253]
我々はIAIFNetという名前のイルミネーション対応赤外線・可視画像融合ネットワークを提案する。
本フレームワークでは,まず,入力画像の入射照明マップを推定する。
適応微分融合モジュール (ADFM) と有向目標認識モジュール (STAM) の助けを借りて, 画像融合ネットワークは, 照明付赤外線と可視画像の有向的特徴を高画質の融合画像に効果的に統合する。
論文 参考訳(メタデータ) (2023-09-26T15:12:29Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Infrared and Visible Image Fusion via Interactive Compensatory Attention
Adversarial Learning [7.995162257955025]
本稿では, 融合バランスを改善するために, 生成的対角訓練に基づく新しいエンド・ツー・エンド・モードを提案する。
特にジェネレータでは、トリプルパスを持つマルチレベルエンコーダデコーダネットワークを構築し、赤外線および可視経路を採用し、さらなる強度と情報勾配を提供する。
さらに、二重判別器は、融合した結果とソース画像の類似した分布を特定するように設計されており、生成器はよりバランスの取れた結果を生成するように最適化されている。
論文 参考訳(メタデータ) (2022-03-29T08:28:14Z) - TGFuse: An Infrared and Visible Image Fusion Approach Based on
Transformer and Generative Adversarial Network [15.541268697843037]
本稿では,軽量トランスモジュールと対向学習に基づく赤外可視画像融合アルゴリズムを提案する。
大域的相互作用力にインスパイアされた我々は、トランスフォーマー技術を用いて、効果的な大域的核融合関係を学習する。
実験により提案したモジュールの有効性が実証された。
論文 参考訳(メタデータ) (2022-01-25T07:43:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。