論文の概要: Reversible Efficient Diffusion for Image Fusion
- arxiv url: http://arxiv.org/abs/2601.20260v1
- Date: Wed, 28 Jan 2026 05:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.778935
- Title: Reversible Efficient Diffusion for Image Fusion
- Title(参考訳): 画像融合における可逆的拡散
- Authors: Xingxin Xu, Bing Cao, DongDong Li, Qinghua Hu, Pengfei Zhu,
- Abstract要約: マルチモーダル画像融合は、様々なソース画像からの補完情報を統一表現に統合することを目的としている。
拡散モデルは画像生成において顕著な生成能力を示してきたが、画像融合タスクに適用した場合、しばしば細かな損失に悩まされる。
この問題はマルコフ過程に固有のノイズ誤差の蓄積から発生し、融合した結果の不整合と劣化をもたらす。
本稿では,分散推定を回避しつつ,拡散モデルの強力な生成能力を継承する,明示的な教師付きトレーニングフレームワークであるReversible Efficient Diffusion(RED)モデルを提案する。
- 参考スコア(独自算出の注目度): 66.35113261837469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal image fusion aims to consolidate complementary information from diverse source images into a unified representation. The fused image is expected to preserve fine details and maintain high visual fidelity. While diffusion models have demonstrated impressive generative capabilities in image generation, they often suffer from detail loss when applied to image fusion tasks. This issue arises from the accumulation of noise errors inherent in the Markov process, leading to inconsistency and degradation in the fused results. However, incorporating explicit supervision into end-to-end training of diffusion-based image fusion introduces challenges related to computational efficiency. To address these limitations, we propose the Reversible Efficient Diffusion (RED) model - an explicitly supervised training framework that inherits the powerful generative capability of diffusion models while avoiding the distribution estimation.
- Abstract(参考訳): マルチモーダル画像融合は、様々なソース画像からの補完情報を統一表現に統合することを目的としている。
融合した画像は細部を保存し、高い視力を維持することが期待されている。
拡散モデルは画像生成において顕著な生成能力を示してきたが、画像融合タスクに適用した場合、しばしば細かな損失に悩まされる。
この問題はマルコフ過程に固有のノイズ誤差の蓄積から発生し、融合した結果の不整合と劣化をもたらす。
しかし、拡散に基づく画像融合のエンドツーエンドトレーニングに明示的な監督を取り入れることで、計算効率に関する課題がもたらされる。
これらの制約に対処するため、分散推定を回避しつつ拡散モデルの強力な生成能力を継承する明示的な教師付きトレーニングフレームワークであるReversible Efficient Diffusion(RED)モデルを提案する。
関連論文リスト
- Efficient Rectified Flow for Image Fusion [48.330480065862474]
本稿では,画像融合のための1ステップの効率的な拡散モデルであるRFfusionを提案する。
また,画像融合に適したタスク固有の変分オートエンコーダアーキテクチャを提案する。
提案手法は,推算速度と融合品質の両方の観点から,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-20T06:21:00Z) - FaithDiff: Unleashing Diffusion Priors for Faithful Image Super-resolution [48.88184541515326]
本稿では,忠実な画像SRのための遅延拡散モデル(LDM)のパワーをフル活用するために,FithDiffというシンプルで効果的な手法を提案する。
高品質画像上で事前学習した拡散モデルを凍結する既存の拡散ベースSR法とは対照的に,有用な情報を特定し,忠実な構造を復元する前に拡散を解き放つことを提案する。
論文 参考訳(メタデータ) (2024-11-27T23:58:03Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - DDRF: Denoising Diffusion Model for Remote Sensing Image Fusion [7.06521373423708]
生成モデルとしてのデノシング拡散モデルは、画像生成の分野で多くの注目を集めている。
画像融合フィールドへの拡散モデルを導入し、画像融合タスクを画像から画像への変換として扱う。
本手法は,画像融合タスクに拡散モデルを適用するために,他の作業に刺激を与え,この分野の洞察を得ることができる。
論文 参考訳(メタデータ) (2023-04-10T12:28:27Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。