論文の概要: Generative Multi-Focus Image Fusion
- arxiv url: http://arxiv.org/abs/2512.21495v1
- Date: Thu, 25 Dec 2025 04:00:01 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:58:57.481852
- Title: Generative Multi-Focus Image Fusion
- Title(参考訳): 生成的多焦点画像融合
- Authors: Xinzhe Xie, Buyu Guo, Bolin Li, Shuangyan He, Yanzhen Gu, Qingyan Jiang, Peiliang Li,
- Abstract要約: GMFFと呼ばれる2つの連続的なステージで動作する生成多焦点画像融合フレームワークを提案する。
第一段階では、決定論的融合はStackMFFシリーズの最新バージョンであるStackMFF V4を用いて実装される。
第2段階、生成回復はIFControlNetによって実現され、潜伏拡散モデルの生成能力を利用する。
- 参考スコア(独自算出の注目度): 1.8570182093040675
- License:
- Abstract: Multi-focus image fusion aims to generate an all-in-focus image from a sequence of partially focused input images. Existing fusion algorithms generally assume that, for every spatial location in the scene, there is at least one input image in which that location is in focus. Furthermore, current fusion models often suffer from edge artifacts caused by uncertain focus estimation or hard-selection operations in complex real-world scenarios. To address these limitations, we propose a generative multi-focus image fusion framework, termed GMFF, which operates in two sequential stages. In the first stage, deterministic fusion is implemented using StackMFF V4, the latest version of the StackMFF series, and integrates the available focal plane information to produce an initial fused image. The second stage, generative restoration, is realized through IFControlNet, which leverages the generative capabilities of latent diffusion models to reconstruct content from missing focal planes, restore fine details, and eliminate edge artifacts. Each stage is independently developed and functions seamlessly in a cascaded manner. Extensive experiments demonstrate that GMFF achieves state-of-the-art fusion performance and exhibits significant potential for practical applications, particularly in scenarios involving complex multi-focal content. The implementation is publicly available at https://github.com/Xinzhe99/StackMFF-Series.
- Abstract(参考訳): マルチフォーカス画像融合は、部分集中した入力画像のシーケンスからオールインフォーカス画像を生成することを目的としている。
既存の融合アルゴリズムは一般的に、シーン内のすべての空間的位置に対して、その位置が焦点を合わせている少なくとも1つの入力画像が存在すると仮定する。
さらに、現在の融合モデルは、複雑な実世界のシナリオにおいて、不確実な焦点推定やハードセレクション操作によって生じるエッジアーティファクトに悩まされることが多い。
これらの制約に対処するために、GMFFと呼ばれる2つの連続的なステージで動作する生成多焦点画像融合フレームワークを提案する。
第一段階では、StackMFFシリーズの最新バージョンであるStackMFF V4を用いて決定論的融合を実装し、利用可能な焦点平面情報を統合して初期融合画像を生成する。
第2段階の生成復元はIFControlNetを通じて実現され、遅延拡散モデルの生成能力を活用して、不足する焦点面からコンテンツを再構成し、詳細を復元し、エッジアーティファクトを除去する。
各ステージは独立して開発され、カスケードされた方法でシームレスに機能する。
大規模な実験により、GMFFは最先端の核融合性能を達成し、特に複雑な多焦点コンテンツを含むシナリオにおいて、実用的な応用に有意義な可能性を示している。
実装はhttps://github.com/Xinzhe99/StackMFF-Seriesで公開されている。
関連論文リスト
- Towards Unified Semantic and Controllable Image Fusion: A Diffusion Transformer Approach [99.80480649258557]
DiTFuseは命令駆動のフレームワークで、単一のモデル内でセマンティクスを意識した融合を実行する。
パブリックなIVIF、MFF、MEFベンチマークの実験では、より優れた量的および質的な性能、よりシャープなテクスチャ、より優れたセマンティック保持が確認されている。
論文 参考訳(メタデータ) (2025-12-08T05:04:54Z) - Gradient-based multi-focus image fusion with focus-aware saliency enhancement [18.335216974790754]
MFIF(Multi-focus Image fusion)は、複数の部分集中インプットから全焦点画像を取得することを目的としている。
本稿では,高品質な融合境界を生成する重要な境界拡張に基づくMFIF法を提案する。
本手法は主観的評価と客観的評価の両面で,12の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-09-26T14:20:44Z) - Conditional Controllable Image Fusion [56.4120974322286]
条件付き制御可能核融合(CCF)フレームワーク。
CCFは、実際には個々の個人に対して特定の核融合の制約を課している。
様々なシナリオにまたがる一般融合タスクにおける有効性を検証する実験。
論文 参考訳(メタデータ) (2024-11-03T13:56:15Z) - Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。