論文の概要: Gradient-based multi-focus image fusion with focus-aware saliency enhancement
- arxiv url: http://arxiv.org/abs/2509.22392v1
- Date: Fri, 26 Sep 2025 14:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.495362
- Title: Gradient-based multi-focus image fusion with focus-aware saliency enhancement
- Title(参考訳): フォーカスアウェア・サリエンシ・エンハンスメントを用いたグラディエントベース多焦点画像融合
- Authors: Haoyu Li, XiaoSong Li,
- Abstract要約: MFIF(Multi-focus Image fusion)は、複数の部分集中インプットから全焦点画像を取得することを目的としている。
本稿では,高品質な融合境界を生成する重要な境界拡張に基づくMFIF法を提案する。
本手法は主観的評価と客観的評価の両面で,12の最先端手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 18.335216974790754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-focus image fusion (MFIF) aims to yield an all-focused image from multiple partially focused inputs, which is crucial in applications cover sur-veillance, microscopy, and computational photography. However, existing methods struggle to preserve sharp focus-defocus boundaries, often resulting in blurred transitions and focused details loss. To solve this problem, we propose a MFIF method based on significant boundary enhancement, which generates high-quality fused boundaries while effectively detecting focus in-formation. Particularly, we propose a gradient-domain-based model that can obtain initial fusion results with complete boundaries and effectively pre-serve the boundary details. Additionally, we introduce Tenengrad gradient detection to extract salient features from both the source images and the ini-tial fused image, generating the corresponding saliency maps. For boundary refinement, we develop a focus metric based on gradient and complementary information, integrating the salient features with the complementary infor-mation across images to emphasize focused regions and produce a high-quality initial decision result. Extensive experiments on four public datasets demonstrate that our method consistently outperforms 12 state-of-the-art methods in both subjective and objective evaluations. We have realized codes in https://github.com/Lihyua/GICI
- Abstract(参考訳): MFIF(Multi-focus Image fusion)は、複数の部分集中インプットから全焦点画像を得ることを目的としており、これはサーベイランス、顕微鏡、計算写真などの応用において重要である。
しかし、既存の手法は鋭いフォーカス・フォーカス・デフォーカスの境界を維持するのに苦労し、しばしばぼやけた遷移と焦点を絞った詳細損失をもたらす。
そこで本研究では,高品質な融合境界を生成するとともに,フォーカスインフォームを効果的に検出するMFIF法を提案する。
特に、完全境界付きの初期融合結果を得ることができ、境界の詳細を効果的に保存できる勾配領域モデルを提案する。
さらに,本研究では,ソース画像とini-tial融合画像の両方から有意な特徴を抽出し,対応する有意な有意性マップを生成するために,テンエングレード勾配検出を導入した。
境界改善のために、勾配と補足情報に基づいて焦点距離を定め、画像間の相補的インフォメーションと相補的インフォメーションを統合し、焦点領域を強調し、高品質な初期決定結果を生成する。
4つの公開データセットに対する大規模な実験により、我々の手法は主観的・客観的評価において12の最先端手法を一貫して上回っていることが示された。
私たちはhttps://github.com/Lihyua/GICIでコードを実現しました。
関連論文リスト
- SGDFuse: SAM-Guided Diffusion for High-Fidelity Infrared and Visible Image Fusion [65.80051636480836]
本稿では,Segment Anything Model(SAM)によって導かれる条件拡散モデルを提案する。
このフレームワークは2段階のプロセスで動作し、まずマルチモーダルな特徴の予備的な融合を行い、その後、拡散モデルの粗大な分極生成を駆動する条件としてセマンティックマスクを利用する。
SGDFuseは主観的評価と客観的評価の両方において最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-08-07T10:58:52Z) - DFVO: Learning Darkness-free Visible and Infrared Image Disentanglement and Fusion All at Once [57.15043822199561]
可視・赤外画像のアンタングル化と融合を同時に行うためのダークネスフリーネットワーク(DFVO)を提案する。
DFVOは、従来の2段階のカスケードトレーニング(エンハンスメントと融合)を置き換えるために、ケースケードマルチタスクアプローチを採用している
提案手法は,定性的および定量的評価の観点から,最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2025-05-07T15:59:45Z) - SAMF: Small-Area-Aware Multi-focus Image Fusion for Object Detection [6.776991635789825]
既存のマルチフォーカス画像融合法(MFIF)は、不確実な遷移領域を保存できないことが多い。
そこで本研究では,オブジェクト検出能力を向上させるためのMFIFアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T13:35:28Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - Multi-Focus Image Fusion based on Gradient Transform [0.0]
上記の問題に対して頑健な新しい勾配情報に基づく多焦点画像融合法を提案する。
提案手法は,視覚的,客観的に17種類の新しい手法と従来手法を比較した。
提案手法は視覚的評価により有望であり, 客観的評価により6つの指標のうち5つのうち83.3%が第一に達成されている。
論文 参考訳(メタデータ) (2022-04-20T20:35:12Z) - Light Field Saliency Detection with Dual Local Graph Learning
andReciprocative Guidance [148.9832328803202]
我々は、グラフネットワークを介して焦点スタック内のインフォメーション融合をモデル化する。
我々は、全焦点パタンを用いて焦点スタック融合過程をガイドする新しいデュアルグラフモデルを構築した。
論文 参考訳(メタデータ) (2021-10-02T00:54:39Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Towards Reducing Severe Defocus Spread Effects for Multi-Focus Image
Fusion via an Optimization Based Strategy [22.29205225281694]
マルチフォーカス画像融合(MFF)はオールインフォーカス画像を生成する一般的な技術である。
本稿では,デフォーカス拡散効果を低減するための最適化手法を提案する。
実世界データセット上で行った実験は,提案モデルの優位性を検証した。
論文 参考訳(メタデータ) (2020-12-29T09:26:41Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。