論文の概要: Quaternion Multi-focus Color Image Fusion
- arxiv url: http://arxiv.org/abs/2505.02365v1
- Date: Mon, 05 May 2025 05:08:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.563619
- Title: Quaternion Multi-focus Color Image Fusion
- Title(参考訳): 四元系多焦点カラー画像融合
- Authors: Weihua Yang, Yicong Zhou,
- Abstract要約: 多焦点カラー画像融合とは、複数の部分焦点カラー画像を統合することで、単一のオールインフォーカスカラー画像を作成することである。
既存の手法は、色情報や複雑なテクスチャを扱うのに制限があるため、複雑な現実のシナリオに苦しむ。
本稿では,四元系領域における高品質なカラー画像融合を実現するために,四元系多焦点カラー画像融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.47237002133678
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-focus color image fusion refers to integrating multiple partially focused color images to create a single all-in-focus color image. However, existing methods struggle with complex real-world scenarios due to limitations in handling color information and intricate textures. To address these challenges, this paper proposes a quaternion multi-focus color image fusion framework to perform high-quality color image fusion completely in the quaternion domain. This framework introduces 1) a quaternion sparse decomposition model to jointly learn fine-scale image details and structure information of color images in an iterative fashion for high-precision focus detection, 2) a quaternion base-detail fusion strategy to individually fuse base-scale and detail-scale results across multiple color images for preserving structure and detail information, and 3) a quaternion structural similarity refinement strategy to adaptively select optimal patches from initial fusion results and obtain the final fused result for preserving fine details and ensuring spatially consistent outputs. Extensive experiments demonstrate that the proposed framework outperforms state-of-the-art methods.
- Abstract(参考訳): 多焦点カラー画像融合とは、複数の部分焦点カラー画像を統合することで、単一のオールインフォーカスカラー画像を作成することである。
しかし、既存の手法は、色情報や複雑なテクスチャを扱うのに制限があるため、複雑な現実のシナリオに苦しむ。
これらの課題に対処するため,四元系領域において高品質なカラー画像融合を実現するための四元系多焦点カラー画像融合フレームワークを提案する。
このフレームワークが紹介する
1 高精度焦点検出のための反復的な方法で、微細な画像の詳細とカラー画像の構造情報を共同で学習する四元分離分解モデル。
2 構造及び詳細情報を保存するため、複数のカラー画像に対してベーススケール及び詳細スケールの結果を個別に融合する四元数ベース詳細融合戦略
3)初期核融合結果から最適パッチを適応的に選択し,詳細を保存し,空間的に一貫した出力を確保するための最終融合結果を得る四元構造類似性改善戦略。
大規模な実験により、提案したフレームワークは最先端の手法より優れていることが示された。
関連論文リスト
- Little Strokes Fell Great Oaks: Boosting the Hierarchical Features for Multi-exposure Image Fusion [18.53770637220984]
本研究では,ソース画像に埋め込まれた潜伏情報を完全に活用するためのガンマ補正モジュールを提案する。
複雑な詳細を保存しつつ、彩度を増大させる新しい色強調アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-09T05:44:00Z) - Generation and Recombination for Multifocus Image Fusion with Free
Number of Inputs [17.32596568119519]
マルチフォーカス画像融合は光学レンズの限界を克服する有効な方法である。
従来の手法では、2つのソース画像の焦点領域は相補的であり、複数の画像の同時融合が不可能である。
GRFusionでは、各ソースイメージのフォーカス特性検出を独立して実装でき、複数のソースイメージを同時に統合することができる。
論文 参考訳(メタデータ) (2023-09-09T01:47:56Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Equivariant Multi-Modality Image Fusion [124.11300001864579]
エンドツーエンドの自己教師型学習のための同変多モードImAge融合パラダイムを提案する。
我々のアプローチは、自然画像応答が特定の変換に等しくなるという以前の知識に根ざしている。
実験により、EMMAは赤外線可視画像と医用画像に高品質な融合結果をもたらすことが確認された。
論文 参考訳(メタデータ) (2023-05-19T05:50:24Z) - Multi-modal Gated Mixture of Local-to-Global Experts for Dynamic Image
Fusion [59.19469551774703]
赤外線と可視画像の融合は,複数の情報源からの包括的情報を統合して,様々な作業において優れた性能を実現することを目的としている。
局所-言語の専門家によるマルチモーダルゲート混合を用いた動的画像融合フレームワークを提案する。
本モデルは,Mixture of Local Experts (MoLE) とMixture of Global Experts (MoGE) から構成される。
論文 参考訳(メタデータ) (2023-02-02T20:06:58Z) - Multispectral image fusion by super pixel statistics [1.4685355149711299]
近赤外(NIR)融合における可視色RGBの課題に対処する。
RGB画像はシーンの色を捉え、NIRはヘイズや雲の向こうの細部を捉えます。
提案手法は各スペクトルの双方の利点を含む融合を生成するために設計されている。
論文 参考訳(メタデータ) (2021-12-21T16:19:10Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - End-to-End Learning for Simultaneously Generating Decision Map and
Multi-Focus Image Fusion Result [7.564462759345851]
多焦点画像融合の目的は、異なる画像の集中領域を集め、ユニークな全焦点融合画像を生成することである。
既存のディープラーニング構造のほとんどは、融合品質とエンドツーエンドの実装の利便性のバランスが取れなかった。
本稿では,決定マップと融合した結果をエンドツーエンドのトレーニング手順で同時に生成するカスケードネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-17T09:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。