論文の概要: FusionBooster: A Unified Image Fusion Boosting Paradigm
- arxiv url: http://arxiv.org/abs/2305.05970v3
- Date: Thu, 8 Feb 2024 11:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 19:48:14.442025
- Title: FusionBooster: A Unified Image Fusion Boosting Paradigm
- Title(参考訳): FusionBooster: 統合された画像融合のパラダイム
- Authors: Chunyang Cheng, Tianyang Xu, Xiao-Jun Wu, Hui Li, Xi Li, and Josef
Kittler
- Abstract要約: 融合タスク用に特別に設計されたモデルであるFusionBoosterを提示する。
ブースターは、プローブユニット、ブースター層、組み立てモジュールの3つの構成要素で構成されている。
様々なフュージョンタスクおよび下流検出タスクで得られた実験結果は、提案したFusionBoosterが性能を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 38.16436055140091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, numerous ideas have emerged for designing a mutually
reinforcing mechanism or extra stages for the image fusion task, ignoring the
inevitable gaps between different vision tasks and the computational burden. We
argue that there is a scope to improve the fusion performance with the help of
the FusionBooster, a model specifically designed for the fusion task. In
particular, our booster is based on the divide-and-conquer strategy controlled
by an information probe. The booster is composed of three building blocks: the
probe units, the booster layer, and the assembling module. Given the result
produced by a backbone method, the probe units assess the fused image and
divide the results according to their information content. This is instrumental
in identifying missing information, as a step to its recovery. The recovery of
the degraded components along with the fusion guidance are the role of the
booster layer. Lastly, the assembling module is responsible for piecing these
advanced components together to deliver the output. We use concise
reconstruction loss functions in conjunction with lightweight autoencoder
models to formulate the learning task, with marginal computational complexity
increase. The experimental results obtained in various fusion tasks, as well as
downstream detection tasks, consistently demonstrate that the proposed
FusionBooster significantly improves the performance. Our code will be publicly
available at https://github.com/AWCXV/FusionBooster.
- Abstract(参考訳): 近年、画像融合タスクの相互強化機構や余分な段階を設計し、異なる視覚タスクと計算負荷の間の必然的なギャップを無視して、多くのアイデアが生まれている。
我々は、核融合タスク用に特別に設計されたモデルであるFusionBoosterの助けを借りて、核融合性能を改善するためのスコープがあることを論じる。
特に,このブースターは情報プローブによって制御される配当戦略に基づいている。
ブースターは、プローブユニット、ブースター層、組み立てモジュールの3つのビルディングブロックから構成されている。
バックボーン法により生成された結果から、プローブユニットは融合画像を評価し、その情報内容に応じて結果を分割する。
これは、その回復のステップとして、欠落している情報を特定するのに役立ちます。
核融合誘導に伴う劣化成分の回収はブースター層の役割である。
最後に、組み立てモジュールは、これらの高度なコンポーネントをまとめて出力する責任を負う。
軽量オートエンコーダモデルと共に簡潔な再構成損失関数を用いて学習タスクを定式化し,計算複雑性を増大させる。
各種核融合タスクおよび下流検出タスクで得られた実験結果は,提案する核融合ブースターの性能が著しく向上することを示した。
私たちのコードはhttps://github.com/AWCXV/FusionBooster.comで公開されます。
関連論文リスト
- Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss
via Meta-Learning [17.91346343984845]
メタラーニングに基づく統合画像融合フレームワークReFusionを導入する。
ReFusionはパラメータ化された損失関数を採用し、特定のシナリオとタスクに応じてトレーニングフレームワークによって動的に調整される。
赤外線可視、医療、マルチフォーカス、マルチ露光画像融合など、様々なタスクに適応することができる。
論文 参考訳(メタデータ) (2023-12-13T07:40:39Z) - DePF: A Novel Fusion Approach based on Decomposition Pooling for
Infrared and Visible Images [7.11574718614606]
分解プール法(デプール法)に基づく新しい融合ネットワークを提案し,これをDePFと呼ぶ。
切り離しに基づくエンコーダは、ソース画像のマルチスケール画像と詳細特徴を同時に抽出するように設計されている。
実験により,提案手法は最先端技術よりも優れた核融合性能を示すことが示された。
論文 参考訳(メタデータ) (2023-05-27T05:47:14Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Bi-level Dynamic Learning for Jointly Multi-modality Image Fusion and
Beyond [50.556961575275345]
補完特性とカスケード二重タスク関連モジュールを融合する画像融合モジュールを構築した。
本研究では, 高速な1次近似により対応する勾配を計算し, 融合学習のための勾配のバランスをとるための動的重み付けアグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-05-11T10:55:34Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。