論文の概要: FusionBooster: A Unified Image Fusion Boosting Paradigm
- arxiv url: http://arxiv.org/abs/2305.05970v1
- Date: Wed, 10 May 2023 08:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 13:59:59.613334
- Title: FusionBooster: A Unified Image Fusion Boosting Paradigm
- Title(参考訳): FusionBooster: 統合された画像融合のパラダイム
- Authors: Chunyang Cheng, Tianyang Xu, Xiao-Jun Wu, Hui Li, Josef Kittler, and
Xi Li
- Abstract要約: FusionBoosterは,本論文で提案した核融合誘導法である。
ブースターは、プローブユニット、ブースター層、組み立てモジュールの3つの構成要素で構成されている。
様々なフュージョンタスクおよび下流検出タスクで得られた実験結果は、提案したFusionBoosterが性能を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 37.87170062109642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous ideas have emerged for designing fusion rules in the image fusion
field. Essentially, all the existing formulations try to manage the diverse
levels of information communicated by the source images to achieve the best
fusion result. We argue that there is a scope for improving the performance of
existing methods further with the help of FusionBooster, a fusion guidance
method proposed in this paper. Our booster is based on the divide and conquer
strategy controlled by an information probe. The booster is composed of three
building blocks: the probe units, the booster layer, and the assembling module.
Given the embedding produced by a backbone method, the probe units assess the
source images and divide them according to their information content. This is
instrumental in identifying missing information, as a step to its recovery. The
recovery of the degraded components along with the fusion guidance are embedded
in the booster layer. Lastly, the assembling module is responsible for piecing
these advanced components together to deliver the output. We use concise
reconstruction loss functions and lightweight models to formulate the network,
with marginal computational increase. The experimental results obtained in
various fusion tasks, as well as downstream detection tasks, consistently
demonstrate that the proposed FusionBooster significantly improves the
performance. Our codes will be publicly available on the project homepage.
- Abstract(参考訳): 画像融合場における融合規則を設計するための多くのアイデアが生まれている。
基本的に、既存の全ての定式化は、ソース画像によって伝達される様々なレベルの情報を管理し、最良の融合結果を達成する。
本稿では,核融合誘導法であるFusionBoosterの助けを借りて,既存の手法の性能を改善するためのスコープが存在することを論じる。
我々のブースターは情報プローブによって制御される分割・征服戦略に基づいている。
ブースターは、プローブユニット、ブースター層、組み立てモジュールの3つのビルディングブロックから構成されている。
バックボーン法による埋め込みを前提として、プローブユニットはソース画像を評価し、それらの情報内容に応じて分割する。
これは、その回復のステップとして、欠落している情報を特定するのに役立ちます。
核融合誘導と共に劣化した部品の回収がブースター層に埋め込まれる。
最後に、組み立てモジュールは、これらの高度なコンポーネントをまとめて出力する責任を負う。
計算量の増加とともに,簡潔な再構成損失関数と軽量モデルを用いてネットワークを定式化する。
各種核融合タスクおよび下流検出タスクで得られた実験結果は,提案する核融合ブースターの性能が著しく向上することを示した。
私たちのコードはプロジェクトのホームページで公開されます。
関連論文リスト
- Fusion Matters: Learning Fusion in Deep Click-through Rate Prediction Models [27.477136474888564]
本稿では,接続学習と操作選択の両方を包含して,融合学習を自動化する手法であるOpsFusionを紹介する。
実験は3つの大規模データセット上で実施される。
論文 参考訳(メタデータ) (2024-11-24T06:21:59Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss
via Meta-Learning [17.91346343984845]
メタラーニングに基づく統合画像融合フレームワークReFusionを導入する。
ReFusionはパラメータ化された損失関数を採用し、特定のシナリオとタスクに応じてトレーニングフレームワークによって動的に調整される。
赤外線可視、医療、マルチフォーカス、マルチ露光画像融合など、様々なタスクに適応することができる。
論文 参考訳(メタデータ) (2023-12-13T07:40:39Z) - DePF: A Novel Fusion Approach based on Decomposition Pooling for
Infrared and Visible Images [7.11574718614606]
分解プール法(デプール法)に基づく新しい融合ネットワークを提案し,これをDePFと呼ぶ。
切り離しに基づくエンコーダは、ソース画像のマルチスケール画像と詳細特徴を同時に抽出するように設計されている。
実験により,提案手法は最先端技術よりも優れた核融合性能を示すことが示された。
論文 参考訳(メタデータ) (2023-05-27T05:47:14Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Bi-level Dynamic Learning for Jointly Multi-modality Image Fusion and
Beyond [50.556961575275345]
補完特性とカスケード二重タスク関連モジュールを融合する画像融合モジュールを構築した。
本研究では, 高速な1次近似により対応する勾配を計算し, 融合学習のための勾配のバランスをとるための動的重み付けアグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-05-11T10:55:34Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - UFA-FUSE: A novel deep supervised and hybrid model for multi-focus image
fusion [4.105749631623888]
伝統的および深層学習に基づく融合法は、一連の後処理手順を通じて中間決定マップを生成する。
深層学習に基づく画像再構成技術に着想を得て,多焦点画像融合ネットワークフレームワークを提案する。
提案手法は,19種類の最先端核融合法と比較して優れた核融合性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-12T14:33:13Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。