論文の概要: EMEF: Ensemble Multi-Exposure Image Fusion
- arxiv url: http://arxiv.org/abs/2305.12734v1
- Date: Mon, 22 May 2023 05:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:07:19.679727
- Title: EMEF: Ensemble Multi-Exposure Image Fusion
- Title(参考訳): EMEF:マルチ露光画像融合
- Authors: Renshuai Liu, Chengyang Li, Haitao Cao, Yinglin Zheng, Ming Zeng, Xuan
Cheng
- Abstract要約: マルチ露光画像融合(MEF)研究は, 実地真実の欠如, 客観的評価関数, 堅牢な融合戦略の欠如により, いまだに限定されている。
提案手法は,従来の学習法と深層学習法の両方を含む,複数の不完全なMEFコントリビュータの知恵を利用する。
実験では,最新のMEFベンチマークデータセットを用いて,4つの最先端MEF手法からEMEFを構築し,個人や他の競合手法との比較を行った。
- 参考スコア(独自算出の注目度): 3.368019589982501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although remarkable progress has been made in recent years, current
multi-exposure image fusion (MEF) research is still bounded by the lack of real
ground truth, objective evaluation function, and robust fusion strategy. In
this paper, we study the MEF problem from a new perspective. We don't utilize
any synthesized ground truth, design any loss function, or develop any fusion
strategy. Our proposed method EMEF takes advantage of the wisdom of multiple
imperfect MEF contributors including both conventional and deep learning-based
methods. Specifically, EMEF consists of two main stages: pre-train an imitator
network and tune the imitator in the runtime. In the first stage, we make a
unified network imitate different MEF targets in a style modulation way. In the
second stage, we tune the imitator network by optimizing the style code, in
order to find an optimal fusion result for each input pair. In the experiment,
we construct EMEF from four state-of-the-art MEF methods and then make
comparisons with the individuals and several other competitive methods on the
latest released MEF benchmark dataset. The promising experimental results
demonstrate that our ensemble framework can "get the best of all worlds". The
code is available at https://github.com/medalwill/EMEF.
- Abstract(参考訳): 近年は目覚ましい進歩を遂げているが、近年のマルチ露光画像融合(MEF)研究は、実地真実の欠如、客観的評価機能、堅牢な融合戦略に縛られている。
本稿では,新しい視点からMEF問題を考察する。
我々は、合成された真実を利用せず、損失関数を設計も、融合戦略も開発もしていない。
提案手法は,従来の学習法と深層学習法の両方を含む複数の不完全なMEFコントリビュータの知恵を利用する。
具体的には、emefはイミテータネットワークを事前トレーニングし、実行時にイミテータをチューニングする2つの主要なステージで構成されている。
第1段階では、異なるmefターゲットを模倣した統一ネットワークをスタイル変調方式で構築する。
第2段階では、各入力ペアに対して最適な融合結果を求めるために、スタイルコードを最適化して模倣者ネットワークをチューニングする。
実験では,最新のMEFベンチマークデータセットを用いて,4つの最先端MEF手法からEMEFを構築し,個人や他の競合手法との比較を行った。
有望な実験結果は、我々のアンサンブルフレームワークが"すべての世界のベストを得られる"ことを示している。
コードはhttps://github.com/medalwill/EMEFで公開されている。
関連論文リスト
- Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - An Intermediate Fusion ViT Enables Efficient Text-Image Alignment in Diffusion Models [18.184158874126545]
異なる融合戦略が視覚言語アライメントにどのように影響するかを検討する。
特別に設計された中間融合により、テキストと画像のアライメントが向上し、生成品質が向上する。
このモデルでは, FLOPを20%削減し, トレーニング速度を50%向上させるとともに, より高いCLIPスコアと低いFIDを実現する。
論文 参考訳(メタデータ) (2024-03-25T08:16:06Z) - E2E-MFD: Towards End-to-End Synchronous Multimodal Fusion Detection [21.185032466325737]
マルチモーダル核融合検出のための新しいエンドツーエンドアルゴリズムであるE2E-MFDを紹介する。
E2E-MFDはプロセスの合理化を図り、単一のトレーニングフェーズで高いパフォーマンスを達成する。
複数の公開データセットに対する広範なテストは、E2E-MFDの優れた機能を明らかにします。
論文 参考訳(メタデータ) (2024-03-14T12:12:17Z) - Joint-Individual Fusion Structure with Fusion Attention Module for
Multi-Modal Skin Cancer Classification [10.959827268372422]
皮膚がん分類のための皮膚画像と患者メタデータを組み合わせた新しい融合法を提案する。
まず,多モードデータの共有特徴を学習する統合個別融合(JIF)構造を提案する。
第2に、最も関連性の高い画像とメタデータ機能を強化する統合アテンション(FA)モジュールを導入する。
論文 参考訳(メタデータ) (2023-12-07T10:16:21Z) - Equivariant Multi-Modality Image Fusion [124.11300001864579]
エンドツーエンドの自己教師型学習のための同変多モードImAge融合パラダイムを提案する。
我々のアプローチは、自然画像応答が特定の変換に等しくなるという以前の知識に根ざしている。
実験により、EMMAは赤外線可視画像と医用画像に高品質な融合結果をもたらすことが確認された。
論文 参考訳(メタデータ) (2023-05-19T05:50:24Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Light Field Saliency Detection with Dual Local Graph Learning
andReciprocative Guidance [148.9832328803202]
我々は、グラフネットワークを介して焦点スタック内のインフォメーション融合をモデル化する。
我々は、全焦点パタンを用いて焦点スタック融合過程をガイドする新しいデュアルグラフモデルを構築した。
論文 参考訳(メタデータ) (2021-10-02T00:54:39Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - WaveFuse: A Unified Deep Framework for Image Fusion with Discrete
Wavelet Transform [8.164433158925593]
従来の画像融合法とディープラーニングを組み合わせるのはこれが初めてである。
提案アルゴリズムは,主観的評価と客観的評価の両方において,より良い融合性能を示す。
論文 参考訳(メタデータ) (2020-07-28T10:30:47Z) - VMLoc: Variational Fusion For Learning-Based Multimodal Camera
Localization [46.607930208613574]
本稿では,センサの入力を共通の潜在空間に融合させる,VMLocと呼ばれるエンドツーエンドフレームワークを提案する。
バニラ変分オートエンコーダの目的関数を直接適用する従来のマルチモーダル変分法とは異なり、カメラのローカライゼーションを正確に推定する方法を示す。
論文 参考訳(メタデータ) (2020-03-12T14:52:10Z) - FedDANE: A Federated Newton-Type Method [49.9423212899788]
フェデレートラーニングは、大規模分散データセット上で低統計モデルを共同で学習することを目的としている。
我々は、フェデレーション学習を扱うために、DANEから適応する最適化であるFedDANEを提案する。
論文 参考訳(メタデータ) (2020-01-07T07:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。