論文の概要: Unsupervised Learning Based Multi-Scale Exposure Fusion
- arxiv url: http://arxiv.org/abs/2409.17830v1
- Date: Thu, 26 Sep 2024 13:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 18:44:57.078787
- Title: Unsupervised Learning Based Multi-Scale Exposure Fusion
- Title(参考訳): 教師なし学習に基づくマルチスケール露光融合
- Authors: Chaobing Zheng, Shiqian Wu, Zhenggguo Li,
- Abstract要約: 教師なし学習に基づくマルチスケール露光融合(ULMEF)は、高ダイナミックレンジシーンのための高画質のLDR画像に異なる露光低ダイナミックレンジ(LDR)画像を融合するのに効率的である。
本稿では,ALMEFに対して新たな損失関数を提案し,同じHDRシーンからのすべての画像と他の異なる露光画像を融合して定義する。
- 参考スコア(独自算出の注目度): 9.152843503286796
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Unsupervised learning based multi-scale exposure fusion (ULMEF) is efficient for fusing differently exposed low dynamic range (LDR) images into a higher quality LDR image for a high dynamic range (HDR) scene. Unlike supervised learning, loss functions play a crucial role in the ULMEF. In this paper, novel loss functions are proposed for the ULMEF and they are defined by using all the images to be fused and other differently exposed images from the same HDR scene. The proposed loss functions can guide the proposed ULMEF to learn more reliable information from the HDR scene than existing loss functions which are defined by only using the set of images to be fused. As such, the quality of the fused image is significantly improved. The proposed ULMEF also adopts a multi-scale strategy that includes a multi-scale attention module to effectively preserve the scene depth and local contrast in the fused image. Meanwhile, the proposed ULMEF can be adopted to achieve exposure interpolation and exposure extrapolation. Extensive experiments show that the proposed ULMEF algorithm outperforms state-of-the-art exposure fusion algorithms.
- Abstract(参考訳): 教師なし学習に基づくマルチスケール露光融合(ULMEF)は、高ダイナミックレンジ(HDR)シーンのために、異なる露光低ダイナミックレンジ(LDR)画像を高品質のLDR画像に融合するのに効率的である。
教師付き学習とは異なり、損失関数はULMEFにおいて重要な役割を果たす。
本稿では,ALMEFに対して新たな損失関数を提案し,同じHDRシーンからのすべての画像と他の異なる露光画像を融合して定義する。
提案した損失関数は、既存の損失関数よりもHDRシーンからより信頼性の高い情報を得るために提案されたULMEFを導出することができる。
これにより、融合画像の品質が大幅に向上する。
提案するULMEFは,マルチスケールアテンションモジュールを含むマルチスケール戦略を採用し,融合画像のシーン深さと局所コントラストを効果的に保存する。
一方、ULMEFは露光補間および露光補間を実現するために用いられる。
広汎な実験により,提案したULMEFアルゴリズムは,最先端の露光融合アルゴリズムよりも優れていた。
関連論文リスト
- Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Single Image LDR to HDR Conversion using Conditional Diffusion [18.466814193413487]
デジタル画像は現実的なシーンを再現することを目的としているが、Low Dynamic Range(LDR)カメラは現実のシーンの広いダイナミックレンジを表現できない。
本稿では,影やハイライトから複雑な詳細を復元するための深層学習に基づくアプローチを提案する。
提案フレームワークにディープベースオートエンコーダを組み込んで,コンディショニングに使用するLDR画像の潜在表現の質を高める。
論文 参考訳(メタデータ) (2023-07-06T07:19:47Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - PAS-MEF: Multi-exposure image fusion based on principal component
analysis, adaptive well-exposedness and saliency map [0.0]
通常の低ダイナミックレンジ(LDR)キャプチャ/表示装置では、大きなダイナミックレンジの自然シーンのため、画像に重要な詳細が保存されない場合がある。
本研究では, 簡便かつ効果的な重み抽出法を用いて, 効率的なマルチ露光融合(MEF)手法を提案する。
既存の手法と実験的に比較した結果,提案手法は非常に強い統計的および視覚的結果が得られた。
論文 参考訳(メタデータ) (2021-05-25T10:22:43Z) - End-to-End Differentiable Learning to HDR Image Synthesis for
Multi-exposure Images [23.895981099137533]
与えられた単一露光からの多重露光スタックに基づく高ダイナミックレンジ()画像再構成は、ディープラーニングフレームワークを用いて高品質なHDR画像を生成する。
我々は, スタック再構成に基づく手法において, 完全に微分可能な高ダイナミックレンジイメージング(I)プロセスを用いた新しいフレームワークを提案する。
言い換えれば、我々の微分可能なHDR合成層は、深層ニューラルネットワークがHDRIプロセスにおけるマルチ露光画像間の正確な相関を反映しながら、マルチ露光スタックを作成する訓練を支援する。
論文 参考訳(メタデータ) (2020-06-29T06:47:07Z) - Extreme Low-Light Imaging with Multi-granulation Cooperative Networks [18.438827277749525]
低照度画像は、信号対雑音比の低さ、複雑な画像内容、および極低照度の撮影シーンの多様性により、暗くノイズのように見えるため、低照度画像は困難である。
極低照度条件下での撮像品質向上のための多くの手法が提案されているが、良好な結果を得ることは困難である。
論文 参考訳(メタデータ) (2020-05-16T14:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。