論文の概要: UltraFusion: Ultra High Dynamic Imaging using Exposure Fusion
- arxiv url: http://arxiv.org/abs/2501.11515v1
- Date: Mon, 20 Jan 2025 14:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:30.758472
- Title: UltraFusion: Ultra High Dynamic Imaging using Exposure Fusion
- Title(参考訳): ウルトラフュージョン:露光融合を用いた超高ダイナミックイメージング
- Authors: Zixuan Chen, Yujin Wang, Xin Cai, Zhiyuan You, Zheming Lu, Fan Zhang, Shi Guo, Tianfan Xue,
- Abstract要約: 入力と9の差分をマージできる最初の露光融合技術であるUltraFusionを提案する。
私たちのモデルは、アライメントの潜在的な問題や照明のバリエーションに対して堅牢です。
提案手法は最新のHDRベンチマークにおいてHDR-Transformerより優れている。
- 参考スコア(独自算出の注目度): 16.915597001287964
- License:
- Abstract: Capturing high dynamic range (HDR) scenes is one of the most important issues in camera design. Majority of cameras use exposure fusion technique, which fuses images captured by different exposure levels, to increase dynamic range. However, this approach can only handle images with limited exposure difference, normally 3-4 stops. When applying to very high dynamic scenes where a large exposure difference is required, this approach often fails due to incorrect alignment or inconsistent lighting between inputs, or tone mapping artifacts. In this work, we propose UltraFusion, the first exposure fusion technique that can merge input with 9 stops differences. The key idea is that we model the exposure fusion as a guided inpainting problem, where the under-exposed image is used as a guidance to fill the missing information of over-exposed highlight in the over-exposed region. Using under-exposed image as a soft guidance, instead of a hard constrain, our model is robust to potential alignment issue or lighting variations. Moreover, utilizing the image prior of the generative model, our model also generates natural tone mapping, even for very high-dynamic range scene. Our approach outperforms HDR-Transformer on latest HDR benchmarks. Moreover, to test its performance in ultra high dynamic range scene, we capture a new real-world exposure fusion benchmark, UltraFusion Dataset, with exposure difference up to 9 stops, and experiments show that \model~can generate beautiful and high-quality fusion results under various scenarios. An online demo is provided at https://openimaginglab.github.io/UltraFusion/.
- Abstract(参考訳): 高ダイナミックレンジ(HDR)シーンのキャプチャは、カメラ設計において最も重要な問題の一つである。
カメラの多くは、異なる露出レベルで撮影された画像を融合する露光融合技術を使用して、ダイナミックレンジを拡大している。
しかし、このアプローチは露出差が制限された画像のみを扱うことができ、通常は3~4停止する。
大きな露光差が要求される非常に高いダイナミックなシーンに適用する場合、この手法は入力間の不整合や不整合性照明、あるいはトーンマッピングアーティファクトによってしばしば失敗する。
本研究では,9つの差分で入力をマージできる最初の露光融合技術であるUltraFusionを提案する。
鍵となる考え方は、露出融合をガイド付き塗装問題としてモデル化し、過剰露光領域における過露光ハイライトの欠落情報を埋めるガイダンスとして、過露光画像を用いることである。
厳密な制約ではなく、露光の少ないイメージをソフトガイダンスとして使用することで、我々のモデルはアライメントの問題や照明のバリエーションに対して堅牢である。
さらに,生成モデルの先行画像を利用して,超高ダイナミックレンジシーンにおいても自然なトーンマッピングを生成する。
提案手法は最新のHDRベンチマークにおいてHDR-Transformerより優れている。
さらに、超高ダイナミックレンジシーンでの性能をテストするために、新しい実世界の露出融合ベンチマークであるウルトラフュージョン・データセット(UltraFusion Dataset)を9ストップまでの露光差で取得し、様々なシナリオ下でモデル~が美しく高品質な融合結果を生成することを示す実験を行った。
オンラインデモはhttps://openimaginglab.github.io/UltraFusion/.comで公開されている。
関連論文リスト
- ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Online Overexposed Pixels Hallucination in Videos with Adaptive
Reference Frame Selection [90.35085487641773]
低ダイナミックレンジ(LDR)カメラは広いダイナミックレンジ入力に対応できず、しばしば局所的な露出問題を引き起こす。
複雑な処理機構を使わずにこれらの成果物を削減できる学習ベースシステムを提案する。
論文 参考訳(メタデータ) (2023-08-29T17:40:57Z) - HDR Imaging with Spatially Varying Signal-to-Noise Ratios [15.525314212209564]
低照度HDRイメージングでは、1つの露光におけるノイズは空間的に変化する。
既存の画像復号化アルゴリズムとHDR融合アルゴリズムはどちらもこの状況に対処できない。
本研究では,空間変化高ダイナミックレンジ(SV-)融合ネットワークと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-30T09:32:29Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - Multi-Exposure HDR Composition by Gated Swin Transformer [8.619880437958525]
本稿では,Swin Transformerに基づく新しいマルチ露光融合モデルを提案する。
露光空間ピラミッドにおける遠距離文脈依存性を自己認識機構により活用する。
実験により,本モデルが現在のマルチ露光HDR画像モデルと同等の精度が得られることが示された。
論文 参考訳(メタデータ) (2023-03-15T15:38:43Z) - Perceptual Multi-Exposure Fusion [0.5076419064097732]
本稿では,細かなシャドウ/ハイライトの詳細を確実にするが,詳細化法よりも複雑さが低い知覚的マルチ露光融合法を提案する。
167個の画像シーケンスを含む静的シーンに適した大規模マルチ露光ベンチマークデータセットを構築した。
構築したデータセットの実験では,提案手法が既存の8つの最先端手法を視覚的およびMEF-SSIM値で上回ることを示した。
論文 参考訳(メタデータ) (2022-10-18T05:34:58Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Variational Approach for Intensity Domain Multi-exposure Image Fusion [11.678822620192435]
本稿では,従来の表示装置に直接表示可能な融合画像を生成する方法を提案する。
その野望は、照度が悪く、明るく照らされた地域で詳細を保存することである。
論文 参考訳(メタデータ) (2022-07-09T06:31:34Z) - Deep Exposure Fusion with Deghosting via Homography Estimation and
Attention Learning [29.036754445277314]
ゴースト加工品とカメラの動きや移動物体による細部損失に対処する深層核融合ネットワークを提案する。
携帯端末を用いた実世界の写真実験により,暗黒領域と明るい領域の鮮明な色調を忠実に再現し,高品質な画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-04-20T07:00:14Z) - Learning Multi-Scale Photo Exposure Correction [51.57836446833474]
露出を間違えた写真を撮影することは、カメラベースの画像の誤りの主な原因である。
本稿では,各サブプロブレムに個別に対処する粗大な深層ニューラルネットワーク(DNN)モデルを提案する。
提案手法は,未露出画像における既存の最先端手法と同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-25T19:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。