論文の概要: Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos
- arxiv url: http://arxiv.org/abs/2510.18489v1
- Date: Tue, 21 Oct 2025 10:14:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.426017
- Title: Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos
- Title(参考訳): Mono4DGS-HDR:交互露光単眼ビデオからの高ダイナミックレンジ4Dガウス散乱
- Authors: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu,
- Abstract要約: 被曝を交互に捉えたモノクロ低ダイナミックレンジ(LDR)ビデオから、レンダリング可能な4Dハイダイナミックレンジ(LDR)シーンを再構成する最初のシステムであるMono4DGS-を紹介する。
ガウススプラッティングに基づく2段階最適化手法を用いた統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.314015827959151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR) videos captured with alternating exposures. To tackle such a challenging problem, we present a unified framework with two-stage optimization approach based on Gaussian Splatting. The first stage learns a video HDR Gaussian representation in orthographic camera coordinate space, eliminating the need for camera poses and enabling robust initial HDR video reconstruction. The second stage transforms video Gaussians into world space and jointly refines the world Gaussians with camera poses. Furthermore, we propose a temporal luminance regularization strategy to enhance the temporal consistency of the HDR appearance. Since our task has not been studied before, we construct a new evaluation benchmark using publicly available datasets for HDR video reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR significantly outperforms alternative solutions adapted from state-of-the-art methods in both rendering quality and speed.
- Abstract(参考訳): 本報告では,レンダリング可能な4Dハイダイナミックレンジ(HDR)シーンをモノクロ低ダイナミックレンジ(LDR)ビデオから再構成する最初のシステムであるMono4DGS-HDRを紹介する。
このような課題に対処するため,ガウススプラッティングに基づく2段階最適化手法を用いた統一フレームワークを提案する。
第1段では、ホログラフィックカメラ座標空間におけるビデオHDRガウス表現を学習し、カメラポーズの必要性を排除し、堅牢な初期HDRビデオ再構成を可能にする。
第2ステージはガウシアンを世界空間に転換し、ガウシアンをカメラのポーズで世界を洗練させる。
さらに,HDR外観の時間的一貫性を高めるため,時間輝度正則化戦略を提案する。
本研究はこれまでに行われていないため,HDRビデオ再構成のための公開データセットを用いた新しい評価ベンチマークを構築した。
大規模な実験により、Mono4DGS-HDRはレンダリング品質と速度の両方において最先端の手法に適応した代替ソリューションよりも大幅に優れていることが示された。
関連論文リスト
- Dynamic Novel View Synthesis in High Dynamic Range [78.72910306733607]
現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
HDR-4DGSは,革新的な動的トーンマッピングモジュールを備えたガウススプラッティング方式のアーキテクチャである。
実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
論文 参考訳(メタデータ) (2025-09-26T04:29:22Z) - Event-assisted 12-stop HDR Imaging of Dynamic Scene [20.064191181938533]
本稿では,イベントカメラとRGBカメラを備えたデュアルカメラシステムを利用して,ダイナミックシーンのための新しい12ストップHDRイメージング手法を提案する。
イベントカメラは、時間的に密度が高く、ダイナミックレンジの信号を提供し、LDRフレーム間のアライメントを大きな露出差で改善し、動きによって引き起こされるゴーストアーティファクトを減らす。
本手法は,動的シーンにおけるHDRイメージングを12停止まで拡張し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T10:17:50Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Towards Real-World HDR Video Reconstruction: A Large-Scale Benchmark Dataset and A Two-Stage Alignment Network [16.39592423564326]
既存の手法は主に合成データセットに基づいて訓練されており、実際のシーンでは性能が良くない。
HDRビデオ再構成のための大規模実世界のベンチマークデータセットであるReal-Vを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:29:26Z) - HDR Video Reconstruction: A Coarse-to-fine Network and A Real-world
Benchmark Dataset [30.249052175655606]
HDRビデオ再構築のための粗い深層学習フレームワークを紹介します。
まず,画像空間において粗いアライメントとピクセルブレンドを行い,粗いhdr映像を推定する。
第二に、粗いHDRビデオの特徴空間でより洗練されたアライメントと時間融合を行い、より良い再構築を実現します。
論文 参考訳(メタデータ) (2021-03-27T16:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。