論文の概要: Dynamic Novel View Synthesis in High Dynamic Range
- arxiv url: http://arxiv.org/abs/2509.21853v1
- Date: Fri, 26 Sep 2025 04:29:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.175186
- Title: Dynamic Novel View Synthesis in High Dynamic Range
- Title(参考訳): 高ダイナミックレンジにおける動的新規ビュー合成
- Authors: Kaixuan Zhang, Zhipeng Xiong, Minxian Li, Mingwu Ren, Jiankang Deng, Xiatian Zhu,
- Abstract要約: 現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
HDR-4DGSは,革新的な動的トーンマッピングモジュールを備えたガウススプラッティング方式のアーキテクチャである。
実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
- 参考スコア(独自算出の注目度): 78.72910306733607
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High Dynamic Range Novel View Synthesis (HDR NVS) seeks to learn an HDR 3D model from Low Dynamic Range (LDR) training images captured under conventional imaging conditions. Current methods primarily focus on static scenes, implicitly assuming all scene elements remain stationary and non-living. However, real-world scenarios frequently feature dynamic elements, such as moving objects, varying lighting conditions, and other temporal events, thereby presenting a significantly more challenging scenario. To address this gap, we propose a more realistic problem named HDR Dynamic Novel View Synthesis (HDR DNVS), where the additional dimension ``Dynamic'' emphasizes the necessity of jointly modeling temporal radiance variations alongside sophisticated 3D translation between LDR and HDR. To tackle this complex, intertwined challenge, we introduce HDR-4DGS, a Gaussian Splatting-based architecture featured with an innovative dynamic tone-mapping module that explicitly connects HDR and LDR domains, maintaining temporal radiance coherence by dynamically adapting tone-mapping functions according to the evolving radiance distributions across the temporal dimension. As a result, HDR-4DGS achieves both temporal radiance consistency and spatially accurate color translation, enabling photorealistic HDR renderings from arbitrary viewpoints and time instances. Extensive experiments demonstrate that HDR-4DGS surpasses existing state-of-the-art methods in both quantitative performance and visual fidelity. Source code will be released.
- Abstract(参考訳): 高ダイナミックレンジノベルビュー合成(HDR NVS)は、従来の撮像条件下で撮影された低ダイナミックレンジ(LDR)訓練画像からHDR 3Dモデルを学習することを目指している。
現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
しかし、現実のシナリオは、移動物体、様々な照明条件、その他の時間的事象などの動的要素をしばしば特徴付けるため、より困難なシナリオが提示される。
このギャップに対処するため,より現実的なHDR Dynamic Novel View Synthesis (HDR DNVS) を提案する。
そこで我々は,HDRとLDRドメインを明示的に接続する革新的動的トーンマッピングモジュールを特徴とするガウス・スティングベースアーキテクチャであるHDR-4DGSを導入し,時間次元の進化するラディアンス分布に応じて,トーンマッピング関数を動的に適応させることにより,時間的ラディアンスコヒーレンスを維持する。
その結果、HDR-4DGSは時間的輝度の整合性と空間的精度の両面での色変換を実現し、任意の視点と時間インスタンスからフォトリアリスティックなHDRレンダリングを可能にする。
大規模な実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
ソースコードはリリースされます。
関連論文リスト
- Event-assisted 12-stop HDR Imaging of Dynamic Scene [20.064191181938533]
本稿では,イベントカメラとRGBカメラを備えたデュアルカメラシステムを利用して,ダイナミックシーンのための新しい12ストップHDRイメージング手法を提案する。
イベントカメラは、時間的に密度が高く、ダイナミックレンジの信号を提供し、LDRフレーム間のアライメントを大きな露出差で改善し、動きによって引き起こされるゴーストアーティファクトを減らす。
本手法は,動的シーンにおけるHDRイメージングを12停止まで拡張し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T10:17:50Z) - LEDiff: Latent Exposure Diffusion for HDR Generation [11.669442066168244]
LEDiffは、遅延空間露光融合技術により、HDRコンテンツを生成する生成モデルを実現する方法である。
また、LDR-to-fusionコンバータとしても機能し、既存の低ダイナミックレンジ画像のダイナミックレンジを拡張する。
論文 参考訳(メタデータ) (2024-12-19T02:15:55Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。