論文の概要: HDR-NSFF: High Dynamic Range Neural Scene Flow Fields
- arxiv url: http://arxiv.org/abs/2603.08313v1
- Date: Mon, 09 Mar 2026 12:36:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.986042
- Title: HDR-NSFF: High Dynamic Range Neural Scene Flow Fields
- Title(参考訳): HDR-NSFF:高ダイナミックレンジニューラルシーン流れ場
- Authors: Shin Dong-Yeon, Kim Jun-Seong, Kwon Byung-Ki, Tae-Hyun Oh,
- Abstract要約: HDR-NSFFは2次元の融合から4次元の時間モデルへのパラダイムシフトである。
実験により、HDR-NSFFは、挑戦的な露光変動の下でも詳細な放射コヒーレントダイナミクスを回復することが示された。
動的HDRシーンに特化して設計された,世界初の実世界のHDR-GoProデータセットを提示する。
- 参考スコア(独自算出の注目度): 25.023351117641358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiance of real-world scenes typically spans a much wider dynamic range than what standard cameras can capture. While conventional HDR methods merge alternating-exposure frames, these approaches are inherently constrained to 2D pixel-level alignment, often leading to ghosting artifacts and temporal inconsistency in dynamic scenes. To address these limitations, we present HDR-NSFF, a paradigm shift from 2D-based merging to 4D spatio-temporal modeling. Our framework reconstructs dynamic HDR radiance fields from alternating-exposure monocular videos by representing the scene as a continuous function of space and time, and is compatible with both neural radiance field and 4D Gaussian Splatting (4DGS) based dynamic representations. This unified end-to-end pipeline explicitly models HDR radiance, 3D scene flow, geometry, and tone-mapping, ensuring physical plausibility and global coherence. We further enhance robustness by (i) extending semantic-based optical flow with DINO features to achieve exposure-invariant motion estimation, and (ii) incorporating a generative prior as a regularizer to compensate for limited observation in monocular captures and saturation-induced information loss. To evaluate HDR space-time view synthesis, we present the first real-world HDR-GoPro dataset specifically designed for dynamic HDR scenes. Experiments demonstrate that HDR-NSFF recovers fine radiance details and coherent dynamics even under challenging exposure variations, thereby achieving state-of-the-art performance in novel space-time view synthesis. Project page: https://shin-dong-yeon.github.io/HDR-NSFF/
- Abstract(参考訳): 現実のシーンのラディアンスは通常、標準的なカメラが捉えるものよりもはるかに広いダイナミックレンジに広がっています。
従来のHDR手法は、交互露光フレームをマージするが、これらの手法は本質的に2次元ピクセルレベルのアライメントに制約され、しばしばゴーストアーティファクトや動的シーンにおける時間的不整合をもたらす。
これらの制約に対処するため、HDR-NSFFは、2Dベースマージから4D時空間モデリングへのパラダイムシフトである。
本フレームワークは,時間と空間の連続的な関数としてシーンを表現し,時間と空間を交互に露光するモノクロビデオから動的HDR放射場を再構成する。
この統合エンドツーエンドパイプラインは、HDR放射率、3次元シーンフロー、幾何学、トーンマッピングを明示的にモデル化し、物理的妥当性とグローバルコヒーレンスを保証する。
私たちはさらに堅牢性を高めます
(i)DINO特徴を用いたセマンティックベース光フローの拡張による露出不変運動推定、及び
二 単分子捕獲及び飽和に伴う情報損失の限られた観察を補うために、レギュラーライザとして生成前を組み込むこと。
HDRの時空間ビュー合成を評価するために,動的HDRシーンに特化して設計された,世界初の実世界のHDR-GoProデータセットを提案する。
実験により、HDR-NSFFは、挑戦的な露光変動の下でも微細な放射率の詳細とコヒーレントダイナミクスを回復し、新しい時空ビュー合成における最先端の性能を達成することを示した。
プロジェクトページ:https://shin-dong-yeon.github.io/HDR-NSFF/
関連論文リスト
- Reconstructing 3D Scenes in Native High Dynamic Range [82.90064638813185]
本研究では,HDR観測を直接モデル化した3次元シーン再構成法を提案する。
bf Native High Dynamic Range 3D Gaussian Splatting (NH-3DGS)を提案する。
NH-3DGSは, 再構成品質と動的レンジ保存において, 既存の手法よりも有意に優れる合成多視点HDRデータセットと実HDRデータセットの両方を実証した。
論文 参考訳(メタデータ) (2025-11-17T02:33:31Z) - Dynamic Novel View Synthesis in High Dynamic Range [78.72910306733607]
現在の手法は主に静的なシーンに焦点を当てており、すべてのシーン要素が静止していて生きていないことを暗黙的に仮定している。
HDR-4DGSは,革新的な動的トーンマッピングモジュールを備えたガウススプラッティング方式のアーキテクチャである。
実験により、HDR-4DGSは、定量的性能と視覚的忠実度の両方において、既存の最先端手法を超越していることが示された。
論文 参考訳(メタデータ) (2025-09-26T04:29:22Z) - Event-assisted 12-stop HDR Imaging of Dynamic Scene [20.064191181938533]
本稿では,イベントカメラとRGBカメラを備えたデュアルカメラシステムを利用して,ダイナミックシーンのための新しい12ストップHDRイメージング手法を提案する。
イベントカメラは、時間的に密度が高く、ダイナミックレンジの信号を提供し、LDRフレーム間のアライメントを大きな露出差で改善し、動きによって引き起こされるゴーストアーティファクトを減らす。
本手法は,動的シーンにおけるHDRイメージングを12停止まで拡張し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T10:17:50Z) - Cinematic Gaussians: Real-Time HDR Radiance Fields with Depth of Field [23.92087253022495]
放射場法は、多視点写真から複雑なシーンを再構成する際の技法の状態を表現している。
ピンホールカメラモデルへの依存は、すべてのシーン要素が入力画像に集中していると仮定し、実用的な課題を提示し、新規な視点合成において再焦点を複雑にする。
様々な露光時間,開口の放射率,焦点距離を多視点LDR画像を用いて高ダイナミックレンジシーンを再構成する3Dガウススメッティングに基づく軽量解析手法を提案する。
論文 参考訳(メタデータ) (2024-06-11T15:00:24Z) - HDR-NeRF: High Dynamic Range Neural Radiance Fields [70.80920996881113]
我々は、低ダイナミックレンジ(LDR)ビューの集合からHDR放射界を異なる露光で復元するために、高ダイナミックレンジニューラルレイディアンス場(-NeRF)を提案する。
異なる露出下で、新しいHDRビューと新しいLDRビューの両方を生成することができる。
論文 参考訳(メタデータ) (2021-11-29T11:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。