論文の概要: CasualHDRSplat: Robust High Dynamic Range 3D Gaussian Splatting from Casually Captured Videos
- arxiv url: http://arxiv.org/abs/2504.17728v1
- Date: Thu, 24 Apr 2025 16:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.469315
- Title: CasualHDRSplat: Robust High Dynamic Range 3D Gaussian Splatting from Casually Captured Videos
- Title(参考訳): カジュアルHDRSplat:カジュアルビデオからのロバスト高ダイナミックレンジ3Dガウススプラッティング
- Authors: Shucheng Gong, Lingzhe Zhao, Wenpu Li, Hong Xie, Yin Zhang, Shiyu Zhao, Peidong Liu,
- Abstract要約: ニューラルレイディアンスフィールド(NeRF)や3Dスプレイティング(3DGS)などの多視点画像からのフォトリアリスティックな新しいビューレンダリングは、優れた性能のために広く注目を集めている。
textbfSplatには、連続時間軌跡制約を撮像プロセスに適用する、統一的な微分可能な物理イメージングモデルが含まれている。
実験により、我々の手法はロバスト性と品質の点で既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 15.52886867095313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, photo-realistic novel view synthesis from multi-view images, such as neural radiance field (NeRF) and 3D Gaussian Splatting (3DGS), have garnered widespread attention due to their superior performance. However, most works rely on low dynamic range (LDR) images, which limits the capturing of richer scene details. Some prior works have focused on high dynamic range (HDR) scene reconstruction, typically require capturing of multi-view sharp images with different exposure times at fixed camera positions during exposure times, which is time-consuming and challenging in practice. For a more flexible data acquisition, we propose a one-stage method: \textbf{CasualHDRSplat} to easily and robustly reconstruct the 3D HDR scene from casually captured videos with auto-exposure enabled, even in the presence of severe motion blur and varying unknown exposure time. \textbf{CasualHDRSplat} contains a unified differentiable physical imaging model which first applies continuous-time trajectory constraint to imaging process so that we can jointly optimize exposure time, camera response function (CRF), camera poses, and sharp 3D HDR scene. Extensive experiments demonstrate that our approach outperforms existing methods in terms of robustness and rendering quality. Our source code will be available at https://github.com/WU-CVGL/CasualHDRSplat
- Abstract(参考訳): 近年,ニューラルレイディアンス・フィールド(NeRF)や3次元ガウス・スプラッティング(3DGS)などの多視点画像からのフォトリアリスティックな視点合成が注目されている。
しかし、ほとんどの作品は、よりリッチなシーンの詳細のキャプチャを制限する低ダイナミックレンジ(LDR)画像に依存している。
初期の作品では、高ダイナミックレンジ(HDR)シーンの再構成に重点を置いており、通常、露光時間に固定されたカメラ位置で露光時間が異なるマルチビューのシャープな画像を撮影する必要がある。
よりフレキシブルなデータ取得のために、我々は1段階の手法を提案する: \textbf{CasualHDRSplat} は、激しい動きのぼけや未知の露出時間があっても、カジュアルにキャプチャされたビデオから3D HDRシーンを自動露光で容易に、かつ頑健に再構成する。
画像処理に連続時間軌道制約を適用し、露光時間、カメラ応答関数(CRF)、カメラポーズ、シャープな3次元HDRシーンを共同で最適化できるようにする。
大規模な実験により、我々の手法はロバスト性やレンダリング品質の点で既存の手法よりも優れていることが示された。
ソースコードはhttps://github.com/WU-CVGL/CasualHDRSplatで公開されます。
関連論文リスト
- Deblur4DGS: 4D Gaussian Splatting from Blurry Monocular Video [64.38566659338751]
Deblur4DGSという,ぼやけたモノクロビデオから高品質な4Dモデルを再構成するための,最初の4Dガウス分割フレームワークを提案する。
本稿では,多面的,多面的整合性,多面的,多面的,多面的な整合性を実現するために露光規則化を導入し,斬新な視点以外では,デブレア4DGSは,デブロアリング,フレーム合成,ビデオ安定化など,多面的な視点からぼやけた映像を改善するために応用できる。
論文 参考訳(メタデータ) (2024-12-09T12:02:11Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - HDRSplat: Gaussian Splatting for High Dynamic Range 3D Scene Reconstruction from Raw Images [14.332077246864628]
3D Gaussian Splatting(3DGS)は、3Dシーンの再現空間に革命をもたらし、高忠実なノベルビューをリアルタイムで実現した。
しかし,従来の3DGS法とNeRF法では8ビットトーンマップの低ダイナミックレンジ画像がシーン再構成に利用されている。
提案手法は,14ビットの直線的原像を暗黒付近で直接トレーニングし,シーンの全ダイナミックレンジと内容を保存する。
論文 参考訳(メタデータ) (2024-07-23T14:21:00Z) - Cinematic Gaussians: Real-Time HDR Radiance Fields with Depth of Field [23.92087253022495]
放射場法は、多視点写真から複雑なシーンを再構成する際の技法の状態を表現している。
ピンホールカメラモデルへの依存は、すべてのシーン要素が入力画像に集中していると仮定し、実用的な課題を提示し、新規な視点合成において再焦点を複雑にする。
様々な露光時間,開口の放射率,焦点距離を多視点LDR画像を用いて高ダイナミックレンジシーンを再構成する3Dガウススメッティングに基づく軽量解析手法を提案する。
論文 参考訳(メタデータ) (2024-06-11T15:00:24Z) - EvaGaussians: Event Stream Assisted Gaussian Splatting from Blurry Images [36.91327728871551]
3次元ガウススプラッティング(3D-GS)は、3次元シーン再構成と新しいビュー合成において例外的な機能を示した。
本稿では,イベントストリーム支援型ガウシアンスプラッティング(EvaGaussians)について紹介する。これは,イベントカメラがキャプチャしたイベントストリームを統合して,ぼやけた画像から高品質な3D-GSを再構築する手法である。
論文 参考訳(メタデータ) (2024-05-29T04:59:27Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Fast High Dynamic Range Radiance Fields for Dynamic Scenes [39.3304365600248]
我々はHDR-HexPlaneという動的HDR NeRFフレームワークを提案し、様々な露出で捉えた動的2D画像から3Dシーンを学習する。
提案したモデルでは、任意の時点における高品質なノベルビュー画像を、望まれる露光でレンダリングすることができる。
論文 参考訳(メタデータ) (2024-01-11T17:15:16Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - Online Overexposed Pixels Hallucination in Videos with Adaptive
Reference Frame Selection [90.35085487641773]
低ダイナミックレンジ(LDR)カメラは広いダイナミックレンジ入力に対応できず、しばしば局所的な露出問題を引き起こす。
複雑な処理機構を使わずにこれらの成果物を削減できる学習ベースシステムを提案する。
論文 参考訳(メタデータ) (2023-08-29T17:40:57Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。