論文の概要: DBMovi-GS: Dynamic View Synthesis from Blurry Monocular Video via Sparse-Controlled Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.20998v1
- Date: Thu, 26 Jun 2025 04:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.976267
- Title: DBMovi-GS: Dynamic View Synthesis from Blurry Monocular Video via Sparse-Controlled Gaussian Splatting
- Title(参考訳): DBMovi-GS:Sparse-Controlled Gaussian SplattingによるBlurry Monocular Videoからの動的ビュー合成
- Authors: Yeon-Ji Song, Jaein Kim, Byung-Ju Kim, Byoung-Tak Zhang,
- Abstract要約: スパース制御ガウススプラッティング(DBMovi-GS)によるBlurry Monocular Videoからのモーション対応動的ビュー合成を提案する。
本モデルは,ダイナミックなぼやけたシーン下での新規ビュー合成におけるロバストな性能を実現し,ぼやけたモノクロビデオ入力のためのリアルな新規ビュー合成における新しいベンチマークを設定する。
- 参考スコア(独自算出の注目度): 20.85857280726324
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Novel view synthesis is a task of generating scenes from unseen perspectives; however, synthesizing dynamic scenes from blurry monocular videos remains an unresolved challenge that has yet to be effectively addressed. Existing novel view synthesis methods are often constrained by their reliance on high-resolution images or strong assumptions about static geometry and rigid scene priors. Consequently, their approaches lack robustness in real-world environments with dynamic object and camera motion, leading to instability and degraded visual fidelity. To address this, we propose Motion-aware Dynamic View Synthesis from Blurry Monocular Video via Sparse-Controlled Gaussian Splatting (DBMovi-GS), a method designed for dynamic view synthesis from blurry monocular videos. Our model generates dense 3D Gaussians, restoring sharpness from blurry videos and reconstructing detailed 3D geometry of the scene affected by dynamic motion variations. Our model achieves robust performance in novel view synthesis under dynamic blurry scenes and sets a new benchmark in realistic novel view synthesis for blurry monocular video inputs.
- Abstract(参考訳): 新たなビュー合成は、目に見えない視点からシーンを生成するタスクであるが、ぼやけたモノクロビデオから動的なシーンを合成することは、まだ効果的に対処されていない未解決の課題である。
既存の新しいビュー合成法は、高解像度画像への依存や、静的幾何学や厳密なシーン先行に関する強い仮定によって制約されることが多い。
その結果、それらのアプローチは、動的オブジェクトとカメラモーションを持つ現実世界環境において堅牢性に欠けており、不安定性と視力の低下につながった。
そこで我々は,ぼやけたモノクロビデオから動的ビュー合成を設計したDBMovi-GS (Sparse-Controlled Gaussian Splatting) を用いた,Blurry Monocular Videoからの動的ビュー合成を提案する。
本モデルでは,高密度な3次元ガウスを生成,ぼやけた映像からシャープさを復元し,ダイナミックな動きの変化に影響を受けるシーンの詳細な3次元形状を再構成する。
本モデルは,ダイナミックなぼやけたシーン下での新規ビュー合成におけるロバストな性能を実現し,ぼやけたモノクロビデオ入力のためのリアルな新規ビュー合成における新しいベンチマークを設定する。
関連論文リスト
- Modeling Ambient Scene Dynamics for Free-view Synthesis [31.233859111566613]
モノクルキャプチャから周囲のシーンを動的に自由視点で合成する手法を提案する。
本手法は, 複雑な静的シーンを忠実に再構築できる3次元ガウス散乱(3DGS)の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2024-06-13T17:59:11Z) - Decoupling Dynamic Monocular Videos for Dynamic View Synthesis [50.93409250217699]
動的モノクロビデオからの動的ビュー合成の課題を教師なしで解決する。
具体的には、動的物体の運動を物体の動きとカメラの動きに分離し、教師なし表面の整合性およびパッチベースのマルチビュー制約によって規則化する。
論文 参考訳(メタデータ) (2023-04-04T11:25:44Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes [70.76742458931935]
本稿では,動的シーンを外観・幾何学・3次元シーン動作の時間変化連続関数としてモデル化する新しい表現を提案する。
私たちの表現は、観測された入力ビューに適合するようにニューラルネットワークを介して最適化されます。
我々の表現は、細い構造、ビュー依存効果、自然な動きの度合いなどの複雑な動的シーンに利用できることを示す。
論文 参考訳(メタデータ) (2020-11-26T01:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。