論文の概要: DAS3R: Dynamics-Aware Gaussian Splatting for Static Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2412.19584v1
- Date: Fri, 27 Dec 2024 10:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:06.647890
- Title: DAS3R: Dynamics-Aware Gaussian Splatting for Static Scene Reconstruction
- Title(参考訳): DAS3R:静的シーン再構築のためのダイナミック・アウェア・ガウス・スプレイティング
- Authors: Kai Xu, Tze Ho Elden Tse, Jizong Peng, Angela Yao,
- Abstract要約: 日常映像からのシーン分解と静的な背景再構築のための新しいフレームワークを提案する。
提案手法はDAS3Rと呼ばれ,静的シーン再構成のためのダイナミック・アウェア・ガウス・スプレイティングの略である。
- 参考スコア(独自算出の注目度): 39.74144632154938
- License:
- Abstract: We propose a novel framework for scene decomposition and static background reconstruction from everyday videos. By integrating the trained motion masks and modeling the static scene as Gaussian splats with dynamics-aware optimization, our method achieves more accurate background reconstruction results than previous works. Our proposed method is termed DAS3R, an abbreviation for Dynamics-Aware Gaussian Splatting for Static Scene Reconstruction. Compared to existing methods, DAS3R is more robust in complex motion scenarios, capable of handling videos where dynamic objects occupy a significant portion of the scene, and does not require camera pose inputs or point cloud data from SLAM-based methods. We compared DAS3R against recent distractor-free approaches on the DAVIS and Sintel datasets; DAS3R demonstrates enhanced performance and robustness with a margin of more than 2 dB in PSNR. The project's webpage can be accessed via \url{https://kai422.github.io/DAS3R/}
- Abstract(参考訳): 日常映像からのシーン分解と静的な背景再構築のための新しいフレームワークを提案する。
トレーニングされた動作マスクを統合し,静的シーンを動的に認識したガウススプラットとしてモデル化することにより,従来の手法よりも正確な背景再構成結果が得られる。
提案手法はDAS3Rと呼ばれ,静的シーン再構成のためのダイナミック・アウェア・ガウス・スプレイティングの略である。
既存の手法と比較して、DAS3Rは複雑な動きのシナリオにおいてより堅牢であり、ダイナミックオブジェクトがシーンのかなりの部分を占有するビデオを扱うことができ、SLAMベースの手法からカメラのポーズ入力やクラウドデータをポイントする必要がない。
DAS3RはPSNRにおいて2dB以上のマージンを持つ性能とロバスト性を示す。
プロジェクトのWebページは \url{https://kai422.github.io/DAS3R/} を通じてアクセスすることができる。
関連論文リスト
- Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - Feed-Forward Bullet-Time Reconstruction of Dynamic Scenes from Monocular Videos [101.48581851337703]
動的シーンのリアルタイム再構成と新しいビュー合成のための,モーション対応フィードフォワードモデルであるBTimerを提案する。
提案手法は,すべてのコンテキストフレームから情報を集約することにより,所定の目標("bullet')タイムスタンプにおける3次元ガウススティング表現の全体像を再構成する。
カジュアルなモノクロのダイナミックビデオが与えられた後、BTimerは150ms以内の弾道時間シーンを再構築し、静的および動的両方のシーンデータセットで最先端のパフォーマンスに到達した。
論文 参考訳(メタデータ) (2024-12-04T18:15:06Z) - RoDyGS: Robust Dynamic Gaussian Splatting for Casual Videos [39.384910552854926]
本稿では,カジュアルビデオから動的ガウススプラッティングを最適化するRoDyGSを提案する。
動的プリミティブと静的プリミティブを分離することで、シーンの動きと下層の幾何学を効果的に学習する。
また,広視野カメラとオブジェクトモーションと同時マルチビューキャプチャを提供する,包括的なベンチマークであるKubric-MRigを導入している。
論文 参考訳(メタデータ) (2024-12-04T07:02:49Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
ガウススプラッティングを用いた3次元シーン再構成のための入力ビデオから一貫したオブジェクトを除去する新しいフレームワークを提案する。
以上の結果から,既存の疎捕捉データセットにおける技術の現状と,新たに提案した高密度キャプチャ(ビデオ)データセットの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - SplatFields: Neural Gaussian Splats for Sparse 3D and 4D Reconstruction [24.33543853742041]
3Dガウススティング(3DGS)は実用的でスケーラブルな再構築手法として登場した。
暗黙的ニューラルネットワークの出力としてモデル化することで,スプレート特徴を効果的に正規化する最適化手法を提案する。
当社のアプローチは,異なるセットアップやシーンの複雑さをまたいだ広範なテストによって実証されるような,静的および動的ケースを効果的に処理する。
論文 参考訳(メタデータ) (2024-09-17T14:04:20Z) - DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。