論文の概要: UPGS: Unified Pose-aware Gaussian Splatting for Dynamic Scene Deblurring
- arxiv url: http://arxiv.org/abs/2509.00831v2
- Date: Wed, 03 Sep 2025 16:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.417393
- Title: UPGS: Unified Pose-aware Gaussian Splatting for Dynamic Scene Deblurring
- Title(参考訳): UPGS:ダイナミックなシーンを損なうため、Pose-Aware Gaussian Splattingを統一
- Authors: Zhijing Wu, Longguang Wang,
- Abstract要約: モノクロ映像から3Dシーンを再構成することは、カメラや物体の動きによる激しい動きのぼけによってしばしば失敗する。
学習可能なパラメータとしてカメラポーズを組み込むことにより、統一的な最適化フレームワークを導入する。
提案手法は, 従来の動的デブロアリング法に比べて, 復元品質が大きく向上し, 推定精度が向上する。
- 参考スコア(独自算出の注目度): 31.35713139629235
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing dynamic 3D scenes from monocular video has broad applications in AR/VR, robotics, and autonomous navigation, but often fails due to severe motion blur caused by camera and object motion. Existing methods commonly follow a two-step pipeline, where camera poses are first estimated and then 3D Gaussians are optimized. Since blurring artifacts usually undermine pose estimation, pose errors could be accumulated to produce inferior reconstruction results. To address this issue, we introduce a unified optimization framework by incorporating camera poses as learnable parameters complementary to 3DGS attributes for end-to-end optimization. Specifically, we recast camera and object motion as per-primitive SE(3) affine transformations on 3D Gaussians and formulate a unified optimization objective. For stable optimization, we introduce a three-stage training schedule that optimizes camera poses and Gaussians alternatively. Particularly, 3D Gaussians are first trained with poses being fixed, and then poses are optimized with 3D Gaussians being untouched. Finally, all learnable parameters are optimized together. Extensive experiments on the Stereo Blur dataset and challenging real-world sequences demonstrate that our method achieves significant gains in reconstruction quality and pose estimation accuracy over prior dynamic deblurring methods.
- Abstract(参考訳): モノクロビデオからダイナミックな3Dシーンを再構成することは、AR/VR、ロボティクス、自律ナビゲーションに幅広い応用があるが、カメラや物体の動きによる激しい動きのぼけによってしばしば失敗する。
既存の方法では、カメラのポーズをまず推定し、3Dガウスを最適化する2ステップのパイプラインが一般的である。
ぼやけたアーティファクトは、通常、ポーズ推定を損なうため、ポーズエラーを蓄積して、低い再構成結果が得られる。
この問題に対処するために,カメラのポーズを3DGS属性を補完する学習可能なパラメータとして組み込むことにより,エンドツーエンドの最適化を実現する統一最適化フレームワークを提案する。
具体的には, カメラと物体の動きを3次元ガウス上でのプリミティブSE(3)アフィン変換として再キャストし, 統一最適化目標を定式化する。
安定的な最適化のために、カメラポーズとガウスアンを代わりに最適化する3段階のトレーニングスケジュールを導入する。
特に、3Dガウスは、最初にポーズを固定して訓練され、その後、ポーズを最適化し、3Dガウスは非タッチで最適化される。
最後に、学習可能なパラメータはすべて一緒に最適化されます。
Stereo Blurデータセットの大規模な実験と実世界の課題により,本手法は復元精度を大幅に向上し,従来の動的デブロアリング法よりも推定精度が向上することが示された。
関連論文リスト
- PCR-GS: COLMAP-Free 3D Gaussian Splatting via Pose Co-Regularizations [102.0476991174456]
COLMAPのない3DGSは、未ポーズの画像やビデオから高品質な3Dシーンを再構築する際、顕著なパフォーマンスのために注目を集めている。
PCR-GSはCOLMAPフリーな3DGS技術であり,カメラポーズによる3Dシーンモデリングとカメラポーズ推定を実現する。
論文 参考訳(メタデータ) (2025-07-18T13:09:33Z) - 3R-GS: Best Practice in Optimizing Camera Poses Along with 3DGS [36.48425755917156]
3D Gaussian Splatting (3DGS)はその効率と品質でニューラルレンダリングに革命をもたらした。
これはStructure-from-Motion (SfM)システムからの正確なカメラのポーズに大きく依存する。
このギャップを埋める3Dガウススプレイティングフレームワークである3R-GSを提案する。
論文 参考訳(メタデータ) (2025-04-05T22:31:08Z) - TrackGS: Optimizing COLMAP-Free 3D Gaussian Splatting with Global Track Constraints [40.9371798496134]
マルチビュー幾何をグローバルに制約する機能トラックを組み込んだTrackGSを紹介する。
また、幾何整合性を改善するために、再投射と後方投射の誤差を最小化することを提案する。
内在性の勾配を導出することにより、カメラパラメータ推定と3DGSトレーニングを結合最適化フレームワークに統合する。
論文 参考訳(メタデータ) (2025-02-27T06:16:04Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Look Gauss, No Pose: Novel View Synthesis using Gaussian Splatting without Accurate Pose Initialization [11.418632671254564]
3D Gaussian Splattingは、一連の入力画像から高速で正確なノベルビュー合成のための強力なツールとして登場した。
本稿では, 外部カメラパラメータを測光残差に対して最適化することにより, 3次元ガウス散乱フレームワークの拡張を提案する。
シミュレーション環境を通して実世界のシーンと複雑な軌道について結果を示す。
論文 参考訳(メタデータ) (2024-10-11T12:01:15Z) - MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting [56.785233997533794]
我々はMotionGSと呼ばれる新しい変形可能な3次元ガウススプレイティングフレームワークを提案する。
MotionGSは3Dガウスの変形を導くために、前もって明示的な動きを探索する。
モノラルなダイナミックシーンの実験では、MotionGSが最先端の手法を超越していることが確認された。
論文 参考訳(メタデータ) (2024-10-10T08:19:47Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - A Construct-Optimize Approach to Sparse View Synthesis without Camera Pose [44.13819148680788]
カメラポーズを伴わないスパースビュー合成のための新しい構成と最適化手法を開発した。
具体的には、単分子深度と画素を3次元の世界に投影することで、解を構築する。
タンク・アンド・テンプル・アンド・スタティック・ハイクスのデータセットに3つの広い範囲のビューで結果を示す。
論文 参考訳(メタデータ) (2024-05-06T17:36:44Z) - COLMAP-Free 3D Gaussian Splatting [88.420322646756]
本稿では,SfM前処理を使わずに新しいビュー合成を実現する手法を提案する。
入力フレームを逐次的に処理し、一度に1つの入力フレームを取ることで3Dガウスを段階的に成長させる。
提案手法は, 映像合成とカメラポーズ推定において, 大きな動き変化下での従来手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-12-12T18:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。