論文の概要: BSGS: Bi-stage 3D Gaussian Splatting for Camera Motion Deblurring
- arxiv url: http://arxiv.org/abs/2510.12493v2
- Date: Fri, 17 Oct 2025 05:55:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 13:49:08.776948
- Title: BSGS: Bi-stage 3D Gaussian Splatting for Camera Motion Deblurring
- Title(参考訳): BSGS:2段階の3Dガウシアン・スプレイティングでカメラの動きを損なう
- Authors: An Zhao, Piaopiao Yu, Zhe Zhu, Mingqiang Wei,
- Abstract要約: Bi-Stage 3D Gaussian Splattingは、モーションブルー画像から3Dシーンを再構築する新しいフレームワークである。
両段階を最適化するためのサブフレーム勾配集約戦略を提案する。
提案手法の有効性を検証し,その有効性を示す実験を行った。
- 参考スコア(独自算出の注目度): 32.5099324617965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting has exhibited remarkable capabilities in 3D scene reconstruction. However, reconstructing high-quality 3D scenes from motion-blurred images caused by camera motion poses a significant challenge.The performance of existing 3DGS-based deblurring methods are limited due to their inherent mechanisms, such as extreme dependence on the accuracy of camera poses and inability to effectively control erroneous Gaussian primitives densification caused by motion blur. To solve these problems, we introduce a novel framework, Bi-Stage 3D Gaussian Splatting, to accurately reconstruct 3D scenes from motion-blurred images. BSGS contains two stages. First, Camera Pose Refinement roughly optimizes camera poses to reduce motion-induced distortions. Second, with fixed rough camera poses, Global RigidTransformation further corrects motion-induced blur distortions. To alleviate multi-subframe gradient conflicts, we propose a subframe gradient aggregation strategy to optimize both stages. Furthermore, a space-time bi-stage optimization strategy is introduced to dynamically adjust primitive densification thresholds and prevent premature noisy Gaussian generation in blurred regions. Comprehensive experiments verify the effectiveness of our proposed deblurring method and show its superiority over the state of the arts.Our source code is available at https://github.com/wsxujm/bsgs
- Abstract(参考訳): 3Dガウススプラッティングは3Dシーン再構築において顕著な機能を示した。
しかし, カメラ動作による映像からの高画質な3Dシーンの再構成は大きな課題であり, 既存の3DGSによるデブロアリング法の性能は, カメラポーズの精度への過度な依存や, 動きのぼけによるガウス的プリミティブのデシフィケーションを効果的に制御できないなど, 固有のメカニズムによって制限されている。
これらの問題を解決するために,モーションブルー画像から3Dシーンを正確に再構成する新しい枠組みであるBi-Stage 3D Gaussian Splattingを導入する。
BSGSには2つのステージがある。
まず、カメラポスリファインメントは、カメラのポーズを大まかに最適化し、動きによって引き起こされる歪みを減らす。
第二に、固定された粗いカメラのポーズで、Global RigidTransformationはさらに動きによって引き起こされるぼやけた歪みを補正する。
マルチサブフレーム勾配の競合を軽減するために,両ステージを最適化するためのサブフレーム勾配の集約戦略を提案する。
さらに、初期密度閾値を動的に調整し、ぼやけた領域における早期ノイズガウスの発生を防止するために、時空間バイステージ最適化戦略を導入する。
我々のソースコードはhttps://github.com/wsxujm/bsgsで公開されている。
関連論文リスト
- PCR-GS: COLMAP-Free 3D Gaussian Splatting via Pose Co-Regularizations [102.0476991174456]
COLMAPのない3DGSは、未ポーズの画像やビデオから高品質な3Dシーンを再構築する際、顕著なパフォーマンスのために注目を集めている。
PCR-GSはCOLMAPフリーな3DGS技術であり,カメラポーズによる3Dシーンモデリングとカメラポーズ推定を実現する。
論文 参考訳(メタデータ) (2025-07-18T13:09:33Z) - LiftImage3D: Lifting Any Single Image to 3D Gaussians with Video Generation Priors [107.83398512719981]
シングルイメージの3D再構成は、コンピュータビジョンの根本的な課題である。
遅延ビデオ拡散モデルの最近の進歩は、大規模ビデオデータから学ぶ有望な3D事前情報を提供する。
本稿では,LVDMの生成先行情報を効果的にリリースするフレームワークであるLiftImage3Dを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:58:42Z) - MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting [56.785233997533794]
我々はMotionGSと呼ばれる新しい変形可能な3次元ガウススプレイティングフレームワークを提案する。
MotionGSは3Dガウスの変形を導くために、前もって明示的な動きを探索する。
モノラルなダイナミックシーンの実験では、MotionGSが最先端の手法を超越していることが確認された。
論文 参考訳(メタデータ) (2024-10-10T08:19:47Z) - DeblurGS: Gaussian Splatting for Camera Motion Blur [45.13521168573883]
動きブル画像から鋭い3次元ガウススプラッティングを最適化するDeblurGSを提案する。
我々は,3次元ガウススプラッティングの顕著な再構成能力を活用して,きめ細かなシャープシーンを復元する。
提案手法は,6自由度カメラの動きをそれぞれのぼやけた観測のために推定し,それに対応するぼやけたレンダリングを合成する。
論文 参考訳(メタデータ) (2024-04-17T13:14:52Z) - Gaussian Splatting on the Move: Blur and Rolling Shutter Compensation for Natural Camera Motion [25.54868552979793]
本稿では,カメラの動きに適応し,手持ち映像データを用いた高品質なシーン再構成を実現する手法を提案する。
合成データと実データの両方を用いて、既存の手法よりもカメラの動きを軽減できる性能を示した。
論文 参考訳(メタデータ) (2024-03-20T06:19:41Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。