論文の概要: DeblurSplat: SfM-free 3D Gaussian Splatting with Event Camera for Robust Deblurring
- arxiv url: http://arxiv.org/abs/2509.18898v1
- Date: Tue, 23 Sep 2025 11:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.821908
- Title: DeblurSplat: SfM-free 3D Gaussian Splatting with Event Camera for Robust Deblurring
- Title(参考訳): DeblurSplat:ロバストなデブロアのためのイベントカメラ付きSfMフリー3Dガウシアンスプラッティング
- Authors: Pengteng Li, Yunfan Lu, Pinhao Song, Weiyu Guo, Huizai Yao, F. Richard Yu, Hui Xiong,
- Abstract要約: DeSplat と呼ばれるイベントカメラによる3次元ガウス分割法を初めて提案する。
我々は高密度ステレオモジュール(DUSt3R)の事前訓練機能を利用して、ぼやけた画像から正確な初期点雲を直接取得する。
- 参考スコア(独自算出の注目度): 50.21760380168387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the first Structure-from-Motion (SfM)-free deblurring 3D Gaussian Splatting method via event camera, dubbed DeblurSplat. We address the motion-deblurring problem in two ways. First, we leverage the pretrained capability of the dense stereo module (DUSt3R) to directly obtain accurate initial point clouds from blurred images. Without calculating camera poses as an intermediate result, we avoid the cumulative errors transfer from inaccurate camera poses to the initial point clouds' positions. Second, we introduce the event stream into the deblur pipeline for its high sensitivity to dynamic change. By decoding the latent sharp images from the event stream and blurred images, we can provide a fine-grained supervision signal for scene reconstruction optimization. Extensive experiments across a range of scenes demonstrate that DeblurSplat not only excels in generating high-fidelity novel views but also achieves significant rendering efficiency compared to the SOTAs in deblur 3D-GS.
- Abstract(参考訳): 本稿では,イベントカメラによるSfMフリーな3次元ガウススプラッティング法(DeblurSplat)を提案する。
動作遅延問題を2つの方法で解決する。
まず,高密度ステレオモジュール(DUSt3R)の事前学習機能を利用して,ぼやけた画像から正確な初期点雲を直接取得する。
中間結果としてカメラポーズを計算せずに、不正確なカメラポーズから初期点雲の位置への累積誤差の移動を避ける。
第2に、動的変化に対する高い感度のために、イベントストリームをdeblurパイプラインに導入する。
イベントストリームとぼやけた画像から潜伏したシャープ画像を復号することで、シーン再構成最適化のためのきめ細かい監視信号を提供することができる。
様々な場面にわたる大規模な実験により、DeblurSplatは高忠実なノベルビューを生成するのに優れるだけでなく、deblur 3D-GSのSOTAと比較して大きなレンダリング効率を実現していることが示された。
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - IncEventGS: Pose-Free Gaussian Splatting from a Single Event Camera [6.879406129086464]
IncEventGSは、単一のイベントカメラを備えたインクリメンタルな3Dガウススプレイティング再構成アルゴリズムである。
我々は,IncEventGSにおける従来のSLAMパイプラインの追跡とマッピングのパラダイムを活用する。
論文 参考訳(メタデータ) (2024-10-10T16:54:23Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - DeblurGS: Gaussian Splatting for Camera Motion Blur [45.13521168573883]
動きブル画像から鋭い3次元ガウススプラッティングを最適化するDeblurGSを提案する。
我々は,3次元ガウススプラッティングの顕著な再構成能力を活用して,きめ細かなシャープシーンを復元する。
提案手法は,6自由度カメラの動きをそれぞれのぼやけた観測のために推定し,それに対応するぼやけたレンダリングを合成する。
論文 参考訳(メタデータ) (2024-04-17T13:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。