論文の概要: DeblurSplat: SfM-free 3D Gaussian Splatting with Event Camera for Robust Deblurring
- arxiv url: http://arxiv.org/abs/2509.18898v1
- Date: Tue, 23 Sep 2025 11:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.821908
- Title: DeblurSplat: SfM-free 3D Gaussian Splatting with Event Camera for Robust Deblurring
- Title(参考訳): DeblurSplat:ロバストなデブロアのためのイベントカメラ付きSfMフリー3Dガウシアンスプラッティング
- Authors: Pengteng Li, Yunfan Lu, Pinhao Song, Weiyu Guo, Huizai Yao, F. Richard Yu, Hui Xiong,
- Abstract要約: DeSplat と呼ばれるイベントカメラによる3次元ガウス分割法を初めて提案する。
我々は高密度ステレオモジュール(DUSt3R)の事前訓練機能を利用して、ぼやけた画像から正確な初期点雲を直接取得する。
- 参考スコア(独自算出の注目度): 50.21760380168387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the first Structure-from-Motion (SfM)-free deblurring 3D Gaussian Splatting method via event camera, dubbed DeblurSplat. We address the motion-deblurring problem in two ways. First, we leverage the pretrained capability of the dense stereo module (DUSt3R) to directly obtain accurate initial point clouds from blurred images. Without calculating camera poses as an intermediate result, we avoid the cumulative errors transfer from inaccurate camera poses to the initial point clouds' positions. Second, we introduce the event stream into the deblur pipeline for its high sensitivity to dynamic change. By decoding the latent sharp images from the event stream and blurred images, we can provide a fine-grained supervision signal for scene reconstruction optimization. Extensive experiments across a range of scenes demonstrate that DeblurSplat not only excels in generating high-fidelity novel views but also achieves significant rendering efficiency compared to the SOTAs in deblur 3D-GS.
- Abstract(参考訳): 本稿では,イベントカメラによるSfMフリーな3次元ガウススプラッティング法(DeblurSplat)を提案する。
動作遅延問題を2つの方法で解決する。
まず,高密度ステレオモジュール(DUSt3R)の事前学習機能を利用して,ぼやけた画像から正確な初期点雲を直接取得する。
中間結果としてカメラポーズを計算せずに、不正確なカメラポーズから初期点雲の位置への累積誤差の移動を避ける。
第2に、動的変化に対する高い感度のために、イベントストリームをdeblurパイプラインに導入する。
イベントストリームとぼやけた画像から潜伏したシャープ画像を復号することで、シーン再構成最適化のためのきめ細かい監視信号を提供することができる。
様々な場面にわたる大規模な実験により、DeblurSplatは高忠実なノベルビューを生成するのに優れるだけでなく、deblur 3D-GSのSOTAと比較して大きなレンダリング効率を実現していることが示された。
関連論文リスト
- iGaussian: Real-Time Camera Pose Estimation via Feed-Forward 3D Gaussian Splatting Inversion [62.09575122593993]
iGaussianは2段階のフィードフォワードフレームワークで、直接3Dガウス変換によるリアルタイムカメラポーズ推定を実現する。
NeRF Synthetic, Mip-NeRF 360, T&T+DB データセットの実験結果から, 従来の手法に比べて大幅な性能向上が得られた。
論文 参考訳(メタデータ) (2025-11-18T05:22:22Z) - Blur2seq: Blind Deblurring and Camera Trajectory Estimation from a Single Camera Motion-blurred Image [2.842028685390758]
カメラの揺らぎによる動きのぼやけは、特に大きな動きや回転運動の下では、画像復元において大きな課題である。
本稿では,1つのぼやけた画像から潜時鋭い画像と下層のカメラ運動軌跡を共同で推定する深層学習フレームワークを提案する。
本手法は,合成データと実データの両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-10-23T13:26:07Z) - BSGS: Bi-stage 3D Gaussian Splatting for Camera Motion Deblurring [32.5099324617965]
Bi-Stage 3D Gaussian Splattingは、モーションブルー画像から3Dシーンを再構築する新しいフレームワークである。
両段階を最適化するためのサブフレーム勾配集約戦略を提案する。
提案手法の有効性を検証し,その有効性を示す実験を行った。
論文 参考訳(メタデータ) (2025-10-14T13:26:56Z) - RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - BeSplat: Gaussian Splatting from a Single Blurry Image and Event Stream [13.649334929746413]
3D Gaussian Splatting (3DGS)は、長いトレーニング時間や遅いレンダリング速度といった重要な課題に効果的に対処している。
本研究では,1つの動きブル画像とそれに対応するイベントストリームから,シャープな放射場(ガウススプラッツ)の回復を実証する。
論文 参考訳(メタデータ) (2024-12-26T22:35:29Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - IncEventGS: Pose-Free Gaussian Splatting from a Single Event Camera [6.879406129086464]
IncEventGSは、単一のイベントカメラを備えたインクリメンタルな3Dガウススプレイティング再構成アルゴリズムである。
我々は,IncEventGSにおける従来のSLAMパイプラインの追跡とマッピングのパラダイムを活用する。
論文 参考訳(メタデータ) (2024-10-10T16:54:23Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - DeblurGS: Gaussian Splatting for Camera Motion Blur [45.13521168573883]
動きブル画像から鋭い3次元ガウススプラッティングを最適化するDeblurGSを提案する。
我々は,3次元ガウススプラッティングの顕著な再構成能力を活用して,きめ細かなシャープシーンを復元する。
提案手法は,6自由度カメラの動きをそれぞれのぼやけた観測のために推定し,それに対応するぼやけたレンダリングを合成する。
論文 参考訳(メタデータ) (2024-04-17T13:14:52Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。