論文の概要: GeMS: Efficient Gaussian Splatting for Extreme Motion Blur
- arxiv url: http://arxiv.org/abs/2508.14682v1
- Date: Wed, 20 Aug 2025 12:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.455995
- Title: GeMS: Efficient Gaussian Splatting for Extreme Motion Blur
- Title(参考訳): GeMS: 極端運動ブラジャーのための効率的なガウススプラッティング
- Authors: Gopi Raju Matta, Trisha Reddypalli, Vemunuri Divya Madhuri, Kaushik Mitra,
- Abstract要約: 本稿では、3Dガウススティング(3DGS)のためのフレームワークであるGeMSを紹介した。
私たちの知る限り、3DGS内の極端な動きのぼやけを、ひどくぼやけた入力から直接解決する最初のフレームワークです。
- 参考スコア(独自算出の注目度): 12.494492016414503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GeMS, a framework for 3D Gaussian Splatting (3DGS) designed to handle severely motion-blurred images. State-of-the-art deblurring methods for extreme blur, such as ExBluRF, as well as Gaussian Splatting-based approaches like Deblur-GS, typically assume access to sharp images for camera pose estimation and point cloud generation, an unrealistic assumption. Methods relying on COLMAP initialization, such as BAD-Gaussians, also fail due to unreliable feature correspondences under severe blur. To address these challenges, we propose GeMS, a 3DGS framework that reconstructs scenes directly from extremely blurred images. GeMS integrates: (1) VGGSfM, a deep learning-based Structure-from-Motion pipeline that estimates poses and generates point clouds directly from blurred inputs; (2) 3DGS-MCMC, which enables robust scene initialization by treating Gaussians as samples from a probability distribution, eliminating heuristic densification and pruning; and (3) joint optimization of camera trajectories and Gaussian parameters for stable reconstruction. While this pipeline produces strong results, inaccuracies may remain when all inputs are severely blurred. To mitigate this, we propose GeMS-E, which integrates a progressive refinement step using events: (4) Event-based Double Integral (EDI) deblurring restores sharper images that are then fed into GeMS, improving pose estimation, point cloud generation, and overall reconstruction. Both GeMS and GeMS-E achieve state-of-the-art performance on synthetic and real-world datasets. To our knowledge, this is the first framework to address extreme motion blur within 3DGS directly from severely blurred inputs.
- Abstract(参考訳): 本稿では、3Dガウススティング(3DGS)のためのフレームワークであるGeMSを紹介した。
ExBluRF(英語版)やDeblur-GS(英語版)のようなガウススプラッティングに基づくアプローチ(英語版)のような極端なぼやけに対する最先端のデブラリング手法は、通常、カメラポーズ推定やポイントクラウド生成のためのシャープな画像へのアクセスを前提としており、非現実的な仮定である。
BAD-GaussianのようなCOLMAP初期化に依存する手法も、深刻な曖昧さの下での信頼性の低い特徴対応のために失敗する。
これらの課題に対処するために,非常にぼやけた画像から直接シーンを再構築する3DGSフレームワークであるGeMSを提案する。
GeMS は,(1) VGGSfM,(1) 深層学習に基づく構造-移動パイプライン,(2) ぼやけた入力から直接点雲を推定・生成する,(2) 3DGS-MCMC,(2) ガウスを確率分布から標本として扱い,ヒューリスティックな密度化とプルーニングを排除し,頑健なシーン初期化を可能にする,(3) カメラトラジェクトリとガウス的パラメータの連成最適化による安定な再構成を実現した。
このパイプラインは強い結果をもたらすが、全ての入力がひどくぼやけているときに不正確性が残る可能性がある。
イベントベースのDouble Integral (EDI) deblurringは、GeMSに入力されたシャープな画像を復元し、ポーズ推定、ポイントクラウド生成、全体的な再構築を改善する。
GeMSとGeMS-Eは、合成および実世界のデータセット上で最先端のパフォーマンスを達成する。
私たちの知る限り、3DGS内の極端な動きのぼやけを、ひどくぼやけた入力から直接解決する最初のフレームワークです。
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - USP-Gaussian: Unifying Spike-based Image Reconstruction, Pose Correction and Gaussian Splatting [45.246178004823534]
スパイクカメラは、0-1ビットストリームを40kHzで撮影する革新的なニューロモルフィックカメラとして、ますます3D再構成タスクに採用されている。
以前のスパイクベースの3D再構成アプローチでは、ケースケースのパイプラインを使うことが多い。
本稿では,スパイクに基づく画像再構成,ポーズ補正,ガウス的スプラッティングをエンドツーエンドのフレームワークに統一する,相乗的最適化フレームワーク textbfUSP-Gaussian を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:15:16Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - DeblurGS: Gaussian Splatting for Camera Motion Blur [45.13521168573883]
動きブル画像から鋭い3次元ガウススプラッティングを最適化するDeblurGSを提案する。
我々は,3次元ガウススプラッティングの顕著な再構成能力を活用して,きめ細かなシャープシーンを復元する。
提案手法は,6自由度カメラの動きをそれぞれのぼやけた観測のために推定し,それに対応するぼやけたレンダリングを合成する。
論文 参考訳(メタデータ) (2024-04-17T13:14:52Z) - BAGS: Blur Agnostic Gaussian Splatting through Multi-Scale Kernel Modeling [32.493592776662005]
様々な画像のぼかしに対するガウススプティングに基づく手法の頑健さを解析する。
この問題に対処するためにBlur Agnostic Gaussian Splatting (BAGS)を提案する。
BAGSは、画像がぼやけているにもかかわらず、3D一貫性と高品質なシーンを再構築できる2Dモデリング能力を導入している。
論文 参考訳(メタデータ) (2024-03-07T22:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。