論文の概要: Clustered Error Correction with Grouped 4D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2511.16112v1
- Date: Thu, 20 Nov 2025 07:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.51452
- Title: Clustered Error Correction with Grouped 4D Gaussian Splatting
- Title(参考訳): Grouped 4D Gaussian Splatting によるクラスター誤差補正
- Authors: Taeho Kang, Jaeyeon Park, Kyungjin Lee, Youngki Lee,
- Abstract要約: 既存の4Dガウス散乱法は動的シーンを正確に再構築するのに苦労する。
本稿では,2つの鍵成分からなる新しい手法を提案する。
バックプロジェクションやフォアグラウンドスプリッティングによって対象の補正を行う。
我々の手法は時間的一貫性と最先端の知覚的レンダリング品質を大幅に改善する。
- 参考スコア(独自算出の注目度): 15.815414326485348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 4D Gaussian Splatting (4DGS) methods struggle to accurately reconstruct dynamic scenes, often failing to resolve ambiguous pixel correspondences and inadequate densification in dynamic regions. We address these issues by introducing a novel method composed of two key components: (1) Elliptical Error Clustering and Error Correcting Splat Addition that pinpoints dynamic areas to improve and initialize fitting splats, and (2) Grouped 4D Gaussian Splatting that improves consistency of mapping between splats and represented dynamic objects. Specifically, we classify rendering errors into missing-color and occlusion types, then apply targeted corrections via backprojection or foreground splitting guided by cross-view color consistency. Evaluations on Neural 3D Video and Technicolor datasets demonstrate that our approach significantly improves temporal consistency and achieves state-of-the-art perceptual rendering quality, improving 0.39dB of PSNR on the Technicolor Light Field dataset. Our visualization shows improved alignment between splats and dynamic objects, and the error correction method's capability to identify errors and properly initialize new splats. Our implementation details and source code are available at https://github.com/tho-kn/cem-4dgs.
- Abstract(参考訳): 既存の4D Gaussian Splatting (4DGS) 法は、動的シーンを正確に再構築するのに苦労し、しばしば不明瞭なピクセル対応と動的領域における不適切な密度化を解決するのに失敗する。
提案手法は,(1) 楕円誤差クラスタリングと誤り訂正の2つの重要な要素からなる新しい手法を導入し, 適合スプラットの改良と初期化のために動的領域をピンポイントでピンポイントし, (2) スプラットと表現された動的オブジェクト間のマッピングの整合性を改善するグループ化4Dガウス・スプラッティングを提案する。
具体的には,レンダリングエラーをカラーとオクルージョンの欠落タイプに分類し,バックプロジェクションやフォアグラウンドスプリッティングによって対象の補正を行う。
ニューラル3Dビデオとテクニカラーのデータセットの評価は、我々のアプローチが時間的一貫性を著しく改善し、最先端の知覚レンダリング品質を実現し、テクニカラーの光フィールドデータセットにおけるPSNRの0.39dBを改善したことを示している。
可視化では,スプレートと動的オブジェクトのアライメントが向上し,エラーを識別し,新しいスプレートを適切に初期化することができる。
実装の詳細とソースコードはhttps://github.com/tho-kn/cem-4dgs.comで公開されています。
関連論文リスト
- Grid4D: 4D Decomposed Hash Encoding for High-Fidelity Dynamic Gaussian Splatting [21.47981274362659]
ガウススプラッティングに基づく動的シーンレンダリングモデルであるGrid4Dを提案する。
低ランクの仮定を使わずに, 4Dエンコーディングを1つの空間的および3つの時間的3Dハッシュエンコーディングに分解する。
我々の実験は、Grid4Dが視覚的品質とレンダリング速度において最先端のモデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2024-10-28T08:02:34Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - High-Fidelity SLAM Using Gaussian Splatting with Rendering-Guided Densification and Regularized Optimization [8.845446246585215]
本稿では,3次元ガウススプラッティングに基づく高密度RGBD SLAMシステムを提案する。
近年のニューラルかつ並列に開発されたガウススプラッティング RGBD SLAM ベースラインと比較して,本手法は合成データセット Replica の最先端結果と実世界のデータセット TUM の競合結果を得る。
論文 参考訳(メタデータ) (2024-03-19T08:19:53Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。