論文の概要: Sparse4DGS: 4D Gaussian Splatting for Sparse-Frame Dynamic Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2511.07122v1
- Date: Mon, 10 Nov 2025 14:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.290056
- Title: Sparse4DGS: 4D Gaussian Splatting for Sparse-Frame Dynamic Scene Reconstruction
- Title(参考訳): スパース4DGS : スパースフレーム動的シーン再構成のための4次元ガウス切削法
- Authors: Changyue Shi, Chuxiao Yang, Xinyuan Hu, Minghao Chen, Wenwen Pan, Yan Yang, Jiajun Ding, Zhou Yu, Jun Yu,
- Abstract要約: スパースフレーム動的シーン再構成のための最初の手法であるスパース4DGSを提案する。
疎フレーム環境下での標準空間と変形空間の両方で動的再構成法が失敗するのを観察する。
提案手法は,NeRF-Synthetic, HyperNeRF, NeRF-DS, およびiPhone-4Dデータセット上で, 既存の動的, 少数ショット技術より優れている。
- 参考スコア(独自算出の注目度): 28.39022114935121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic Gaussian Splatting approaches have achieved remarkable performance for 4D scene reconstruction. However, these approaches rely on dense-frame video sequences for photorealistic reconstruction. In real-world scenarios, due to equipment constraints, sometimes only sparse frames are accessible. In this paper, we propose Sparse4DGS, the first method for sparse-frame dynamic scene reconstruction. We observe that dynamic reconstruction methods fail in both canonical and deformed spaces under sparse-frame settings, especially in areas with high texture richness. Sparse4DGS tackles this challenge by focusing on texture-rich areas. For the deformation network, we propose Texture-Aware Deformation Regularization, which introduces a texture-based depth alignment loss to regulate Gaussian deformation. For the canonical Gaussian field, we introduce Texture-Aware Canonical Optimization, which incorporates texture-based noise into the gradient descent process of canonical Gaussians. Extensive experiments show that when taking sparse frames as inputs, our method outperforms existing dynamic or few-shot techniques on NeRF-Synthetic, HyperNeRF, NeRF-DS, and our iPhone-4D datasets.
- Abstract(参考訳): 動的ガウス散乱法は4次元シーン再構成において顕著な性能を発揮した。
しかし、これらのアプローチは、フォトリアリスティックな再構成のための高密度フレームビデオシーケンスに依存している。
現実のシナリオでは、機器の制約により、スパースフレームのみがアクセス可能であることがある。
本稿では,スパースフレーム動的シーン再構成の最初の手法であるスパース4DGSを提案する。
本研究では,特にテクスチャリッチ度の高い領域において,疎フレーム環境下での標準空間と変形空間の両方で動的再構成手法が失敗するのを観察する。
Sparse4DGSはこの課題に取り組み、テクスチャに富む領域に焦点を当てている。
変形ネットワークのために,テクスチャベースの奥行きアライメント損失を導入し,ガウス変形を規制するテクスチャアウェア変形正規化を提案する。
標準ガウス場に対しては,テクスチャに基づく雑音を標準ガウスの勾配降下過程に組み込んだテクスチャ・アウェア・カノニカル最適化を導入する。
大規模な実験により, スパースフレームを入力として用いた場合, 提案手法はNeRF合成, HyperNeRF, NeRF-DS, およびiPhone-4Dのデータセットにおいて, 既存の動的, 少数ショットの手法よりも優れていた。
関連論文リスト
- Optimized Minimal 4D Gaussian Splatting [50.29519144753797]
4D Gaussian Splattingは動的シーン表現の新しいパラダイムとして登場し、複雑な動きを持つシーンのリアルタイムレンダリングを可能にした。
何百万人ものガウス人が高忠実度再構築を必要としているため、ストレージオーバーヘッドの大きな課題に直面している。
OMG4は、4次元ガウス模型を忠実に表現できる有能なガウスのコンパクトな集合を構成するフレームワークである。
論文 参考訳(メタデータ) (2025-10-04T16:11:13Z) - HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - UnIRe: Unsupervised Instance Decomposition for Dynamic Urban Scene Reconstruction [36.00679909382783]
シーンを静的な背景と個々の動的インスタンスに分解する3D Splatting (3DGS)ベースのアプローチであるUnIReを提案する。
中心となる4Dスーパーポイントは、多フレームLiDAR点を4D空間にクラスタ化する新しい表現である。
実験により,本手法は動的シーン再構成において,高精度かつ柔軟なインスタンスレベルの編集を可能にしながら,既存の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2025-04-01T13:15:58Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - 4D Gaussian Splatting in the Wild with Uncertainty-Aware Regularization [43.81271239333774]
そこで本研究では,カジュアルに記録されたモノクロビデオから動的シーンを動的に撮影する4DGSアルゴリズムを提案する。
提案手法は,ハンドヘルドモノクラーカメラで撮影した映像から4DGS再構成の性能を向上することを示す。
論文 参考訳(メタデータ) (2024-11-13T18:56:39Z) - MEGA: Memory-Efficient 4D Gaussian Splatting for Dynamic Scenes [49.36091070642661]
本稿では,4DGSのためのメモリ効率フレームワークを提案する。
TechnicolorとNeural 3D Videoのデータセットで約190$times$と125$times$のストレージ削減を実現している。
レンダリング速度とシーン表現の品質を維持し、フィールドに新しい標準を設定する。
論文 参考訳(メタデータ) (2024-10-17T14:47:08Z) - Topo4D: Topology-Preserving Gaussian Splatting for High-Fidelity 4D Head Capture [8.21159633722483]
自動幾何およびテクスチャ生成のための新しいフレームワークであるTopo4Dを提案する。
まず、時系列面を固定位相を持つ動的3次元ガウス面の集合として表現する。
次に、高品質な幾何学とテクスチャ学習のためのフレーム・バイ・フレームの代替的な幾何学とテクスチャ最適化を行う。
論文 参考訳(メタデータ) (2024-06-01T13:37:51Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。