論文の概要: Swift4D:Adaptive divide-and-conquer Gaussian Splatting for compact and efficient reconstruction of dynamic scene
- arxiv url: http://arxiv.org/abs/2503.12307v1
- Date: Sun, 16 Mar 2025 01:13:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:35:11.701416
- Title: Swift4D:Adaptive divide-and-conquer Gaussian Splatting for compact and efficient reconstruction of dynamic scene
- Title(参考訳): Swift4D:動的シーンのコンパクトかつ効率的な再構成のための適応分割コンカレントガウススメッティング
- Authors: Jiahao Wu, Rui Peng, Zhiyan Wang, Lu Xiao, Luyang Tang, Jinbo Yan, Kaiqiang Xiong, Ronggang Wang,
- Abstract要約: 静的プリミティブと動的プリミティブを別々に扱える3Dガウススプラッティング法であるSwift4Dを提案する。
本手法は,従来のSOTA法よりも20倍高速で,最先端のレンダリング品質を実現する。
- 参考スコア(独自算出の注目度): 17.496641113095745
- License:
- Abstract: Novel view synthesis has long been a practical but challenging task, although the introduction of numerous methods to solve this problem, even combining advanced representations like 3D Gaussian Splatting, they still struggle to recover high-quality results and often consume too much storage memory and training time. In this paper we propose Swift4D, a divide-and-conquer 3D Gaussian Splatting method that can handle static and dynamic primitives separately, achieving a good trade-off between rendering quality and efficiency, motivated by the fact that most of the scene is the static primitive and does not require additional dynamic properties. Concretely, we focus on modeling dynamic transformations only for the dynamic primitives which benefits both efficiency and quality. We first employ a learnable decomposition strategy to separate the primitives, which relies on an additional parameter to classify primitives as static or dynamic. For the dynamic primitives, we employ a compact multi-resolution 4D Hash mapper to transform these primitives from canonical space into deformation space at each timestamp, and then mix the static and dynamic primitives to produce the final output. This divide-and-conquer method facilitates efficient training and reduces storage redundancy. Our method not only achieves state-of-the-art rendering quality while being 20X faster in training than previous SOTA methods with a minimum storage requirement of only 30MB on real-world datasets. Code is available at https://github.com/WuJH2001/swift4d.
- Abstract(参考訳): 新たなビュー合成は長年、実用的だが難しい課題であったが、3Dガウススプラッティングのような高度な表現を組み合わせても、高品質な結果の回復に苦慮し、記憶と訓練時間を過大に消費することが多い。
本稿では,静的プリミティブと動的プリミティブを分離して処理し,レンダリング品質と効率の良好なトレードオフを実現する,分割型3Dガウススティング手法であるSwift4Dを提案する。
具体的には、効率性と品質の両方の恩恵を受ける動的プリミティブに対してのみ、動的変換をモデル化することに焦点を当てます。
まず、プリミティブを分離するために学習可能な分解戦略を使い、プリミティブを静的または動的に分類するために追加のパラメータに依存する。
動的プリミティブに対しては、コンパクトな多重解像度4Dハッシュマッパーを用いて、これらのプリミティブを標準空間から各タイムスタンプにおける変形空間に変換し、次いで静的および動的プリミティブを混合して最終的な出力を生成する。
この分譲・分譲方式は、効率的なトレーニングを容易にし、ストレージの冗長性を低減させる。
本手法は,従来のSOTA法よりも20倍高速で,実世界のデータセット上では30MBのストレージ要件しか持たない,最先端のレンダリング品質を実現する。
コードはhttps://github.com/WuJH2001/swift4d.comで入手できる。
関連論文リスト
- Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - Urban4D: Semantic-Guided 4D Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
Urban4Dは、深い2Dセマンティックマップ生成の進歩に触発されたセマンティック誘導分解戦略である。
我々のアプローチは、信頼できるセマンティック・ガウシアンを通して潜在的に動的対象を区別する。
実世界のデータセットでの実験では、Urban4Dは従来の最先端の手法と同等または優れた品質を実現している。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - RoDyGS: Robust Dynamic Gaussian Splatting for Casual Videos [39.384910552854926]
本稿では,カジュアルビデオから動的ガウススプラッティングを最適化するRoDyGSを提案する。
動的プリミティブと静的プリミティブを分離することで、シーンの動きと下層の幾何学を効果的に学習する。
また,広視野カメラとオブジェクトモーションと同時マルチビューキャプチャを提供する,包括的なベンチマークであるKubric-MRigを導入している。
論文 参考訳(メタデータ) (2024-12-04T07:02:49Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - HiCoM: Hierarchical Coherent Motion for Streamable Dynamic Scene with 3D Gaussian Splatting [7.507657419706855]
本稿では,HiCoMと呼ばれる3つの重要なコンポーネントを持つ効率的なフレームワークを提案する。
まず、摂動平滑化戦略を用いて、コンパクトで頑健な初期3DGS表現を構築する。
次に、3次元ガウスの固有非一様分布と局所的一貫性を利用する階層的コヒーレント運動機構を導入する。
2つの広く利用されているデータセットを用いて行った実験により、我々のフレームワークは最先端の手法の学習効率を約20%向上することが示された。
論文 参考訳(メタデータ) (2024-11-12T04:40:27Z) - SplatFields: Neural Gaussian Splats for Sparse 3D and 4D Reconstruction [24.33543853742041]
3Dガウススティング(3DGS)は実用的でスケーラブルな再構築手法として登場した。
暗黙的ニューラルネットワークの出力としてモデル化することで,スプレート特徴を効果的に正規化する最適化手法を提案する。
当社のアプローチは,異なるセットアップやシーンの複雑さをまたいだ広範なテストによって実証されるような,静的および動的ケースを効果的に処理する。
論文 参考訳(メタデータ) (2024-09-17T14:04:20Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。