論文の概要: DASH: 4D Hash Encoding with Self-Supervised Decomposition for Real-Time Dynamic Scene Rendering
- arxiv url: http://arxiv.org/abs/2507.19141v2
- Date: Tue, 29 Jul 2025 06:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 12:52:36.832005
- Title: DASH: 4D Hash Encoding with Self-Supervised Decomposition for Real-Time Dynamic Scene Rendering
- Title(参考訳): DASH:リアルタイムダイナミックシーンレンダリングのための自己組織化分解による4次元ハッシュ符号化
- Authors: Jie Chen, Zhangchi Hu, Peixi Wu, Huyue Zhu, Hebei Li, Xiaoyan Sun,
- Abstract要約: 4Dハッシュエンコーディングと自己教師型分解を利用したリアルタイム動的シーンレンダリングフレームワークであるDASHを提案する。
DASHは最先端のダイナミックレンダリング性能を実現し、1台の4090 GPU上で264 FPSのリアルタイム速度で視覚的品質を向上させる。
- 参考スコア(独自算出の注目度): 5.287490759160381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic scene reconstruction is a long-term challenge in 3D vision. Existing plane-based methods in dynamic Gaussian splatting suffer from an unsuitable low-rank assumption, causing feature overlap and poor rendering quality. Although 4D hash encoding provides an explicit representation without low-rank constraints, directly applying it to the entire dynamic scene leads to substantial hash collisions and redundancy. To address these challenges, we present DASH, a real-time dynamic scene rendering framework that employs 4D hash encoding coupled with self-supervised decomposition. Our approach begins with a self-supervised decomposition mechanism that separates dynamic and static components without manual annotations or precomputed masks. Next, we introduce a multiresolution 4D hash encoder for dynamic elements, providing an explicit representation that avoids the low-rank assumption. Finally, we present a spatio-temporal smoothness regularization strategy to mitigate unstable deformation artifacts. Experiments on real-world datasets demonstrate that DASH achieves state-of-the-art dynamic rendering performance, exhibiting enhanced visual quality at real-time speeds of 264 FPS on a single 4090 GPU. Code: https://github.com/chenj02/DASH.
- Abstract(参考訳): 動的シーン再構築は3次元視覚における長期的課題である。
動的ガウススプラッティングにおける既存の平面法は、不適切な低ランクの仮定に悩まされ、特徴重なりとレンダリング品質が低下する。
4Dハッシュ符号化は低ランクな制約を伴わない明示的な表現を提供するが、動的シーン全体に直接適用することで、ハッシュ衝突や冗長性をもたらす。
これらの課題に対処するため、DASHは、4Dハッシュエンコーディングと自己教師付き分解を組み合わせたリアルタイム動的シーンレンダリングフレームワークである。
このアプローチは、手動のアノテーションや事前計算マスクなしで動的および静的なコンポーネントを分離する自己教師付き分解メカニズムから始まります。
次に、動的要素に対する多分解能4Dハッシュエンコーダを導入し、低ランクな仮定を避ける明示的な表現を提供する。
最後に、不安定な変形アーチファクトを緩和する時空間スムーズ性正規化戦略を提案する。
実世界のデータセットの実験では、DASHが最先端のダイナミックレンダリング性能を達成し、1つの4090 GPU上で264 FPSのリアルタイム速度で視覚的品質を向上することを示した。
コード:https://github.com/chenj02/DASH。
関連論文リスト
- UnIRe: Unsupervised Instance Decomposition for Dynamic Urban Scene Reconstruction [27.334884564978907]
シーンを静的な背景と個々の動的インスタンスに分解する3D Splatting (3DGS)ベースのアプローチであるUnIReを提案する。
中心となる4Dスーパーポイントは、多フレームLiDAR点を4D空間にクラスタ化する新しい表現である。
実験により,本手法は動的シーン再構成において,高精度かつ柔軟なインスタンスレベルの編集を可能にしながら,既存の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2025-04-01T13:15:58Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [116.2042238179433]
本稿では,動的シーンを非拘束な4次元ボリューム学習問題とみなす。
本研究では,4次元ガウス原始体の集合を対象とした動的シーンを明示的な幾何学的特徴と外観的特徴で表現する。
このアプローチは、下層のフォトリアリスティック時間体積を適合させることで、空間と時間の関連情報をキャプチャすることができる。
特に、我々の4DGSモデルは、複雑なダイナミックシーンのための、高解像度で斬新なビューのリアルタイムレンダリングをサポートする最初のソリューションです。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - Feed-Forward Bullet-Time Reconstruction of Dynamic Scenes from Monocular Videos [101.48581851337703]
動的シーンのリアルタイム再構成と新しいビュー合成のための,モーション対応フィードフォワードモデルであるBTimerを提案する。
提案手法は,すべてのコンテキストフレームから情報を集約することにより,所定の目標("bullet')タイムスタンプにおける3次元ガウススティング表現の全体像を再構成する。
カジュアルなモノクロのダイナミックビデオが与えられた後、BTimerは150ms以内の弾道時間シーンを再構築し、静的および動的両方のシーンデータセットで最先端のパフォーマンスに到達した。
論文 参考訳(メタデータ) (2024-12-04T18:15:06Z) - Grid4D: 4D Decomposed Hash Encoding for High-Fidelity Dynamic Gaussian Splatting [21.47981274362659]
ガウススプラッティングに基づく動的シーンレンダリングモデルであるGrid4Dを提案する。
低ランクの仮定を使わずに, 4Dエンコーディングを1つの空間的および3つの時間的3Dハッシュエンコーディングに分解する。
我々の実験は、Grid4Dが視覚的品質とレンダリング速度において最先端のモデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2024-10-28T08:02:34Z) - EG4D: Explicit Generation of 4D Object without Score Distillation [105.63506584772331]
DG4Dは、スコア蒸留なしで高品質で一貫した4Dアセットを生成する新しいフレームワークである。
私たちのフレームワークは、世代品質のベースラインをかなりのマージンで上回ります。
論文 参考訳(メタデータ) (2024-05-28T12:47:22Z) - 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering [103.32717396287751]
本研究では,動的シーンの全体像として4D-GS(Gaussian Splatting)を提案する。
HexPlaneにインスパイアされたニューラルボクセル符号化アルゴリズムは、4Dニューラルボクセルの機能を効率的に構築するために提案されている。
我々の4D-GS法は、高解像度の82 FPSで、3090 GPUで800$times$800の解像度でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:21:41Z) - Deformable 3D Gaussians for High-Fidelity Monocular Dynamic Scene
Reconstruction [29.83056271799794]
暗黙の神経表現は、動的なシーンの再構築とレンダリングに対する新しいアプローチの道を開いた。
本稿では,3次元ガウシアンを用いてシーンを再構成し,標準空間で学習する,変形可能な3次元ガウシアンスプラッティング法を提案する。
微分ガウシアン化器により、変形可能な3Dガウシアンは高いレンダリング品質だけでなく、リアルタイムレンダリング速度も達成できる。
論文 参考訳(メタデータ) (2023-09-22T16:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。