論文の概要: Disentangled 4D Gaussian Splatting: Rendering High-Resolution Dynamic World at 343 FPS
- arxiv url: http://arxiv.org/abs/2503.22159v3
- Date: Thu, 30 Oct 2025 10:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 20:30:31.263271
- Title: Disentangled 4D Gaussian Splatting: Rendering High-Resolution Dynamic World at 343 FPS
- Title(参考訳): 歪んだ4次元ガウス平板:343FPSでの高分解能ダイナミックワールドのレンダリング
- Authors: Hao Feng, Hao Sun, Wei Xie, Zhi Zuo, Zhengzhe Liu,
- Abstract要約: 本稿では,新しい表現・レンダリングパイプラインであるDisentangled 4D Gaussian Splatting (Disentangled 4DGS)を紹介する。
Disentangled4DGSは、4Dガウスの時間的および空間的成分を分離し、一次元および四次元行列計算のスライシングを避ける。
提案手法は,マルチビューとモノクロの両方の動的シーンデータセットにおいて,既存の手法よりも優れた動的新規ビュー合成のための新しいベンチマークを設定できる。
- 参考スコア(独自算出の注目度): 19.325184656153727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While dynamic novel view synthesis from 2D videos has seen progress, achieving efficient reconstruction and rendering of dynamic scenes remains a challenging task. In this paper, we introduce Disentangled 4D Gaussian Splatting (Disentangled4DGS), a novel representation and rendering pipeline that achieves real-time performance without compromising visual fidelity. Disentangled4DGS decouples the temporal and spatial components of 4D Gaussians, avoiding the need for slicing first and four-dimensional matrix calculations in prior methods. By projecting temporal and spatial deformations into dynamic 2D Gaussians and deferring temporal processing, we minimize redundant computations of 4DGS. Our approach also features a gradient-guided flow loss and temporal splitting strategy to reduce artifacts. Experiments demonstrate a significant improvement in rendering speed and quality, achieving 343 FPS when render 1352*1014 resolution images on a single RTX3090 while reducing storage requirements by at least 4.5%. Our approach sets a new benchmark for dynamic novel view synthesis, outperforming existing methods on both multi-view and monocular dynamic scene datasets.
- Abstract(参考訳): 2Dビデオからのダイナミック・ノベル・ビュー・シンセサイザーは進歩してきたが、ダイナミック・シーンの効率的な再構築とレンダリングを実現することは難しい課題である。
本稿では,視覚的忠実さを損なうことなく,リアルタイムのパフォーマンスを実現する新しい表現・レンダリングパイプラインであるDisentangled 4D Gaussian Splatting(Disentangled4DGS)を紹介する。
Disentangled4DGSは、4Dガウスの時間的および空間的成分を分離し、以前の方法で1次元と4次元の行列計算をスライスする必要がない。
動的2次元ガウスに時間的および空間的変形を投影し、時間的処理を遅延することにより、4DGSの冗長な計算を最小化する。
提案手法は, 流動損失を勾配に誘導し, 工芸品を減らすための時間分割戦略を特徴とする。
RTX3090に1352*1014解像度の画像をレンダリングすると343 FPSを達成し、ストレージの要求を少なくとも4.5%削減した。
提案手法は,マルチビューとモノクロの両方の動的シーンデータセットにおいて,既存の手法よりも優れた動的新規ビュー合成のための新しいベンチマークを設定できる。
関連論文リスト
- Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - Hybrid 3D-4D Gaussian Splatting for Fast Dynamic Scene Representation [2.7463268699570134]
高忠実度空間および時間変動をモデル化する能力によって, 4DGS (4D Gaussian Splatting) が魅力的なアプローチとして登場した。
動的要素に対して4次元ガウスアンを保ちながら3次元ガウスアンを持つ静的領域を適応的に表現する新しいフレームワークである3D-4D Gaussian Splatting (3D-4DGS)を紹介する。
本手法は,視覚的品質の維持や改善を図りながら,ベースラインの4Dガウススメッティング法と比較して,トレーニング時間を著しく短縮する。
論文 参考訳(メタデータ) (2025-05-19T14:59:58Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [116.2042238179433]
本稿では,動的シーンを非拘束な4次元ボリューム学習問題とみなす。
本研究では,4次元ガウス原始体の集合を対象とした動的シーンを明示的な幾何学的特徴と外観的特徴で表現する。
このアプローチは、下層のフォトリアリスティック時間体積を適合させることで、空間と時間の関連情報をキャプチャすることができる。
特に、我々の4DGSモデルは、複雑なダイナミックシーンのための、高解像度で斬新なビューのリアルタイムレンダリングをサポートする最初のソリューションです。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - MEGA: Memory-Efficient 4D Gaussian Splatting for Dynamic Scenes [49.36091070642661]
本稿では,4DGSのためのメモリ効率フレームワークを提案する。
TechnicolorとNeural 3D Videoのデータセットで約190$times$と125$times$のストレージ削減を実現している。
レンダリング速度とシーン表現の品質を維持し、フィールドに新しい標準を設定する。
論文 参考訳(メタデータ) (2024-10-17T14:47:08Z) - S4D: Streaming 4D Real-World Reconstruction with Gaussians and 3D Control Points [30.46796069720543]
本稿では,離散的な3次元制御点を用いた4次元実世界の再構成をストリーミングする手法を提案する。
この方法は局所光を物理的にモデル化し、運動デカップリング座標系を確立する。
従来のグラフィックスと学習可能なパイプラインを効果的にマージすることにより、堅牢で効率的なローカルな6自由度(6自由度)モーション表現を提供する。
論文 参考訳(メタデータ) (2024-08-23T12:51:49Z) - 4D-Rotor Gaussian Splatting: Towards Efficient Novel View Synthesis for Dynamic Scenes [33.14021987166436]
異方性 4D XYZT Gaussian を用いた動的シーンの表現法である 4DRotorGS を紹介する。
4DRotorGSは空間的時間的表現として、複雑な力学と細部をモデル化する強力な能力を示している。
さらに、3090 GPUで最大277FPS、4090 GPUで最大583FPSのリアルタイムレンダリング速度を達成するために、時間スライシングとアクセラレーションのフレームワークを実装しています。
論文 参考訳(メタデータ) (2024-02-05T18:59:04Z) - DreamGaussian4D: Generative 4D Gaussian Splatting [56.49043443452339]
DG4D(DreamGaussian 4D:DreamGaussian 4D)はGaussian Splatting(GS)をベースとした効率的な4D生成フレームワークである。
我々の重要な洞察は、空間変換の明示的なモデリングと静的GSを組み合わせることで、4次元生成の効率的かつ強力な表現ができるということである。
ビデオ生成手法は、高画質の4D生成を向上し、価値ある時空間前兆を提供する可能性がある。
論文 参考訳(メタデータ) (2023-12-28T17:16:44Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z) - Gaussian-Flow: 4D Reconstruction with Dynamic 3D Gaussian Particle [9.082693946898733]
高速な動的シーン再構成と,マルチビューおよびモノクロビデオからのリアルタイムレンダリングのための新しいポイントベースアプローチを提案する。
学習速度の遅さとレンダリング速度によって妨げられるNeRFベースのアプローチとは対照的に,我々はポイントベース3Dガウススプラッティング(3DGS)の最近の進歩を活用している。
提案手法は,フレームごとの3DGSモデリングと比較して,5倍のトレーニング速度を実現し,大幅な効率向上を実現している。
論文 参考訳(メタデータ) (2023-12-06T11:25:52Z) - 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering [103.32717396287751]
本研究では,動的シーンの全体像として4D-GS(Gaussian Splatting)を提案する。
HexPlaneにインスパイアされたニューラルボクセル符号化アルゴリズムは、4Dニューラルボクセルの機能を効率的に構築するために提案されている。
我々の4D-GS法は、高解像度の82 FPSで、3090 GPUで800$times$800の解像度でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:21:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。