論文の概要: 7DGS: Unified Spatial-Temporal-Angular Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.07946v1
- Date: Tue, 11 Mar 2025 01:16:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 22:35:51.496547
- Title: 7DGS: Unified Spatial-Temporal-Angular Gaussian Splatting
- Title(参考訳): 7DGS: 空間-時間-角のガウス分割
- Authors: Zhongpai Gao, Benjamin Planche, Meng Zheng, Anwesa Choudhuri, Terrence Chen, Ziyan Wu,
- Abstract要約: 本研究では,シーン要素を7次元ガウスとして表現する統一的なフレームワークである7D Gaussian Splatting (7DGS)を提案する。
我々の重要な貢献は、7Dガウスをビューおよびタイムコンディショニングされた3Dガウスに変換する効率的な条件スライシングメカニズムである。
7DGSはリアルタイムレンダリング(401 FPS)を達成しつつ、PSNRで7.36dBまでの先行手法よりも優れていた。
- 参考スコア(独自算出の注目度): 28.764513004699676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time rendering of dynamic scenes with view-dependent effects remains a fundamental challenge in computer graphics. While recent advances in Gaussian Splatting have shown promising results separately handling dynamic scenes (4DGS) and view-dependent effects (6DGS), no existing method unifies these capabilities while maintaining real-time performance. We present 7D Gaussian Splatting (7DGS), a unified framework representing scene elements as seven-dimensional Gaussians spanning position (3D), time (1D), and viewing direction (3D). Our key contribution is an efficient conditional slicing mechanism that transforms 7D Gaussians into view- and time-conditioned 3D Gaussians, maintaining compatibility with existing 3D Gaussian Splatting pipelines while enabling joint optimization. Experiments demonstrate that 7DGS outperforms prior methods by up to 7.36 dB in PSNR while achieving real-time rendering (401 FPS) on challenging dynamic scenes with complex view-dependent effects. The project page is: https://gaozhongpai.github.io/7dgs/.
- Abstract(参考訳): ビュー依存効果を持つ動的シーンのリアルタイムレンダリングは、コンピュータグラフィックスにおける根本的な課題である。
近年のガウススプラッティングの進歩は、動的シーン(4DGS)とビュー依存効果(6DGS)を別々に扱う有望な結果を示しているが、実時間性能を維持しながらこれらの機能を統一する手法は存在しない。
シーン要素を3D、時間(1D)、視野方向(3D)の7次元ガウス分布として表現する7次元ガウス分割(7DGS)を提案する。
我々の重要な貢献は、7Dガウスをビュー・アンド・タイム・コンディショニングされた3Dガウスに変換する効率的な条件スライシング機構であり、既存の3Dガウススティングパイプラインとの互換性を維持しながら、共同最適化を実現している。
実験により、7DGSはPSNRの7.36dBまでの先行手法よりも優れており、複雑なビュー依存効果を持つ動的なシーンのリアルタイムレンダリング(401FPS)を実現している。
プロジェクトページは以下の通り。
関連論文リスト
- Disentangled 4D Gaussian Splatting: Towards Faster and More Efficient Dynamic Scene Rendering [12.27734287104036]
2次元画像から動的シーンを合成する新アンタングルビュー合成(NVS)は重要な課題である。
時間的および空間的変形を両立させる新しい表現・レンダリング手法であるDisentangled 4D Gaussianting(Disentangled4DGS)を導入する。
提案手法は,3090 GPU上での1352times1014$の解像度で,343FPSの平均レンダリング速度を実現している。
論文 参考訳(メタデータ) (2025-03-28T05:46:02Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - 6DGS: Enhanced Direction-Aware Gaussian Splatting for Volumetric Rendering [28.764513004699676]
色と不透明度を表現する6次元ガウス分割法 (6DGS) を導入し, 最適ガウス制御のために, 6次元空間における追加方向情報を活用する。
我々のアプローチは3DGSフレームワークと完全に互換性があり、ビュー依存効果と細部をモデル化することでリアルタイムのレーダランスフィールドレンダリングを大幅に改善する。
論文 参考訳(メタデータ) (2024-10-07T12:16:36Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - 4D-Rotor Gaussian Splatting: Towards Efficient Novel View Synthesis for Dynamic Scenes [33.14021987166436]
異方性 4D XYZT Gaussian を用いた動的シーンの表現法である 4DRotorGS を紹介する。
4DRotorGSは空間的時間的表現として、複雑な力学と細部をモデル化する強力な能力を示している。
さらに、3090 GPUで最大277FPS、4090 GPUで最大583FPSのリアルタイムレンダリング速度を達成するために、時間スライシングとアクセラレーションのフレームワークを実装しています。
論文 参考訳(メタデータ) (2024-02-05T18:59:04Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z) - 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering [103.32717396287751]
本研究では,動的シーンの全体像として4D-GS(Gaussian Splatting)を提案する。
HexPlaneにインスパイアされたニューラルボクセル符号化アルゴリズムは、4Dニューラルボクセルの機能を効率的に構築するために提案されている。
我々の4D-GS法は、高解像度の82 FPSで、3090 GPUで800$times$800の解像度でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:21:41Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。