論文の概要: PRoGS: Progressive Rendering of Gaussian Splats
- arxiv url: http://arxiv.org/abs/2409.01761v1
- Date: Tue, 3 Sep 2024 10:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 02:01:57.489137
- Title: PRoGS: Progressive Rendering of Gaussian Splats
- Title(参考訳): PRoGS: ガウスプレートのプログレッシブレンダリング
- Authors: Brent Zoomers, Maarten Wijnants, Ivan Molenaers, Joni Vanherck, Jeroen Put, Lode Jorissen, Nick Michiels,
- Abstract要約: 3D Gaussian Splatting(3DGS)は、3Dシーンを知覚的に正確に表現できることから注目されている。
各スプラットの個々のデータを格納する必要があるため、かなりの量のストレージが必要になる。
最終シーンに近づいた可視コンテンツを表示することを目的として,このようなシーンを段階的にレンダリングする新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.4868683179698627
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the past year, 3D Gaussian Splatting (3DGS) has received significant attention for its ability to represent 3D scenes in a perceptually accurate manner. However, it can require a substantial amount of storage since each splat's individual data must be stored. While compression techniques offer a potential solution by reducing the memory footprint, they still necessitate retrieving the entire scene before any part of it can be rendered. In this work, we introduce a novel approach for progressively rendering such scenes, aiming to display visible content that closely approximates the final scene as early as possible without loading the entire scene into memory. This approach benefits both on-device rendering applications limited by memory constraints and streaming applications where minimal bandwidth usage is preferred. To achieve this, we approximate the contribution of each Gaussian to the final scene and construct an order of prioritization on their inclusion in the rendering process. Additionally, we demonstrate that our approach can be combined with existing compression methods to progressively render (and stream) 3DGS scenes, optimizing bandwidth usage by focusing on the most important splats within a scene. Overall, our work establishes a foundation for making remotely hosted 3DGS content more quickly accessible to end-users in over-the-top consumption scenarios, with our results showing significant improvements in quality across all metrics compared to existing methods.
- Abstract(参考訳): 過去1年間に3Dガウススティング(3DGS)は、3Dシーンを知覚的に正確に表現する能力において大きな注目を集めてきた。
しかし、各スプラットの個々のデータを格納する必要があるため、かなりの量のストレージを必要とする可能性がある。
圧縮技術はメモリフットプリントを減らすことで潜在的な解決策を提供するが、レンダリングする前にシーン全体を検索する必要がある。
本研究では、シーン全体をメモリにロードすることなく、最終シーンをできるだけ早く近似した可視コンテンツを表示することを目的として、これらのシーンを段階的にレンダリングする新しいアプローチを提案する。
このアプローチは、メモリ制約に制限されたデバイス上のレンダリングアプリケーションと、帯域幅の最小化が望ましいストリーミングアプリケーションの両方に有効である。
これを実現するために、各ガウスの最終的なシーンへの貢献を近似し、レンダリングプロセスへの含意に基づいて優先順位付けの順序を構築する。
さらに,本手法を既存の圧縮手法と組み合わせて3DGSシーンをプログレッシブにレンダリング(およびストリーム)し,シーン内の最も重要なスプラペットに着目して帯域幅を最適化できることを実証した。
全体として、我々の研究は、リモートでホストされた3DGSコンテンツを、オーバー・ザ・トップの消費シナリオにおいてエンドユーザーにより迅速にアクセスできるようにする基盤を確立しています。
関連論文リスト
- A Hierarchical 3D Gaussian Representation for Real-Time Rendering of Very Large Datasets [45.13531064740826]
非常に大きなシーンの視覚的品質を保った3次元ガウスの階層構造を導入する。
遠隔コンテンツの効率的なレンダリングのための効率的なレベル・オブ・ディーテール(LOD)ソリューションを提供する。
単純で手頃な価格のリグで、最大数万の画像をキャプチャしたシーンの結果を示す。
論文 参考訳(メタデータ) (2024-06-17T20:40:18Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本稿では,現在のアプローチよりも優れた空間感性プルーニングスコアを提案する。
また,事前学習した任意の3D-GSモデルに適用可能なマルチラウンドプルーファインパイプラインを提案する。
我々のパイプラインは、3D-GSの平均レンダリング速度を2.65$times$で増加させ、より健全なフォアグラウンド情報を保持します。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [64.6687065215713]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - 3D Scene Compression through Entropy Penalized Neural Representation
Functions [19.277502420759653]
新しいビジュアルメディアは、元のビューの離散セットを補間することにより、視聴者が任意の視点から3dシーンを探索できるようにする。
これらのタイプのアプリケーションには、はるかに大量のストレージスペースが必要です。
3Dシーンを圧縮するための既存のアプローチは、圧縮とレンダリングの分離に基づいている。
我々は、空間座標を放射ベクトル場にマッピングする関数であるシーンの暗黙の表現を直接圧縮することでこれらのステップを統一し、任意の視点を描画するためにクエリすることができる。
本手法はシーン圧縮の最先端手法を著しく上回り,同時に高品質な再構成を実現する。
論文 参考訳(メタデータ) (2021-04-26T10:36:47Z) - Efficient Scene Compression for Visual-based Localization [5.575448433529451]
3D再構成やシーン表現に関してカメラのポーズを推定することは、多くの複合現実とロボティクスアプリケーションにとって重要なステップである。
本研究では,制約付き二次プログラム(QP)を用いてシーン表現を圧縮する新しい手法を提案する。
公開データセットを用いた実験により,提案手法はシーン表現を高速に圧縮し,正確なポーズ推定を行うことを示す。
論文 参考訳(メタデータ) (2020-11-27T18:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。