論文の概要: L3GS: Layered 3D Gaussian Splats for Efficient 3D Scene Delivery
- arxiv url: http://arxiv.org/abs/2504.05517v1
- Date: Mon, 07 Apr 2025 21:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:28:12.846810
- Title: L3GS: Layered 3D Gaussian Splats for Efficient 3D Scene Delivery
- Title(参考訳): L3GS: 効率的な3Dシーン配信のための3Dガウススプラッター
- Authors: Yi-Zhen Tsai, Xuechen Zhang, Zheng Li, Jiasi Chen,
- Abstract要約: 3D Gaussian splats (3DGS) は両世界のベストを達成でき、高い視覚的品質とリアルタイムフレームレートの効率的なレンダリングを実現している。
この作業の目的は、3DGSを基盤とした高品質な3Dシーンを基盤となるデータ表現として見ることができる、効率的な3Dコンテンツ配信フレームワークを作ることである。
- 参考スコア(独自算出の注目度): 10.900680596540377
- License:
- Abstract: Traditional 3D content representations include dense point clouds that consume large amounts of data and hence network bandwidth, while newer representations such as neural radiance fields suffer from poor frame rates due to their non-standard volumetric rendering pipeline. 3D Gaussian splats (3DGS) can be seen as a generalization of point clouds that meet the best of both worlds, with high visual quality and efficient rendering for real-time frame rates. However, delivering 3DGS scenes from a hosting server to client devices is still challenging due to high network data consumption (e.g., 1.5 GB for a single scene). The goal of this work is to create an efficient 3D content delivery framework that allows users to view high quality 3D scenes with 3DGS as the underlying data representation. The main contributions of the paper are: (1) Creating new layered 3DGS scenes for efficient delivery, (2) Scheduling algorithms to choose what splats to download at what time, and (3) Trace-driven experiments from users wearing virtual reality headsets to evaluate the visual quality and latency. Our system for Layered 3D Gaussian Splats delivery L3GS demonstrates high visual quality, achieving 16.9% higher average SSIM compared to baselines, and also works with other compressed 3DGS representations.
- Abstract(参考訳): 従来の3Dコンテンツ表現には、大量のデータを消費し、従ってネットワーク帯域幅を消費する高密度な点雲が含まれているが、ニューラルラディアンスフィールドのような新しい表現は、非標準ボリュームレンダリングパイプラインによってフレームレートが低下する。
3D Gaussian splats (3DGS) は、両方の世界の最良を満たす点雲の一般化であり、高い視覚的品質とリアルタイムフレームレートの効率的なレンダリングであると見なすことができる。
しかし、ホスティングサーバからクライアントデバイスに3DGSのシーンを配信することは、高いネットワークデータ消費(例えば、1つのシーンで1.5GB)のために依然として困難である。
この作業の目的は、3DGSを基盤とした高品質な3Dシーンを基盤となるデータ表現として見ることができる効率的な3Dコンテンツ配信フレームワークを作ることである。
本論文の主なコントリビューションは,(1)高効率配信のための新しい3DGSシーンの作成,(2)どのスプラペットをいつダウンロードするかをスケジューリングするアルゴリズム,(3)VRヘッドセットを装着したユーザのトレース駆動による視覚的品質と遅延の評価である。
階層型3Dガウススプラッツ配信システムL3GSは,ベースラインよりも平均SSIMが16.9%高く,他の圧縮された3DGS表現と協調して動作する。
関連論文リスト
- EGSRAL: An Enhanced 3D Gaussian Splatting based Renderer with Automated Labeling for Large-Scale Driving Scene [19.20846992699852]
EGSRALは3D GSベースの手法で、追加のアノテーションを使わずに画像のトレーニングにのみ依存する。
EGSRALは、動的オブジェクトと静的バックグラウンドの両方をモデル化する3D GSの機能を強化する。
また,大規模な複雑なシーンをレンダリングする際の視点問題に対処するために,バニラ3D GSのグルーピング戦略を提案する。
論文 参考訳(メタデータ) (2024-12-20T04:21:54Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields [13.729716867839509]
ハイパフォーマンスを維持しつつガウスの数を著しく削減する学習可能なマスク戦略を提案する。
さらに、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2024-08-07T14:56:34Z) - WildGaussians: 3D Gaussian Splatting in the Wild [80.5209105383932]
3DGSによる閉塞や外見の変化に対処する新しいアプローチであるWildGaussiansを紹介した。
我々はWildGaussianが3DGSとNeRFのベースラインを越えながら3DGSのリアルタイムレンダリング速度と一致していることを示す。
論文 参考訳(メタデータ) (2024-07-11T12:41:32Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Gaussian Splatting Decoder for 3D-aware Generative Adversarial Networks [10.207899254360374]
NeRFをベースとしたGAN(Generative Adversarial Networks)は非常に高いレンダリング品質を示す。
Neural Radiance Fieldsによるレンダリングは、3Dアプリケーションに課題をもたらす。
我々は、NeRFベースの3D対応GANの高レンダリング品質と3DGSの柔軟性と計算上の利点を組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-16T14:48:40Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。