論文の概要: L3GS: Layered 3D Gaussian Splats for Efficient 3D Scene Delivery
- arxiv url: http://arxiv.org/abs/2504.05517v1
- Date: Mon, 07 Apr 2025 21:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 03:36:33.325492
- Title: L3GS: Layered 3D Gaussian Splats for Efficient 3D Scene Delivery
- Title(参考訳): L3GS: 効率的な3Dシーン配信のための3Dガウススプラッター
- Authors: Yi-Zhen Tsai, Xuechen Zhang, Zheng Li, Jiasi Chen,
- Abstract要約: 3D Gaussian splats (3DGS) は両世界のベストを達成でき、高い視覚的品質とリアルタイムフレームレートの効率的なレンダリングを実現している。
この作業の目的は、3DGSを基盤とした高品質な3Dシーンを基盤となるデータ表現として見ることができる、効率的な3Dコンテンツ配信フレームワークを作ることである。
- 参考スコア(独自算出の注目度): 10.900680596540377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional 3D content representations include dense point clouds that consume large amounts of data and hence network bandwidth, while newer representations such as neural radiance fields suffer from poor frame rates due to their non-standard volumetric rendering pipeline. 3D Gaussian splats (3DGS) can be seen as a generalization of point clouds that meet the best of both worlds, with high visual quality and efficient rendering for real-time frame rates. However, delivering 3DGS scenes from a hosting server to client devices is still challenging due to high network data consumption (e.g., 1.5 GB for a single scene). The goal of this work is to create an efficient 3D content delivery framework that allows users to view high quality 3D scenes with 3DGS as the underlying data representation. The main contributions of the paper are: (1) Creating new layered 3DGS scenes for efficient delivery, (2) Scheduling algorithms to choose what splats to download at what time, and (3) Trace-driven experiments from users wearing virtual reality headsets to evaluate the visual quality and latency. Our system for Layered 3D Gaussian Splats delivery L3GS demonstrates high visual quality, achieving 16.9% higher average SSIM compared to baselines, and also works with other compressed 3DGS representations.
- Abstract(参考訳): 従来の3Dコンテンツ表現には、大量のデータを消費し、従ってネットワーク帯域幅を消費する高密度な点雲が含まれているが、ニューラルラディアンスフィールドのような新しい表現は、非標準ボリュームレンダリングパイプラインによってフレームレートが低下する。
3D Gaussian splats (3DGS) は、両方の世界の最良を満たす点雲の一般化であり、高い視覚的品質とリアルタイムフレームレートの効率的なレンダリングであると見なすことができる。
しかし、ホスティングサーバからクライアントデバイスに3DGSのシーンを配信することは、高いネットワークデータ消費(例えば、1つのシーンで1.5GB)のために依然として困難である。
この作業の目的は、3DGSを基盤とした高品質な3Dシーンを基盤となるデータ表現として見ることができる効率的な3Dコンテンツ配信フレームワークを作ることである。
本論文の主なコントリビューションは,(1)高効率配信のための新しい3DGSシーンの作成,(2)どのスプラペットをいつダウンロードするかをスケジューリングするアルゴリズム,(3)VRヘッドセットを装着したユーザのトレース駆動による視覚的品質と遅延の評価である。
階層型3Dガウススプラッツ配信システムL3GSは,ベースラインよりも平均SSIMが16.9%高く,他の圧縮された3DGS表現と協調して動作する。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - S3R-GS: Streamlining the Pipeline for Large-Scale Street Scene Reconstruction [58.37746062258149]
3D Gaussian Splatting(3DGS)は、3D再構成の分野を変え、素晴らしいレンダリング品質とスピードを実現した。
既存の手法では、シーンサイズが大きくなるにつれて、ビューポイント当たりの再生コストが急速に増大する。
大規模なストリートシーン再構築のためのパイプラインをストリーム化する3DGSフレームワークであるS3R-GSを提案する。
論文 参考訳(メタデータ) (2025-03-11T09:37:13Z) - UniGS: Unified Language-Image-3D Pretraining with Gaussian Splatting [68.37013525040891]
マルチモーダルプレトレーニングに3Dガウススティング(3DGS)を組み込んだUniGSを提案する。
より汎用的で強力なマルチモーダル表現の学習におけるUniGSの有効性を実証する。
論文 参考訳(メタデータ) (2025-02-25T05:10:22Z) - EGSRAL: An Enhanced 3D Gaussian Splatting based Renderer with Automated Labeling for Large-Scale Driving Scene [19.20846992699852]
EGSRALは3D GSベースの手法で、追加のアノテーションを使わずに画像のトレーニングにのみ依存する。
EGSRALは、動的オブジェクトと静的バックグラウンドの両方をモデル化する3D GSの機能を強化する。
また,大規模な複雑なシーンをレンダリングする際の視点問題に対処するために,バニラ3D GSのグルーピング戦略を提案する。
論文 参考訳(メタデータ) (2024-12-20T04:21:54Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields [13.729716867839509]
ハイパフォーマンスを維持しつつガウスの数を著しく削減する学習可能なマスク戦略を提案する。
さらに、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2024-08-07T14:56:34Z) - WildGaussians: 3D Gaussian Splatting in the Wild [80.5209105383932]
3DGSによる閉塞や外見の変化に対処する新しいアプローチであるWildGaussiansを紹介した。
我々はWildGaussianが3DGSとNeRFのベースラインを越えながら3DGSのリアルタイムレンダリング速度と一致していることを示す。
論文 参考訳(メタデータ) (2024-07-11T12:41:32Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Gaussian Splatting Decoder for 3D-aware Generative Adversarial Networks [10.207899254360374]
NeRFをベースとしたGAN(Generative Adversarial Networks)は非常に高いレンダリング品質を示す。
Neural Radiance Fieldsによるレンダリングは、3Dアプリケーションに課題をもたらす。
我々は、NeRFベースの3D対応GANの高レンダリング品質と3DGSの柔軟性と計算上の利点を組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-16T14:48:40Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。