論文の概要: SAGE: Semantic-Driven Adaptive Gaussian Splatting in Extended Reality
- arxiv url: http://arxiv.org/abs/2503.16747v1
- Date: Thu, 20 Mar 2025 23:29:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 15:40:10.231765
- Title: SAGE: Semantic-Driven Adaptive Gaussian Splatting in Extended Reality
- Title(参考訳): SAGE:Semantic-Driven Adaptive Gaussian Splatting in Extended Reality
- Authors: Chiara Schiavo, Elena Camuffo, Leonardo Badia, Simone Milani,
- Abstract要約: セマンティックセグメンテーションによって識別される異なる3DGSオブジェクトのレベル・オブ・ディーテール(LOD)を動的に適応させることにより、ユーザエクスペリエンスを向上させるために設計された新しいフレームワークであるSAGEを紹介する。
実験により、SAGEは目的の視覚的品質を維持しながら、メモリと計算オーバーヘッドを効果的に削減し、インタラクティブなXRアプリケーションに強力な最適化を提供することを示した。
- 参考スコア(独自算出の注目度): 7.317586159352302
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has significantly improved the efficiency and realism of three-dimensional scene visualization in several applications, ranging from robotics to eXtended Reality (XR). This work presents SAGE (Semantic-Driven Adaptive Gaussian Splatting in Extended Reality), a novel framework designed to enhance the user experience by dynamically adapting the Level of Detail (LOD) of different 3DGS objects identified via a semantic segmentation. Experimental results demonstrate how SAGE effectively reduces memory and computational overhead while keeping a desired target visual quality, thus providing a powerful optimization for interactive XR applications.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、ロボット工学からeXtended Reality (XR)まで、いくつかのアプリケーションにおける3次元シーン可視化の効率性とリアリズムを大幅に改善した。
SAGE(Semantic-Driven Adaptive Gaussian Splatting in Extended Reality)は,セマンティックセグメンテーションによって識別される3DGSオブジェクトのレベル・オブ・ディーテール(LOD)を動的に適応させることにより,ユーザエクスペリエンスを向上させるための新しいフレームワークである。
実験により、SAGEは目的の視覚的品質を維持しながら、メモリと計算オーバーヘッドを効果的に削減し、インタラクティブなXRアプリケーションに強力な最適化を提供することを示した。
関連論文リスト
- Creating Virtual Environments with 3D Gaussian Splatting: A Comparative Study [47.11223113086051]
3D Gaussian Splatting (3DGS)は革新的で効率的な3D表現技術として登場した。
仮想環境(VE)生成のための3つの異なる3DGSベースのアプローチについて検討し,その特徴を有効かつ視覚的に魅力的なシーン表現に活用する。
我々は,没入型VEの作成における3DGSの実現可能性を評価し,XRアプリケーションにおけるその限界を特定し,今後の研究開発の機会について論じる。
論文 参考訳(メタデータ) (2025-01-16T05:37:29Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PEP-GS: Perceptually-Enhanced Precise Structured 3D Gaussians for View-Adaptive Rendering [7.1029808965488686]
3D Gaussian Splatting (3D-GS)はリアルタイムで高品質な3Dシーンレンダリングにおいて大きな成功を収めた。
しかし、ガウスの冗長性、ビュー依存効果を捉える能力の制限、複雑な照明と反射の扱いの難しさなど、いくつかの課題に直面している。
PEP-GSは、不透明度、色、共分散を含むガウス属性を動的に予測する知覚的に強化されたフレームワークである。
論文 参考訳(メタデータ) (2024-11-08T17:42:02Z) - L3DG: Latent 3D Gaussian Diffusion [74.36431175937285]
L3DGは3次元ガウス拡散定式化による3次元ガウスの3次元モデリングのための最初のアプローチである。
我々は、部屋の大きさのシーンで効率的に操作するために、スパース畳み込みアーキテクチャーを用いている。
3Dガウス表現を利用することで、生成されたシーンを任意の視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2024-10-17T13:19:32Z) - SuperGS: Super-Resolution 3D Gaussian Splatting Enhanced by Variational Residual Features and Uncertainty-Augmented Learning [6.309174895120047]
Super-Resolution 3DGS (SuperGS) は、2段階の粗大なトレーニングフレームワークで設計された3DGSの拡張である。
SuperGSは、低解像度入力のみを使用して、現実世界と合成データセットの両方で最先端のHRNVSメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-03T15:18:28Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - HGSLoc: 3DGS-based Heuristic Camera Pose Refinement [13.393035855468428]
視覚的ローカライゼーションは、既知のシーン表現内のカメラのポーズと方向を決定するプロセスを指す。
本稿では,3次元再構成と改良戦略を統合したHGSLocを提案する。
提案手法は,NeRFベースのニューラルレンダリング手法と比較して,高速なレンダリング速度とローカライズ精度を示す。
論文 参考訳(メタデータ) (2024-09-17T06:48:48Z) - FlashGS: Efficient 3D Gaussian Splatting for Large-scale and High-resolution Rendering [11.727367585102112]
FlashGSは、3D Gaussian Splattingの効率的な差別化を容易にするように設計されている。
FlashGSの性能評価は、多種多様な合成シーンと実世界の大規模シーンで行われている。
結果は、FlashGSの優れたパフォーマンスとリソース最適化能力を強調し、それを3Dレンダリングの領域における恐ろしいツールとして位置づけた。
論文 参考訳(メタデータ) (2024-08-15T06:27:42Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。