論文の概要: From Fields to Splats: A Cross-Domain Survey of Real-Time Neural Scene Representations
- arxiv url: http://arxiv.org/abs/2509.23555v1
- Date: Sun, 28 Sep 2025 01:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.287073
- Title: From Fields to Splats: A Cross-Domain Survey of Real-Time Neural Scene Representations
- Title(参考訳): フィールドからスプレートへ:リアルタイムなニューラルシーン表現のクロスドメイン調査
- Authors: Javed Ahmad, Penggang Gao, Donatien Delehelle, Mennuti Canio, Nikhil Deshpande, Jesús Ortiz, Darwin G. Caldwell, Yonas Teodros Tefera,
- Abstract要約: この調査は、SLAM、テレプレゼンスと遠隔操作、ロボット操作、および3Dコンテンツ生成において、3DGSがどのように採用されているかを調べる。
3DGSがNeRFベースのアプローチに取って代わりつつある理由を説明する統一された研究質問に関するレビューをまとめる。
- 参考スコア(独自算出の注目度): 3.7916844201864293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural scene representations such as Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have transformed how 3D environments are modeled, rendered, and interpreted. NeRF introduced view-consistent photorealism via volumetric rendering; 3DGS has rapidly emerged as an explicit, efficient alternative that supports high-quality rendering, faster optimization, and integration into hybrid pipelines for enhanced photorealism and task-driven scene understanding. This survey examines how 3DGS is being adopted across SLAM, telepresence and teleoperation, robotic manipulation, and 3D content generation. Despite their differences, these domains share common goals: photorealistic rendering, meaningful 3D structure, and accurate downstream tasks. We organize the review around unified research questions that explain why 3DGS is increasingly displacing NeRF-based approaches: What technical advantages drive its adoption? How does it adapt to different input modalities and domain-specific constraints? What limitations remain? By systematically comparing domain-specific pipelines, we show that 3DGS balances photorealism, geometric fidelity, and computational efficiency. The survey offers a roadmap for leveraging neural rendering not only for image synthesis but also for perception, interaction, and content creation across real and virtual environments.
- Abstract(参考訳): Neural Radiance Fields (NeRF) や 3D Gaussian Splatting (3DGS) といったニューラルシーンの表現は、3D環境のモデル化、レンダリング、解釈の仕方を変えてきた。
3DGSは、ハイクオリティなレンダリング、最適化の高速化、フォトリアリズムの強化とタスク駆動のシーン理解のためのハイブリッドパイプラインへの統合をサポートする、明示的で効率的な代替手段として急速に登場した。
この調査は、SLAM、テレプレゼンスと遠隔操作、ロボット操作、および3Dコンテンツ生成において、3DGSがどのように採用されているかを調べる。
それらの相違にもかかわらず、これらのドメインは、フォトリアリスティックレンダリング、意味のある3D構造、正確な下流タスクといった共通の目標を共有している。
我々は、なぜ3DGSがNeRFベースのアプローチに取って代わりつつあるのかを説明する統一された研究質問に関するレビューをまとめている。
異なる入力モダリティとドメイン固有の制約にどのように適応しますか?
どんな制限が残っているのか?
ドメイン固有のパイプラインを体系的に比較することにより、3DGSは光リアリズム、幾何学的忠実度、計算効率のバランスをとることを示す。
この調査は、画像合成だけでなく、実環境と仮想環境をまたいだ知覚、相互作用、コンテンツ生成にもニューラルネットワークを活用するロードマップを提供する。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GSDF: 3DGS Meets SDF for Improved Rendering and Reconstruction [20.232177350064735]
フレキシブルで効率的な3次元ガウス分割表現とニューラルサイン付き距離場(SDF)の利点を組み合わせた新しいデュアルブランチアーキテクチャを提案する。
我々のデザインがより正確で詳細な表面再構成の可能性を解き放つ多様なシーンを示す。
論文 参考訳(メタデータ) (2024-03-25T17:22:11Z) - A Survey on 3D Gaussian Splatting [61.50539646390613]
3D Gaussian splatting (GS) は、明示的な放射場とコンピュータグラフィックスの変換技術として登場した。
本稿では,3D GSの領域における最近の発展と重要な貢献について,初めて体系的に概説する。
前例のないレンダリング速度を実現することで、3D GSは、仮想現実からインタラクティブメディアなど、数多くのアプリケーションを開くことができる。
論文 参考訳(メタデータ) (2024-01-08T13:42:59Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z) - RGB-D Mapping and Tracking in a Plenoxel Radiance Field [5.239559610798646]
ビュー合成モデルと3次元再構成モデルの間に重要な相違点を示す。
また、一般的な外向きのシーンにおける正確な幾何学をモデル化するために、奥行きセンサが不可欠である理由についてもコメントする。
提案手法は,タスクのマッピングと追跡を両立させるとともに,競合するニューラルネットワークのアプローチよりも高速である。
論文 参考訳(メタデータ) (2023-07-07T06:05:32Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。