論文の概要: Neural Texture Splatting: Expressive 3D Gaussian Splatting for View Synthesis, Geometry, and Dynamic Reconstruction
- arxiv url: http://arxiv.org/abs/2511.18873v1
- Date: Mon, 24 Nov 2025 08:26:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.105825
- Title: Neural Texture Splatting: Expressive 3D Gaussian Splatting for View Synthesis, Geometry, and Dynamic Reconstruction
- Title(参考訳): ニューラルテクスチャースメッティング:ビュー合成,幾何学,動的再構成のための3次元ガウススメッティング
- Authors: Yiming Wang, Shaofei Wang, Marko Mihajlovic, Siyu Tang,
- Abstract要約: 3D Gaussian Splatting (3DGS) は高品質な新規ビュー合成の先駆的なアプローチとして現れている。
近年の研究では, 3DGSを原単位のテクスチャなど, 原単位の容量を増大させることが提案されている。
ニューラルテクスチャスティング(NTS)を導入し,多種多様な再構築作業における最先端3DGSのバリエーションを改善する。
- 参考スコア(独自算出の注目度): 20.80508604651125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a leading approach for high-quality novel view synthesis, with numerous variants extending its applicability to a broad spectrum of 3D and 4D scene reconstruction tasks. Despite its success, the representational capacity of 3DGS remains limited by the use of 3D Gaussian kernels to model local variations. Recent works have proposed to augment 3DGS with additional per-primitive capacity, such as per-splat textures, to enhance its expressiveness. However, these per-splat texture approaches primarily target dense novel view synthesis with a reduced number of Gaussian primitives, and their effectiveness tends to diminish when applied to more general reconstruction scenarios. In this paper, we aim to achieve concrete performance improvement over state-of-the-art 3DGS variants across a wide range of reconstruction tasks, including novel view synthesis, geometry and dynamic reconstruction, under both sparse and dense input settings. To this end, we introduce Neural Texture Splatting (NTS). At the core of our approach is a global neural field (represented as a hybrid of a tri-plane and a neural decoder) that predicts local appearance and geometric fields for each primitive. By leveraging this shared global representation that models local texture fields across primitives, we significantly reduce model size and facilitate efficient global information exchange, demonstrating strong generalization across tasks. Furthermore, our neural modeling of local texture fields introduces expressive view- and time-dependent effects, a critical aspect that existing methods fail to account for. Extensive experiments show that Neural Texture Splatting consistently improves models and achieves state-of-the-art results across multiple benchmarks.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は高品質な新規ビュー合成の先駆的なアプローチとして登場し、多くの変種がその適用範囲を広範に3Dおよび4Dシーン再構築タスクにまで広げている。
その成功にもかかわらず、3DGSの表現能力は局所的な変動をモデル化するために3Dガウスカーネルを使用することによって制限されている。
近年の研究では, その表現性を高めるため, 板ごとのテクスチャなどプリミティブ・パー・プリミティブ・キャパシティを3DGSに増やすことが提案されている。
しかし、これらの平板当たりのテクスチャアプローチは、主にガウス原始体を減らした密集した新規なビュー合成をターゲットとしており、より一般的な再構築シナリオに適用した場合、その効果は低下する傾向にある。
本稿では,新しいビュー合成,幾何,動的再構成を含む多種多様な再構成タスクにおいて,疎密な入力設定と密な入力設定の両面において,最先端の3DGS変種に対して具体的な性能向上を実現することを目的とする。
この目的のために,ニューラルテクスチャスティング(NTS)を導入する。
我々のアプローチの核心は、各プリミティブの局所的な外観と幾何学的場を予測する大域的ニューラルネットワーク(三面体と神経デコーダのハイブリッドとして表現される)である。
プリミティブ間の局所的なテクスチャフィールドをモデル化する,この共有グローバル表現を活用することで,モデルサイズを大幅に削減し,グローバル情報交換の効率化を実現し,タスク間の強力な一般化を実証する。
さらに、局所的なテクスチャフィールドのニューラルモデリングは、既存の手法では説明できない重要な側面である、表現的なビューと時間に依存した効果を導入します。
大規模な実験により、Neural Texture Splattingはモデルを一貫して改善し、複数のベンチマークで最先端の結果が得られている。
関連論文リスト
- Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis [22.767866875051013]
本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-02T17:59:46Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。