論文の概要: Splat the Net: Radiance Fields with Splattable Neural Primitives
- arxiv url: http://arxiv.org/abs/2510.08491v1
- Date: Thu, 09 Oct 2025 17:31:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.247632
- Title: Splat the Net: Radiance Fields with Splattable Neural Primitives
- Title(参考訳): Splat the Net:Splattable Neural Primitivesを用いた放射場
- Authors: Xilong Zhou, Bao-Huy Nguyen, Loïc Magne, Vladislav Golyanik, Thomas Leimkühler, Christian Theobalt,
- Abstract要約: 安定なニューラルプリミティブは、プリミティブベースのスプレイティングの効率でニューラルモデルの表現性を調整します。
私たちの表現は、高価な光線マーチングを必要とせずに、ビュー線に沿った統合をサポートします。
- 参考スコア(独自算出の注目度): 64.84677516748998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiance fields have emerged as a predominant representation for modeling 3D scene appearance. Neural formulations such as Neural Radiance Fields provide high expressivity but require costly ray marching for rendering, whereas primitive-based methods such as 3D Gaussian Splatting offer real-time efficiency through splatting, yet at the expense of representational power. Inspired by advances in both these directions, we introduce splattable neural primitives, a new volumetric representation that reconciles the expressivity of neural models with the efficiency of primitive-based splatting. Each primitive encodes a bounded neural density field parameterized by a shallow neural network. Our formulation admits an exact analytical solution for line integrals, enabling efficient computation of perspectively accurate splatting kernels. As a result, our representation supports integration along view rays without the need for costly ray marching. The primitives flexibly adapt to scene geometry and, being larger than prior analytic primitives, reduce the number required per scene. On novel-view synthesis benchmarks, our approach matches the quality and speed of 3D Gaussian Splatting while using $10\times$ fewer primitives and $6\times$ fewer parameters. These advantages arise directly from the representation itself, without reliance on complex control or adaptation frameworks. The project page is https://vcai.mpi-inf.mpg.de/projects/SplatNet/.
- Abstract(参考訳): 放射場は3Dシーンの外観をモデル化するための主要な表現として現れている。
ニューラル・ラディアンス・フィールドのようなニューラルな定式化は高い表現性を提供するがレンダリングには高価な光線マーチングを必要とするが、3Dガウス・スプラッティングのような原始的手法はスプラッティングによるリアルタイムな効率性を提供するが、表現力の犠牲になる。
両方向の進歩に触発されて、我々は、原始的スプラッティングの効率性とニューラルモデルの表現性を調和させる新しい容積表現であるスプラッタブルニューラルプリミティブを導入した。
各プリミティブは、浅いニューラルネットワークによってパラメータ化された有界ニューラルネットワーク密度場を符号化する。
我々の定式化は、ライン積分の正確な解析解を認め、視点的に正確なスプレイティングカーネルの効率的な計算を可能にする。
結果として、当社の表現は、高価な光線マーチングを必要とせずに、ビュー線に沿った統合をサポートします。
プリミティブはシーンの幾何学に柔軟に適応し、以前の分析プリミティブよりも大きいため、シーンごとに必要となる数を削減できる。
ノベルビュー合成ベンチマークにおいて,本手法はプリミティブを10倍に,パラメータを6倍に減らしながら,3次元ガウススプラッティングの品質と速度を比較検討した。
これらの利点は、複雑な制御や適応フレームワークに頼ることなく、表現そのものから直接生じます。
プロジェクトページはhttps://vcai.mpi-inf.mpg.de/projects/SplatNet/。
関連論文リスト
- Triangle Splatting+: Differentiable Rendering with Opaque Triangles [54.18495204764292]
微分可能なスティングフレームワーク内での三角形を直接最適化するTriangle Splatting+を導入する。
本手法は, 視覚的忠実度において, より効率的かつ高速なトレーニングを継続しながら, 従来のスプレイティング手法を超越した手法である。
結果として生じるセミコネクテッドメッシュは、物理ベースのシミュレーションやインタラクティブなウォークスルーのような下流のアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-09-29T17:43:46Z) - Vertex Features for Neural Global Illumination [21.57826395764302]
明示的なメッシュ表面を含むニューラルレンダリングタスクのための学習可能な表現の一般化された定式化であるニューラル特徴を示す。
我々は、様々なニューラルレンダリングタスクにおける神経表現を、特にニューラルラジオシティに重点を置いて検証する。
論文 参考訳(メタデータ) (2025-08-11T11:10:19Z) - AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views [68.94737256959661]
AnySplatは、未校正画像コレクションから新しいビューを合成するためのフィードフォワードネットワークである。
単一のフォワードパスは、シーン幾何学と外観の両方をコードする3Dガウスプリミティブのセットを生成する。
広範囲なゼロショット評価では、AnySplatはスパースと高密度の両方のビューシナリオにおいて、ポーズを意識するベースラインの品質にマッチする。
論文 参考訳(メタデータ) (2025-05-29T17:49:56Z) - Triangle Splatting for Real-Time Radiance Field Rendering [96.8143602720977]
我々は、エンドツーエンドの勾配によって直接三角形を最適化する微分可能を開発する。
一般的な2次元および3次元ガウススプラッティング法と比較すると,本手法は高い視覚的忠実度,より高速な収束,レンダリングスループットの向上を実現している。
textitGardenのシーンでは、オフザシェルフメッシュを使用して1280x720の解像度で2,400 FPSを達成しています。
論文 参考訳(メタデータ) (2025-05-25T14:47:10Z) - GNF: Gaussian Neural Fields for Multidimensional Signal Representation and Reconstruction [14.017980888709843]
本稿では,学習した特徴格子を連続した非線形信号にマッピングする,コンパクトなニューラルデコーダを提案する。
合成に基づくデコーダを中心となるガウスカーネルに置き換えることで、2D(RGB)、3D(幾何学)、5D(放射場)信号の高精度な表現が得られることを示す。
論文 参考訳(メタデータ) (2025-03-09T20:36:45Z) - DeSplat: Decomposed Gaussian Splatting for Distractor-Free Rendering [18.72451738333928]
DeSplatは、ガウスプリミティブのボリュームレンダリングに基づいて、気晴らしと静的なシーン要素を純粋に分離する新しい方法である。
本稿では,3つのベンチマークデータセットに対してDeSplatの有効性を示す。
論文 参考訳(メタデータ) (2024-11-29T15:00:38Z) - VR-Splatting: Foveated Radiance Field Rendering via 3D Gaussian Splatting and Neural Points [4.962171160815189]
本稿では,パフォーマンススイートスポットに関する両点描画方向の長所を結合した,新しいハイブリッドアプローチを提案する。
焦点のみの場合、我々は小さなピクセルフットプリントのために畳み込みニューラルネットワークでニューラルネットワークを使用し、鋭く詳細な出力を提供する。
提案手法は,標準的なVR対応3DGS構成と比較して,シャープネスとディテールが向上することを確認した。
論文 参考訳(メタデータ) (2024-10-23T14:54:48Z) - N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。