論文の概要: Nexels: Neurally-Textured Surfels for Real-Time Novel View Synthesis with Sparse Geometries
- arxiv url: http://arxiv.org/abs/2512.13796v1
- Date: Mon, 15 Dec 2025 19:00:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.44851
- Title: Nexels: Neurally-Textured Surfels for Real-Time Novel View Synthesis with Sparse Geometries
- Title(参考訳): ネクセル:スパークジオメトリーを用いたリアルタイム新しいビュー合成のためのニューラルコンディショニングサーファー
- Authors: Victor Rong, Jan Held, Victor Chu, Daniel Rebain, Marc Van Droogenbroeck, Kiriakos N. Kutulakos, Andrea Tagliasacchi, David B. Lindell,
- Abstract要約: 我々は、点ベースのレンダリングを超えて、幾何学と外観を分離する表現を提案する。
幾何にはサーベイルを使用し、外見には大域的神経場と原始的色の組み合わせを用いる。
- 参考スコア(独自算出の注目度): 46.04593206769906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Though Gaussian splatting has achieved impressive results in novel view synthesis, it requires millions of primitives to model highly textured scenes, even when the geometry of the scene is simple. We propose a representation that goes beyond point-based rendering and decouples geometry and appearance in order to achieve a compact representation. We use surfels for geometry and a combination of a global neural field and per-primitive colours for appearance. The neural field textures a fixed number of primitives for each pixel, ensuring that the added compute is low. Our representation matches the perceptual quality of 3D Gaussian splatting while using $9.7\times$ fewer primitives and $5.5\times$ less memory on outdoor scenes and using $31\times$ fewer primitives and $3.7\times$ less memory on indoor scenes. Our representation also renders twice as fast as existing textured primitives while improving upon their visual quality.
- Abstract(参考訳): ガウスのスプレイティングは、新しいビュー合成において印象的な成果を上げてきたが、シーンの幾何学が単純であっても、高度にテクスチャ化されたシーンをモデル化するためには、数百万のプリミティブが必要である。
本稿では、コンパクトな表現を実現するために、点ベースのレンダリングを超えて幾何学と外観を分離する表現を提案する。
幾何にはサーベイルを使用し、外見には大域的神経場と原始的色の組み合わせを用いる。
ニューラルネットワークは各ピクセルに対する固定数のプリミティブをテクスチャ化し、加算された計算量が低いことを保証します。
我々の表現は、9.7\times$プリミティブと5.5\times$アウトドアシーンのメモリを減らし、31\times$プリミティブを減らし3.7\times$屋内シーンのメモリを減らしながら、3Dガウスのスプラッティングの知覚品質と一致している。
私たちの表現は、その視覚的品質を改善しながら、既存のテクスチャ化されたプリミティブの2倍の速さでレンダリングします。
関連論文リスト
- Splat the Net: Radiance Fields with Splattable Neural Primitives [64.84677516748998]
安定なニューラルプリミティブは、プリミティブベースのスプレイティングの効率でニューラルモデルの表現性を調整します。
私たちの表現は、高価な光線マーチングを必要とせずに、ビュー線に沿った統合をサポートします。
論文 参考訳(メタデータ) (2025-10-09T17:31:11Z) - Triangle Splatting+: Differentiable Rendering with Opaque Triangles [54.18495204764292]
微分可能なスティングフレームワーク内での三角形を直接最適化するTriangle Splatting+を導入する。
本手法は, 視覚的忠実度において, より効率的かつ高速なトレーニングを継続しながら, 従来のスプレイティング手法を超越した手法である。
結果として生じるセミコネクテッドメッシュは、物理ベースのシミュレーションやインタラクティブなウォークスルーのような下流のアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-09-29T17:43:46Z) - AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views [68.94737256959661]
AnySplatは、未校正画像コレクションから新しいビューを合成するためのフィードフォワードネットワークである。
単一のフォワードパスは、シーン幾何学と外観の両方をコードする3Dガウスプリミティブのセットを生成する。
広範囲なゼロショット評価では、AnySplatはスパースと高密度の両方のビューシナリオにおいて、ポーズを意識するベースラインの品質にマッチする。
論文 参考訳(メタデータ) (2025-05-29T17:49:56Z) - Triangle Splatting for Real-Time Radiance Field Rendering [96.8143602720977]
我々は、エンドツーエンドの勾配によって直接三角形を最適化する微分可能を開発する。
一般的な2次元および3次元ガウススプラッティング法と比較すると,本手法は高い視覚的忠実度,より高速な収束,レンダリングスループットの向上を実現している。
textitGardenのシーンでは、オフザシェルフメッシュを使用して1280x720の解像度で2,400 FPSを達成しています。
論文 参考訳(メタデータ) (2025-05-25T14:47:10Z) - BillBoard Splatting (BBSplat): Learnable Textured Primitives for Novel View Synthesis [24.094129395653134]
本稿では, テクスチャ化された幾何学的プリミティブに基づく新しいビュー合成手法として, BBSplat(Billboard Splatting)を提案する。
BBSplatはこのシーンを、学習可能なRGBテクスチャと、その形状を制御するアルファマップを備えた、最適化可能なテクスチャ化された平面プリミティブのセットとして表現している。
論文 参考訳(メタデータ) (2024-11-13T10:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。