論文の概要: Universal Beta Splatting
- arxiv url: http://arxiv.org/abs/2510.03312v1
- Date: Tue, 30 Sep 2025 22:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.742289
- Title: Universal Beta Splatting
- Title(参考訳): Universal Beta Splatting
- Authors: Rong Liu, Zhongpai Gao, Benjamin Planche, Meida Chen, Van Nguyen Nguyen, Meng Zheng, Anwesa Choudhuri, Terrence Chen, Yue Wang, Andrew Feng, Ziyan Wu,
- Abstract要約: 我々は,3次元ガウススプラッティングをN次元異方性ベータカーネルに一般化し,明示的な放射場レンダリングを行う統一フレームワークを開発した。
提案手法は、複雑な光輸送効果を捉え、異方性ビュー依存の外観を扱い、補助的なネットワークや特定の色エンコーディングを必要とせずにシーンダイナミクスをモデル化する。
- 参考スコア(独自算出の注目度): 29.658237482190682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Universal Beta Splatting (UBS), a unified framework that generalizes 3D Gaussian Splatting to N-dimensional anisotropic Beta kernels for explicit radiance field rendering. Unlike fixed Gaussian primitives, Beta kernels enable controllable dependency modeling across spatial, angular, and temporal dimensions within a single representation. Our unified approach captures complex light transport effects, handles anisotropic view-dependent appearance, and models scene dynamics without requiring auxiliary networks or specific color encodings. UBS maintains backward compatibility by approximating to Gaussian Splatting as a special case, guaranteeing plug-in usability and lower performance bounds. The learned Beta parameters naturally decompose scene properties into interpretable without explicit supervision: spatial (surface vs. texture), angular (diffuse vs. specular), and temporal (static vs. dynamic). Our CUDA-accelerated implementation achieves real-time rendering while consistently outperforming existing methods across static, view-dependent, and dynamic benchmarks, establishing Beta kernels as a scalable universal primitive for radiance field rendering. Our project website is available at https://rongliu-leo.github.io/universal-beta-splatting/.
- Abstract(参考訳): 我々は,3次元ガウススプラッティングをN次元異方性ベータカーネルに一般化した統一フレームワークであるUniversal Beta Splatting (UBS)を紹介した。
固定ガウスプリミティブとは異なり、ベータカーネルは1つの表現内の空間的、角的、時間的次元にわたって制御可能な依存性モデリングを可能にする。
我々の統一的なアプローチは、複雑な光輸送効果を捉え、異方性に依存した外観を扱い、補助的なネットワークや特定の色エンコーディングを必要とせずにシーンダイナミクスをモデル化する。
UBSは、特別なケースとしてガウススプラッティングに近似することで後方互換性を維持し、プラグインのユーザビリティと性能の低いバウンダリを保証する。
学習したベータパラメータは、空間的(表面対テクスチャ)、角的(拡散対スペキュラ)、時間的(静的対動的)という明示的な監督なしに、自然にシーンプロパティを解釈可能に分解する。
我々のCUDA高速化実装は、静的、ビュー依存、動的ベンチマークで既存のメソッドを一貫して上回りながらリアルタイムレンダリングを実現し、レーダランスフィールドレンダリングのためのスケーラブルなユニバーサルプリミティブとしてベータカーネルを確立する。
プロジェクトのWebサイトはhttps://rongliu-leo.github.io/Universal-beta-splatting/で公開されている。
関連論文リスト
- Efficient Gaussian Splatting for Monocular Dynamic Scene Rendering via Sparse Time-Variant Attribute Modeling [64.84686527988809]
Deformable Gaussian Splattingは、現実世界のダイナミックなシーンを表現する堅牢なソリューションとして登場した。
提案手法は,古典的カーネル表現を用いて計算された密度ガウスの運動流を用いて,スパースアンカーグリッド表現を用いて動的シーンを定式化する。
2つの実世界のデータセットの実験により、EDGSはレンダリング速度を大幅に改善し、より優れたレンダリング品質を実現しています。
論文 参考訳(メタデータ) (2025-02-27T18:53:06Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - Deformable Beta Splatting [4.855751031707892]
3D Gaussian Splatting (3DGS) はリアルタイムレンダリングにより高度な放射場再構成を行う。
変形可能ベータスプレイティング(DBS)は,形状と色表現を両立させる,変形可能かつコンパクトなアプローチである。
論文 参考訳(メタデータ) (2025-01-27T18:58:43Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - RayGauss: Volumetric Gaussian-Based Ray Casting for Photorealistic Novel View Synthesis [3.4341938551046227]
微分レンダリング法は、新しいビュー合成に大きな進歩をもたらした。
不規則分布ガウスの異なる光線鋳造のための放射放射率cと密度シグマを一貫した定式化を行う。
適切なトレーニング時間を維持しつつ、Blenderデータセット上で25FPSの推論速度を達成しながら、最先端のレンダリングよりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-08-06T10:59:58Z) - GauFRe: Gaussian Deformation Fields for Real-time Dynamic Novel View Synthesis [16.733855781461802]
インプシット変形可能表現は、通常、標準空間と時間依存の変形場を持つ運動をモデル化する。
GauFReは、フォワードウォーピング変形を使用して、シーン幾何学の非剛体変換を明示的にモデル化する。
実験により,提案手法は従来の最先端のNeRF法やガウス法よりも高い効率と競争結果が得られることが示された。
論文 参考訳(メタデータ) (2023-12-18T18:59:03Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。