論文の概要: Hardware-Rasterized Ray-Based Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.18682v1
- Date: Mon, 24 Mar 2025 13:53:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:05.121596
- Title: Hardware-Rasterized Ray-Based Gaussian Splatting
- Title(参考訳): ハードウェア・ラスタライズド・レイベースガウス・スプレイティング
- Authors: Samuel Rota Bulò, Nemanja Bartolovic, Lorenzo Porzi, Peter Kontschieder,
- Abstract要約: レイベース3次元ガウス散乱(RayGS)のための新しいハードウェア化レンダリング手法を提案する。
私たちのソリューションは、十分なフレームレートでRayGSモデルをレンダリングして、VirtualやMixed Realityのような品質に敏感なアプリケーションをサポートする、最初のものです。
第2のコントリビューションは、トレーニングやテスト中にMIPに関連する問題に対処することで、RayGSのエイリアスフリーレンダリングを可能にします。
- 参考スコア(独自算出の注目度): 21.088504768655618
- License:
- Abstract: We present a novel, hardware rasterized rendering approach for ray-based 3D Gaussian Splatting (RayGS), obtaining both fast and high-quality results for novel view synthesis. Our work contains a mathematically rigorous and geometrically intuitive derivation about how to efficiently estimate all relevant quantities for rendering RayGS models, structured with respect to standard hardware rasterization shaders. Our solution is the first enabling rendering RayGS models at sufficiently high frame rates to support quality-sensitive applications like Virtual and Mixed Reality. Our second contribution enables alias-free rendering for RayGS, by addressing MIP-related issues arising when rendering diverging scales during training and testing. We demonstrate significant performance gains, across different benchmark scenes, while retaining state-of-the-art appearance quality of RayGS.
- Abstract(参考訳): 我々は、レイベース3Dガウススティング(RayGS)のための新しいハードウェアラスタライズドレンダリング手法を提案し、新しいビュー合成のための高速かつ高品質な結果を得た。
我々の研究は、標準的なハードウェアのラスタ化シェーダに対して構造化されたRayGSモデルをレンダリングするためのすべての関連する量を効率的に推定する方法に関する数学的に厳密で幾何学的に直観的な導出を含んでいる。
私たちのソリューションは、十分なフレームレートでRayGSモデルをレンダリングして、VirtualやMixed Realityのような品質に敏感なアプリケーションをサポートする、最初のものです。
第2のコントリビューションは、トレーニングやテスト中に異なるスケールをレンダリングする際に発生するMIP関連の問題に対処することで、RayGSのエイリアスフリーレンダリングを可能にします。
我々は、RayGSの最先端の外観品質を維持しながら、異なるベンチマークシーンで大きなパフォーマンス向上を示す。
関連論文リスト
- BEAM: Bridging Physically-based Rendering and Gaussian Modeling for Relightable Volumetric Video [44.50599475213118]
ボリュームビデオは、ダイナミックな3Dシーンをキャプチャして没入感のある体験を可能にし、仮想現実、教育、テレプレゼンスのための多様なアプリケーションを可能にする。
BEAMは、4Dガウス表現を物理ベースレンダリング(PBR)でブリッジし、高品質でライティング可能なビデオを生成する新しいパイプラインである。
論文 参考訳(メタデータ) (2025-02-12T10:58:09Z) - MeshSplats: Mesh-Based Rendering with Gaussian Splatting Initialization [0.4543820534430523]
本稿では,ガウス的要素をメッシュ面に変換する手法であるMeshSplatsを紹介する。
我々のモデルは変換の直後に利用でき、追加のトレーニングなしでわずかに品質が低下するメッシュが得られる。
論文 参考訳(メタデータ) (2025-02-11T18:27:39Z) - 3D Gaussian Splatting with Normal Information for Mesh Extraction and Improved Rendering [8.59572577251833]
ガウス関数から推定される符号距離関数の勾配を用いた新しい正規化法を提案する。
我々は、Mip-NeRF360、Tamps and Temples、Deep-Blendingなどのデータセットに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-01-14T18:40:33Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。