論文の概要: RayGaussX: Accelerating Gaussian-Based Ray Marching for Real-Time and High-Quality Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2509.07782v1
- Date: Tue, 09 Sep 2025 14:19:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.35289
- Title: RayGaussX: Accelerating Gaussian-Based Ray Marching for Real-Time and High-Quality Novel View Synthesis
- Title(参考訳): RayGaussX: リアルタイムかつ高品質な新規ビュー合成のためのガウス線マーキングの高速化
- Authors: Hugo Blanc, Jean-Emmanuel Deschaud, Alexis Paljic,
- Abstract要約: RayGaussXは、トレーニングと推論の両方を加速する重要なコントリビューションを導入することで、RayGauss上に構築されている。
RayGaussXは、実世界のデータセット上で5倍から12倍高速なトレーニングと50倍から80倍高速なレンダリング速度を実現している。
- 参考スコア(独自算出の注目度): 3.664050435201089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RayGauss has achieved state-of-the-art rendering quality for novel-view synthesis on synthetic and indoor scenes by representing radiance and density fields with irregularly distributed elliptical basis functions, rendered via volume ray casting using a Bounding Volume Hierarchy (BVH). However, its computational cost prevents real-time rendering on real-world scenes. Our approach, RayGaussX, builds on RayGauss by introducing key contributions that accelerate both training and inference. Specifically, we incorporate volumetric rendering acceleration strategies such as empty-space skipping and adaptive sampling, enhance ray coherence, and introduce scale regularization to reduce false-positive intersections. Additionally, we propose a new densification criterion that improves density distribution in distant regions, leading to enhanced graphical quality on larger scenes. As a result, RayGaussX achieves 5x to 12x faster training and 50x to 80x higher rendering speeds (FPS) on real-world datasets while improving visual quality by up to +0.56 dB in PSNR. Project page with videos and code: https://raygaussx.github.io/.
- Abstract(参考訳): レイガウスは、境界体積階層(BVH)を用いたボリュームレイキャスティングにより、不規則に分散した楕円基底関数を持つ放射率と密度場を表現し、合成シーンと室内シーンの新規ビュー合成の最先端のレンダリング品質を達成した。
しかし、その計算コストは現実世界のシーンでのリアルタイムレンダリングを妨げている。
当社のアプローチであるRayGaussXは、トレーニングと推論の両方を加速する重要なコントリビューションを導入することで、RayGaussをベースにしています。
具体的には、空空間スキップや適応サンプリングのようなボリュームレンダリングの高速化戦略を導入し、レイコヒーレンスを強化し、スケール正規化を導入して偽陽性交差点を減らす。
さらに, 遠隔地における密度分布を向上し, 大規模シーンにおけるグラフィカルな品質向上につながる新しいデシフィケーション基準を提案する。
その結果、RayGaussXは実世界のデータセット上で5倍から12倍高速なトレーニングと50倍から80倍高速なレンダリング速度を実現し、PSNRでは最大0.56dBの視覚的品質向上を実現した。
ビデオとコードによるプロジェクトページ: https://raygaussx.github.io/
関連論文リスト
- Depth-Guided Bundle Sampling for Efficient Generalizable Neural Radiance Field Reconstruction [22.057122296909142]
高解像度画像は、すべての光線を高密度にサンプリングする必要があるため、計算集約的なままである。
レンダリングを高速化する新しい深度誘導型バンドルサンプリング戦略を提案する。
提案手法は最大1.27dBPSNRの改善とDTUデータセット上のFPSの47%増加を実現している。
論文 参考訳(メタデータ) (2025-05-26T10:23:59Z) - Hardware-Rasterized Ray-Based Gaussian Splatting [21.088504768655618]
レイベース3次元ガウス散乱(RayGS)のための新しいハードウェア化レンダリング手法を提案する。
私たちのソリューションは、十分なフレームレートでRayGSモデルをレンダリングして、VirtualやMixed Realityのような品質に敏感なアプリケーションをサポートする、最初のものです。
第2のコントリビューションは、トレーニングやテスト中にMIPに関連する問題に対処することで、RayGSのエイリアスフリーレンダリングを可能にします。
論文 参考訳(メタデータ) (2025-03-24T13:53:30Z) - BEAM: Bridging Physically-based Rendering and Gaussian Modeling for Relightable Volumetric Video [58.97416204208624]
BEAMは、4Dガウス表現を物理ベースレンダリング(PBR)でブリッジし、高品質でライティング可能なビデオを生成する新しいパイプラインである。
BEAMは、様々な照明条件下で現実的な人生のような可視化を提供することで、インタラクティブなエンターテイメント、ストーリーテリング、クリエイティブな可視化の新しい可能性を開く。
論文 参考訳(メタデータ) (2025-02-12T10:58:09Z) - RayGauss: Volumetric Gaussian-Based Ray Casting for Photorealistic Novel View Synthesis [3.4341938551046227]
微分レンダリング法は、新しいビュー合成に大きな進歩をもたらした。
不規則分布ガウスの異なる光線鋳造のための放射放射率cと密度シグマを一貫した定式化を行う。
適切なトレーニング時間を維持しつつ、Blenderデータセット上で25FPSの推論速度を達成しながら、最先端のレンダリングよりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-08-06T10:59:58Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for Enhanced Indoor View Synthesis [73.50359502037232]
VoxNeRFは、ニューラル室内再構成と新しいビュー合成の質と効率を高めるための新しいアプローチである。
本稿では,最も関連性の高い領域に計算資源を割り当てる効率的なボクセル誘導サンプリング手法を提案する。
私たちのアプローチは、ScanNetとScanNet++に関する広範な実験で検証されています。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。