論文の概要: Sort-free Gaussian Splatting via Weighted Sum Rendering
- arxiv url: http://arxiv.org/abs/2410.18931v1
- Date: Thu, 24 Oct 2024 17:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:55.719696
- Title: Sort-free Gaussian Splatting via Weighted Sum Rendering
- Title(参考訳): 重み付きサムレンダリングによるソートフリーガウススメッティング
- Authors: Qiqi Hou, Randall Rauwendaal, Zifeng Li, Hoang Le, Farzad Farhadzadeh, Fatih Porikli, Alexei Bourd, Amir Said,
- Abstract要約: 重み付き和とアルファブレンディングを近似した重み付きSum Renderingを提案し,ソートの必要性を排除した。
これは実装を単純化し、優れたパフォーマンスを提供し、ソートによって引き起こされる"ポーピング"アーティファクトを排除します。
この方法はモバイルデバイスのGPUで実装されテストされ、平均1.23時間で高速なレンダリングを実現した。
- 参考スコア(独自算出の注目度): 33.90294924702446
- License:
- Abstract: Recently, 3D Gaussian Splatting (3DGS) has emerged as a significant advancement in 3D scene reconstruction, attracting considerable attention due to its ability to recover high-fidelity details while maintaining low complexity. Despite the promising results achieved by 3DGS, its rendering performance is constrained by its dependence on costly non-commutative alpha-blending operations. These operations mandate complex view dependent sorting operations that introduce computational overhead, especially on the resource-constrained platforms such as mobile phones. In this paper, we propose Weighted Sum Rendering, which approximates alpha blending with weighted sums, thereby removing the need for sorting. This simplifies implementation, delivers superior performance, and eliminates the "popping" artifacts caused by sorting. Experimental results show that optimizing a generalized Gaussian splatting formulation to the new differentiable rendering yields competitive image quality. The method was implemented and tested in a mobile device GPU, achieving on average $1.23\times$ faster rendering.
- Abstract(参考訳): 近年,3次元ガウススプラッティング(3DGS)は3次元シーン再構築において顕著な進歩を遂げている。
3DGSによる有望な結果にもかかわらず、そのレンダリング性能は、コストのかかる非可換なアルファブレンディング操作に依存しているため制約される。
これらの操作は複雑なビュー依存のソート処理を義務付け、特に携帯電話のようなリソース制約のあるプラットフォームで計算オーバーヘッドを発生させる。
本稿では,重み付き和とアルファブレンディングを近似した重み付きSum Renderingを提案する。
これは実装を単純化し、優れたパフォーマンスを提供し、ソートによって引き起こされる"ポーピング"アーティファクトを排除します。
実験結果から, 一般化されたガウススプラッティングの定式化を新たな微分可能レンダリングに最適化すると, 競合画像の品質が向上することが示された。
この方法はモバイルデバイスのGPUで実装されテストされ、平均1.23\times$高速レンダリングを実現した。
関連論文リスト
- GSRender: Deduplicated Occupancy Prediction via Weakly Supervised 3D Gaussian Splatting [7.936178003928951]
それまでの弱い監督されたNeRF法では、カメラ線に沿ったサンプリング数によってmIoUが5~10ポイント変化し、効率と精度のバランスが取れていた。
本稿では,GSRenderを提案する。GSRenderは自然に3次元ガウススプラッティングを用いて占有率予測を行い,サンプリングプロセスを簡素化する。
提案手法は,RayIoU (+6.0) においてSOTAを達成し,そのギャップを3次元監視法で狭める。
論文 参考訳(メタデータ) (2024-12-19T06:57:37Z) - Pushing Rendering Boundaries: Hard Gaussian Splatting [72.28941128988292]
3D Gaussian Splatting (3DGS) は,NVS(Noven View Synthesis) をリアルタイムなレンダリング方式で実現した。
我々はHGSと呼ばれるハードガウシアンスプラッティングを提案し、これは多視点的な位置勾配とレンダリング誤差を考慮し、ハードガウシアンを成長させる。
本手法は,リアルタイムの効率を保ちながら,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-12-06T07:42:47Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - RaDe-GS: Rasterizing Depth in Gaussian Splatting [32.38730602146176]
Gaussian Splatting (GS) は、高品質でリアルタイムなレンダリングを実現するために、新しいビュー合成に非常に効果的であることが証明されている。
本研究は,DTUデータセット上のNeuraLangeloに匹敵するチャムファー距離誤差を導入し,元の3D GS法と同様の計算効率を維持する。
論文 参考訳(メタデータ) (2024-06-03T15:56:58Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - StopThePop: Sorted Gaussian Splatting for View-Consistent Real-time Rendering [42.91830228828405]
本稿では,処理オーバーヘッドを最小限に抑えた新しい階層化手法を提案する。
提案手法はガウス版よりも平均で4%遅い。
レンダリング性能はほぼ2倍に向上し,従来のガウス版よりも1.6倍高速になった。
論文 参考訳(メタデータ) (2024-02-01T11:46:44Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。