論文の概要: Sort-free Gaussian Splatting via Weighted Sum Rendering
- arxiv url: http://arxiv.org/abs/2410.18931v1
- Date: Thu, 24 Oct 2024 17:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:55.719696
- Title: Sort-free Gaussian Splatting via Weighted Sum Rendering
- Title(参考訳): 重み付きサムレンダリングによるソートフリーガウススメッティング
- Authors: Qiqi Hou, Randall Rauwendaal, Zifeng Li, Hoang Le, Farzad Farhadzadeh, Fatih Porikli, Alexei Bourd, Amir Said,
- Abstract要約: 重み付き和とアルファブレンディングを近似した重み付きSum Renderingを提案し,ソートの必要性を排除した。
これは実装を単純化し、優れたパフォーマンスを提供し、ソートによって引き起こされる"ポーピング"アーティファクトを排除します。
この方法はモバイルデバイスのGPUで実装されテストされ、平均1.23時間で高速なレンダリングを実現した。
- 参考スコア(独自算出の注目度): 33.90294924702446
- License:
- Abstract: Recently, 3D Gaussian Splatting (3DGS) has emerged as a significant advancement in 3D scene reconstruction, attracting considerable attention due to its ability to recover high-fidelity details while maintaining low complexity. Despite the promising results achieved by 3DGS, its rendering performance is constrained by its dependence on costly non-commutative alpha-blending operations. These operations mandate complex view dependent sorting operations that introduce computational overhead, especially on the resource-constrained platforms such as mobile phones. In this paper, we propose Weighted Sum Rendering, which approximates alpha blending with weighted sums, thereby removing the need for sorting. This simplifies implementation, delivers superior performance, and eliminates the "popping" artifacts caused by sorting. Experimental results show that optimizing a generalized Gaussian splatting formulation to the new differentiable rendering yields competitive image quality. The method was implemented and tested in a mobile device GPU, achieving on average $1.23\times$ faster rendering.
- Abstract(参考訳): 近年,3次元ガウススプラッティング(3DGS)は3次元シーン再構築において顕著な進歩を遂げている。
3DGSによる有望な結果にもかかわらず、そのレンダリング性能は、コストのかかる非可換なアルファブレンディング操作に依存しているため制約される。
これらの操作は複雑なビュー依存のソート処理を義務付け、特に携帯電話のようなリソース制約のあるプラットフォームで計算オーバーヘッドを発生させる。
本稿では,重み付き和とアルファブレンディングを近似した重み付きSum Renderingを提案する。
これは実装を単純化し、優れたパフォーマンスを提供し、ソートによって引き起こされる"ポーピング"アーティファクトを排除します。
実験結果から, 一般化されたガウススプラッティングの定式化を新たな微分可能レンダリングに最適化すると, 競合画像の品質が向上することが示された。
この方法はモバイルデバイスのGPUで実装されテストされ、平均1.23\times$高速レンダリングを実現した。
関連論文リスト
- RaDe-GS: Rasterizing Depth in Gaussian Splatting [32.38730602146176]
Gaussian Splatting (GS) は、高品質でリアルタイムなレンダリングを実現するために、新しいビュー合成に非常に効果的であることが証明されている。
本研究は,DTUデータセット上のNeuraLangeloに匹敵するチャムファー距離誤差を導入し,元の3D GS法と同様の計算効率を維持する。
論文 参考訳(メタデータ) (2024-06-03T15:56:58Z) - SafeguardGS: 3D Gaussian Primitive Pruning While Avoiding Catastrophic Scene Destruction [45.654397516679495]
3DGSは、リアルタイムのレンダリング速度を達成しつつ、トップノッチのレンダリング品質を実証し、新しいビュー合成において大きな進歩を遂げた。
3DGSの準最適デンシフィケーションプロセスから生じるガウス原始体の過多は、フレーム/秒(FPS)を遅くし、かなりのメモリコストを要求するという大きな課題を引き起こす。
まず,3DGSプルーニング手法を2つのタイプに分類する: クロスビュープルーニングとピクセルワイズプルーニングで,プリミティブのランク付け方法が異なる。
論文 参考訳(メタデータ) (2024-05-28T03:41:36Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - StopThePop: Sorted Gaussian Splatting for View-Consistent Real-time Rendering [42.91830228828405]
本稿では,処理オーバーヘッドを最小限に抑えた新しい階層化手法を提案する。
提案手法はガウス版よりも平均で4%遅い。
レンダリング性能はほぼ2倍に向上し,従来のガウス版よりも1.6倍高速になった。
論文 参考訳(メタデータ) (2024-02-01T11:46:44Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - DreamGaussian: Generative Gaussian Splatting for Efficient 3D Content Creation [55.661467968178066]
本稿では,DreamGaussianを提案する。DreamGaussianは,効率と品質を両立させる新しい3Dコンテンツ生成フレームワークである。
我々の重要な洞察は、UV空間におけるメッシュ抽出とテクスチャ改善を伴う3次元ガウススプラッティングモデルを設計することである。
ニューラル・ラジアンス・フィールドにおける占有プルーニングとは対照的に、3次元ガウスの進行的な密度化は3次元生成タスクにおいて著しく速く収束することを示した。
論文 参考訳(メタデータ) (2023-09-28T17:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。