論文の概要: StopThePop: Sorted Gaussian Splatting for View-Consistent Real-time Rendering
- arxiv url: http://arxiv.org/abs/2402.00525v2
- Date: Fri, 24 May 2024 13:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 23:16:57.564408
- Title: StopThePop: Sorted Gaussian Splatting for View-Consistent Real-time Rendering
- Title(参考訳): StopThePop: ビューに一貫性のあるリアルタイムレンダリングのためのソートされたガウススプレイティング
- Authors: Lukas Radl, Michael Steiner, Mathias Parger, Alexander Weinrauch, Bernhard Kerbl, Markus Steinberger,
- Abstract要約: 本稿では,処理オーバーヘッドを最小限に抑えた新しい階層化手法を提案する。
提案手法はガウス版よりも平均で4%遅い。
レンダリング性能はほぼ2倍に向上し,従来のガウス版よりも1.6倍高速になった。
- 参考スコア(独自算出の注目度): 42.91830228828405
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gaussian Splatting has emerged as a prominent model for constructing 3D representations from images across diverse domains. However, the efficiency of the 3D Gaussian Splatting rendering pipeline relies on several simplifications. Notably, reducing Gaussian to 2D splats with a single view-space depth introduces popping and blending artifacts during view rotation. Addressing this issue requires accurate per-pixel depth computation, yet a full per-pixel sort proves excessively costly compared to a global sort operation. In this paper, we present a novel hierarchical rasterization approach that systematically resorts and culls splats with minimal processing overhead. Our software rasterizer effectively eliminates popping artifacts and view inconsistencies, as demonstrated through both quantitative and qualitative measurements. Simultaneously, our method mitigates the potential for cheating view-dependent effects with popping, ensuring a more authentic representation. Despite the elimination of cheating, our approach achieves comparable quantitative results for test images, while increasing the consistency for novel view synthesis in motion. Due to its design, our hierarchical approach is only 4% slower on average than the original Gaussian Splatting. Notably, enforcing consistency enables a reduction in the number of Gaussians by approximately half with nearly identical quality and view-consistency. Consequently, rendering performance is nearly doubled, making our approach 1.6x faster than the original Gaussian Splatting, with a 50% reduction in memory requirements.
- Abstract(参考訳): ガウススプラッティングは、様々な領域にまたがる画像から3D表現を構築するための顕著なモデルとして登場した。
しかし、3Dガウススティングレンダリングパイプラインの効率は、いくつかの単純化に依存している。
特に、単一のビュー空間深さでガウスを2次元スプラットに減らすことで、ビュー回転中のアーティファクトのポップとブレンディングが導入される。
この問題に対処するには、ピクセルごとの深度計算を正確に行う必要があるが、全画素毎のソートは、グローバルソート操作に比べて過大なコストがかかる。
本稿では,処理オーバーヘッドを最小限に抑えたスプラッツを体系的に活用し,カールする新しい階層的ラスタライズ手法を提案する。
我々のソフトウェアラスタライザは,定量測定と定性測定の両方で示されるように,ポップアップアーティファクトや不整合を効果的に排除する。
同時に、本手法は、ポップアップによるビュー依存効果の不正化の可能性を軽減し、より正確な表現を確実にする。
不正行為の排除にも拘わらず,本手法は,動作中の新しいビュー合成の整合性を高めつつ,テスト画像の定量的結果に匹敵する結果が得られる。
設計上、我々の階層的アプローチはガウススプラッティングよりも平均でわずか4%遅い。
特に、一貫性を強制することで、ほぼ同じ品質とビュー一貫性を持つガウスの数を約半分減らすことができる。
その結果、レンダリング性能は2倍近く向上し、我々のアプローチはガウス版よりも1.6倍高速となり、メモリ要求は50%削減された。
関連論文リスト
- GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Few-shot Novel View Synthesis using Depth Aware 3D Gaussian Splatting [0.0]
3次元ガウススプラッティングは、新しいビュー合成における神経放射場法を超越している。
多数のインプットビューを備えた高品質なレンダリングを生成するが、ほんの数ビューしか利用できない場合、パフォーマンスは大幅に低下する。
数発の新規ビュー合成のための奥行き認識型ガウススプラッティング法を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:42:30Z) - Efficient Perspective-Correct 3D Gaussian Splatting Using Hybrid Transparency [6.119688280076556]
3D Gaussian (3DGS)は、リバースレンダリングとリアルタイムなシーン探索の両方のために、多用途レンダリングプリミティブを証明している。
最近の研究は多視点コヒーレンスを損なうアーティファクトを緩和し始めており、その中には不整合な透明性ソートや2Dスプラットの視点修正アウトラインによるアーティファクトのポップアップが含まれていた。
本研究では, リアルタイムフレームレートを維持するために, 高精度なブレンディング, ハイブリッド透明性の高精度な近似を用いて, 完全視点補正された3次元ガウスアンを最大コヒーレンスを達成することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T17:14:16Z) - AdR-Gaussian: Accelerating Gaussian Splatting with Adaptive Radius [38.774337140911044]
3D Gaussian Splatting (3DGS)は、複雑なシーンの高品質な再構成とリアルタイムレンダリングを実現した、最近の明示的な3D表現である。
本稿では,AdR-Gaussianを提案する。これは並列カリングを実現するために,Renderステージのシリアルカリングの一部を前処理ステージに移動させる。
私たちのコントリビューションは3倍で、レンダリング速度は310%で、最先端技術よりも同等かそれ以上品質を維持しています。
論文 参考訳(メタデータ) (2024-09-13T09:32:38Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - HiFi4G: High-Fidelity Human Performance Rendering via Compact Gaussian
Splatting [48.59338619051709]
HiFi4Gは、高密度映像からの高忠実度人間パフォーマンスレンダリングのための、明示的でコンパクトなガウスベースのアプローチである。
圧縮速度は25回程度で、1フレームあたり2MB未満である。
論文 参考訳(メタデータ) (2023-12-06T12:36:53Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。