論文の概要: When Gaussian Meets Surfel: Ultra-fast High-fidelity Radiance Field Rendering
- arxiv url: http://arxiv.org/abs/2504.17545v1
- Date: Thu, 24 Apr 2025 13:32:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.385491
- Title: When Gaussian Meets Surfel: Ultra-fast High-fidelity Radiance Field Rendering
- Title(参考訳): ガウシアンが超高速の高忠実度電界レンダリング(動画あり)
- Authors: Keyang Ye, Tianjia Shao, Kun Zhou,
- Abstract要約: ビュー依存色を持つ2次元不透明なサーベイルは、粗いスケールの幾何学とシーンの外観を表す。
GESの完全なソートフリーレンダリングは、非常に高速なレートを達成するが、ビュー一貫性のある画像も生成する。
GESは超高速高忠実放射率場レンダリングの魅力的な表現として最先端の技術を推し進める。
- 参考スコア(独自算出の注目度): 33.37225825828824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Gaussian-enhanced Surfels (GESs), a bi-scale representation for radiance field rendering, wherein a set of 2D opaque surfels with view-dependent colors represent the coarse-scale geometry and appearance of scenes, and a few 3D Gaussians surrounding the surfels supplement fine-scale appearance details. The rendering with GESs consists of two passes -- surfels are first rasterized through a standard graphics pipeline to produce depth and color maps, and then Gaussians are splatted with depth testing and color accumulation on each pixel order independently. The optimization of GESs from multi-view images is performed through an elaborate coarse-to-fine procedure, faithfully capturing rich scene appearance. The entirely sorting-free rendering of GESs not only achieves very fast rates, but also produces view-consistent images, successfully avoiding popping artifacts under view changes. The basic GES representation can be easily extended to achieve anti-aliasing in rendering (Mip-GES), boosted rendering speeds (Speedy-GES) and compact storage (Compact-GES), and reconstruct better scene geometries by replacing 3D Gaussians with 2D Gaussians (2D-GES). Experimental results show that GESs advance the state-of-the-arts as a compelling representation for ultra-fast high-fidelity radiance field rendering.
- Abstract(参考訳): 本稿では,2次元不透明な2次元サーフェルと2次元不透明な2次元サーフェールは,粗い大きさの形状と外観を表現し,その周辺には細かな外観を補う3次元ガウス的サーフェス(GESs)を紹介する。
GESによるレンダリングは2つのパスで構成されている -- サーフはまず標準のグラフィックスパイプラインを通じてラスタライズされ、深度とカラーマップを生成する。
多視点画像からのGISの最適化は、精巧な粗大な手順で行われ、リッチなシーンの外観を忠実に捉えている。
GESの完全なソートフリーレンダリングは、非常に高速なレートを達成するだけでなく、ビュー一貫性のある画像も生成し、ビュー変更時のポップアップアーティファクトの回避に成功している。
基本的なGES表現は、レンダリングにおけるアンチエイリアス化(Mip-GES)、レンダリング速度の向上(Speedy-GES)、コンパクトストレージ(Compact-GES)、そして3Dガウスを2Dガウス(2D-GES)に置き換えることで、より良いシーンジオメトリを再構築することができる。
実験結果から, GESは超高速高忠実放射率場レンダリングの説得力のある表現として最先端の技術を推し進めることが示された。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GlossGau: Efficient Inverse Rendering for Glossy Surface with Anisotropic Spherical Gaussian [4.5442067197725]
GlossGauは、バニラ3D-GSに匹敵するトレーニングとレンダリング速度を維持しながら、光沢のある表面でシーンを再構築する効率的な逆レンダリングフレームワークである。
実験によりGrossGauは、光沢のある表面を持つデータセット上で、競争力や優れた再構築を実現することが示された。
論文 参考訳(メタデータ) (2025-02-19T22:20:57Z) - Gaussian Billboards: Expressive 2D Gaussian Splatting with Textures [8.724367699416893]
2DGS(2DGS)と従来のコンピュータグラフィックスの看板との類似点を強調した。
本研究では,2DGSのテクスチャを用いて空間的に異なる色を付加するために,2DGSの修正を提案する。
本研究では,シーン表現のシャープさと質を,質的,定量的な評価で改善できることを示す。
論文 参考訳(メタデータ) (2024-12-17T09:57:04Z) - HDGS: Textured 2D Gaussian Splatting for Enhanced Scene Rendering [43.58008082519209]
そこで本研究では,2次元サーベイルをテクスチャマップに整列させ,画像の描画の整合性と効率性を高めるために,光線深度ソートと漁船によるプルーニングを併用する新しい手法を提案する。
正しい順序で、サーファーごとのテクスチャマップは細部を捉える能力を大幅に改善した。
異なる視点で高忠実度の詳細を描画するために, アーティファクトを緩和するフラスタムを用いたサンプリング法を設計した。
論文 参考訳(メタデータ) (2024-12-02T18:59:09Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM [48.190398577764284]
SplaTAMは、単一のRGB-Dカメラからの高忠実度再構成を可能にするアプローチである。
基礎となるガウス表現に合わせて、単純なオンライントラッキングとマッピングシステムを採用している。
実験により,SplaTAMはカメラポーズ推定,マップ構築,既存手法に対する新規ビュー合成において最大2倍の性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-12-04T18:53:24Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。