論文の概要: Perceptual-GS: Scene-adaptive Perceptual Densification for Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.12400v1
- Date: Sat, 14 Jun 2025 08:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.091627
- Title: Perceptual-GS: Scene-adaptive Perceptual Densification for Gaussian Splatting
- Title(参考訳): Perceptual-GS: Scene-adaptive Perceptual Densification for Gaussian Splatting
- Authors: Hongbi Zhou, Zhangkai Ni,
- Abstract要約: 3Dガウススプラッティング(3DGS)は、新規なビュー合成のための強力な技術として登場した。
本稿では,知覚感度を3DGSトレーニングプロセスに統合する新しいフレームワークであるPerceptual-GSを提案する。
Perceptual-GSは, 再現性, 効率, 堅牢性において, 最先端の性能を実現していることを示す。
- 参考スコア(独自算出の注目度): 4.082216579462796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a powerful technique for novel view synthesis. However, existing methods struggle to adaptively optimize the distribution of Gaussian primitives based on scene characteristics, making it challenging to balance reconstruction quality and efficiency. Inspired by human perception, we propose scene-adaptive perceptual densification for Gaussian Splatting (Perceptual-GS), a novel framework that integrates perceptual sensitivity into the 3DGS training process to address this challenge. We first introduce a perception-aware representation that models human visual sensitivity while constraining the number of Gaussian primitives. Building on this foundation, we develop a \cameraready{perceptual sensitivity-adaptive distribution} to allocate finer Gaussian granularity to visually critical regions, enhancing reconstruction quality and robustness. Extensive evaluations on multiple datasets, including BungeeNeRF for large-scale scenes, demonstrate that Perceptual-GS achieves state-of-the-art performance in reconstruction quality, efficiency, and robustness. The code is publicly available at: https://github.com/eezkni/Perceptual-GS
- Abstract(参考訳): 3Dガウススプラッティング(3DGS)は、新規なビュー合成のための強力な技術として登場した。
しかし,既存の手法ではシーン特性に基づいてガウス原始体の分布を適応的に最適化することは困難であり,復元の質と効率のバランスをとることは困難である。
人間の知覚に触発されて,この課題に対処するための3DGSトレーニングプロセスに知覚感度を統合する新しいフレームワークであるガウススメッティング(Perceptual-GS)について,シーン適応型パーセプティヴ・デンシフィケーションを提案する。
まず、ガウス原始体の数を制約しながら、人間の視覚感度をモデル化する知覚認識表現を導入する。
この基盤を基盤として,より微細なガウス粒度を視覚的に重要な領域に割り当て,復元品質とロバスト性を高めるために,<cameraready{perceptual sensitivity-adaptive distribution} を開発した。
大規模シーンのための BungeeNeRF を含む複数のデータセットに対する大規模な評価は、Perceptual-GS が再現品質、効率、堅牢性において最先端のパフォーマンスを達成することを実証している。
コードは、https://github.com/eezkni/Perceptual-GSで公開されている。
関連論文リスト
- Metamon-GS: Enhancing Representability with Variance-Guided Densification and Light Encoding [9.703262855661064]
3D Gaussian Splatting(3DGS)は、ガウスのシーンを表現できる。
大幅な進歩があったが、レンダリング性能を向上させることは依然として困難である。
分散誘導型デンシフィケーション戦略とマルチレベルハッシュグリッドの革新的視点からメタモンGSを提案する。
論文 参考訳(メタデータ) (2025-04-20T02:44:39Z) - GP-GS: Gaussian Processes for Enhanced Gaussian Splatting [15.263608848427136]
本稿では,新しい3次元再構成フレームワークであるGaussian Processes enhanced Gaussian Splatting (GP-GS)を提案する。
GP-GSはスパース構造-運動点雲の適応的および不確実性誘導密度化を可能にする。
合成および実世界のデータセットで行った実験は、提案フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2025-02-04T12:50:16Z) - PEP-GS: Perceptually-Enhanced Precise Structured 3D Gaussians for View-Adaptive Rendering [3.1006820631993515]
3D Gaussian Splatting (3D-GS)はリアルタイムで高品質な3Dシーンレンダリングにおいて大きな成功を収めた。
PEP-GSは、不透明度、色、共分散を含むガウス属性を動的に予測する知覚的に強化されたフレームワークである。
我々はPEP-GSが最先端の手法、特にビュー依存効果や細かな詳細を含む挑戦的なシナリオにおいて優れていることを示す。
論文 参考訳(メタデータ) (2024-11-08T17:42:02Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - MVGS: Multi-view-regulated Gaussian Splatting for Novel View Synthesis [22.80370814838661]
ボリュームレンダリングにおける最近の研究、例えばNeRFや3D Gaussian Splatting (3DGS)は、レンダリング品質と効率を大幅に向上させた。
4つの重要な貢献を具現化した新しい3DGS最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T23:48:31Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。