論文の概要: HaloGS: Loose Coupling of Compact Geometry and Gaussian Splats for 3D Scenes
- arxiv url: http://arxiv.org/abs/2505.20267v1
- Date: Mon, 26 May 2025 17:44:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.359377
- Title: HaloGS: Loose Coupling of Compact Geometry and Gaussian Splats for 3D Scenes
- Title(参考訳): HaloGS:3Dシーンのためのコンパクトな幾何学とガウススプラッターの疎結合
- Authors: Changjian Jiang, Kerui Ren, Linning Xu, Jiong Chen, Jiangmiao Pang, Yu Zhang, Bo Dai, Mulin Yu,
- Abstract要約: HaloGSは、幾何学の粗い三角形と外見のガウス原始とを疎結合する双対表現である。
我々の設計は、コンパクトで表現力のあるモデルで、室内と屋外の両方でリアルにレンダリングできる。
- 参考スコア(独自算出の注目度): 23.141875500453484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High fidelity 3D reconstruction and rendering hinge on capturing precise geometry while preserving photo realistic detail. Most existing methods either fuse these goals into a single cumbersome model or adopt hybrid schemes whose uniform primitives lead to a trade off between efficiency and fidelity. In this paper, we introduce HaloGS, a dual representation that loosely couples coarse triangles for geometry with Gaussian primitives for appearance, motivated by the lightweight classic geometry representations and their proven efficiency in real world applications. Our design yields a compact yet expressive model capable of photo realistic rendering across both indoor and outdoor environments, seamlessly adapting to varying levels of scene complexity. Experiments on multiple benchmark datasets demonstrate that our method yields both compact, accurate geometry and high fidelity renderings, especially in challenging scenarios where robust geometric structure make a clear difference.
- Abstract(参考訳): 高忠実度3D再構成・レンダリングヒンジによる精密な形状の撮影
既存のほとんどの手法は、これらの目標を単一の煩雑なモデルに融合するか、均一なプリミティブが効率性と忠実性のトレードオフにつながるハイブリッドスキームを採用するかのいずれかである。
本稿では,ガウス的プリミティブと外観の粗い三角形を疎結合した2つの表現であるHaloGSを紹介し,その特徴は,軽量な古典幾何学表現とその実世界の応用における実証された効率性である。
室内環境と屋外環境の両方をリアルにレンダリングできるコンパクトで表現力のあるモデルを構築し,様々なシーンの複雑さにシームレスに適応する。
複数のベンチマークデータセットを用いた実験により、ロバストな幾何学構造が明らかな違いを生じさせる難易度シナリオにおいて、我々の手法はコンパクトで正確な幾何と高忠実度レンダリングの両方をもたらすことが示された。
関連論文リスト
- Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - GTR: Gaussian Splatting Tracking and Reconstruction of Unknown Objects Based on Appearance and Geometric Complexity [49.31257173003408]
モノクローナルRGBDビデオからの6-DoFオブジェクト追跡と高品質な3D再構成のための新しい手法を提案する。
提案手法は, 高忠実度オブジェクトメッシュを復元する強力な能力を示し, オープンワールド環境における単一センサ3D再構成のための新しい標準を策定する。
論文 参考訳(メタデータ) (2025-05-17T08:46:29Z) - Hi3DGen: High-fidelity 3D Geometry Generation from Images via Normal Bridging [15.36983068580743]
Hi3DGenは、画像から通常のブリッジを通して高忠実度3D幾何を生成するための新しいフレームワークである。
本研究は,中間表現として正規写像を利用することにより,画像から高忠実度3次元幾何を生成するための新たな方向を提供する。
論文 参考訳(メタデータ) (2025-03-28T08:39:20Z) - LineGS : 3D Line Segment Representation on 3D Gaussian Splatting [0.0]
LineGSは幾何学誘導型3次元ライン再構成と3次元ガウススプラッティングモデルを組み合わせた新しい手法である。
その結果, ベースライン法と比較して, 幾何精度とモデルコンパクト性に有意な改善が認められた。
論文 参考訳(メタデータ) (2024-11-30T13:29:36Z) - Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Self-supervised Learning of Hybrid Part-aware 3D Representations of 2D Gaussians and Superquadrics [16.446659867133977]
PartGSは、オブジェクトやシーンを解釈可能な分解に解析するために、2Dガウスとスーパークワッドリックを統合する、自己管理された部分認識再構築フレームワークである。
提案手法は,DTU,ShapeNet,および実世界のデータセットに関する広範な実験において,最先端の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-20T12:30:37Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - Direct Learning of Mesh and Appearance via 3D Gaussian Splatting [2.8424636089338216]
本稿では、3DGSを明示的な幾何学的表現、すなわちメッシュに組み込んだ学習可能なシーンモデルを提案する。
我々のモデルはメッシュと外観をエンドツーエンドで学習し、メッシュ面に3Dガウスアンを結合し、3DGSの微分レンダリングを行い、測光監督を得る。
論文 参考訳(メタデータ) (2024-05-11T07:56:19Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。