論文の概要: VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment
- arxiv url: http://arxiv.org/abs/2510.11473v1
- Date: Mon, 13 Oct 2025 14:44:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.409628
- Title: VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment
- Title(参考訳): VA-GS:ビューアライメントによるガウススティングの幾何学的表現の強化
- Authors: Qing Li, Huifang Feng, Xun Gong, Yu-Shen Liu,
- Abstract要約: 3D Gaussian Splattingは、リアルタイムな新規ビュー合成のための効率的なソリューションとして最近登場した。
ビューアライメントによる3次元ガウス多様体の幾何学的表現を強化する新しい手法を提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 48.147381011235446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting has recently emerged as an efficient solution for high-quality and real-time novel view synthesis. However, its capability for accurate surface reconstruction remains underexplored. Due to the discrete and unstructured nature of Gaussians, supervision based solely on image rendering loss often leads to inaccurate geometry and inconsistent multi-view alignment. In this work, we propose a novel method that enhances the geometric representation of 3D Gaussians through view alignment (VA). Specifically, we incorporate edge-aware image cues into the rendering loss to improve surface boundary delineation. To enforce geometric consistency across views, we introduce a visibility-aware photometric alignment loss that models occlusions and encourages accurate spatial relationships among Gaussians. To further mitigate ambiguities caused by lighting variations, we incorporate normal-based constraints to refine the spatial orientation of Gaussians and improve local surface estimation. Additionally, we leverage deep image feature embeddings to enforce cross-view consistency, enhancing the robustness of the learned geometry under varying viewpoints and illumination. Extensive experiments on standard benchmarks demonstrate that our method achieves state-of-the-art performance in both surface reconstruction and novel view synthesis. The source code is available at https://github.com/LeoQLi/VA-GS.
- Abstract(参考訳): 3D Gaussian Splattingは、最近、高品質でリアルタイムな新規ビュー合成のための効率的なソリューションとして登場した。
しかし、正確な表面復元能力はいまだに未定である。
ガウスの離散的かつ非構造的な性質のため、画像のレンダリング損失のみに基づく監督は、しばしば不正確な幾何学と矛盾した多視点アライメントをもたらす。
本研究では,ビューアライメント(VA)による3次元ガウスの幾何学的表現を強化する手法を提案する。
具体的には、エッジ認識画像キューをレンダリング損失に組み込んで、表面境界のデライン化を改善する。
ビュー間の幾何的整合性を実現するために,包摂をモデル化し,ガウス間の正確な空間関係を促進する可視光度アライメント損失を導入する。
照明の変動によるあいまいさを緩和するため,ガウスの空間配向を洗練させ,局所的な表面推定を改善するために,通常の制約を取り入れた。
さらに、深層画像の特徴埋め込みを活用して、視界の整合性を強化し、異なる視点と照明下での学習した幾何学の堅牢性を高める。
提案手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現することを実証した。
ソースコードはhttps://github.com/LeoQLi/VA-GSで公開されている。
関連論文リスト
- GS-I$^{3}$: Gaussian Splatting for Surface Reconstruction from Illumination-Inconsistent Images [6.055104738156625]
3D Gaussian Splatting (3DGS) は表面再構成の分野で大きな注目を集めている。
不整合照明下での頑健な表面再構成の課題を解決するため,GS-3I と呼ばれる手法を提案する。
GS-3Iは複雑な照明のシナリオをまたいで、堅牢で正確な表面再構成を実現することができることを示す。
論文 参考訳(メタデータ) (2025-03-16T03:08:54Z) - Ref-GS: Directional Factorization for 2D Gaussian Splatting [21.205003186833096]
Ref-GSは2次元ガウススプラッティングにおける方向光分解の新しいアプローチである。
提案手法は,様々なオープンワールドシーンのレンダリングに優れると同時に,幾何を正確に復元する。
論文 参考訳(メタデータ) (2024-12-01T17:43:32Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。