論文の概要: VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment
- arxiv url: http://arxiv.org/abs/2510.11473v1
- Date: Mon, 13 Oct 2025 14:44:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.409628
- Title: VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment
- Title(参考訳): VA-GS:ビューアライメントによるガウススティングの幾何学的表現の強化
- Authors: Qing Li, Huifang Feng, Xun Gong, Yu-Shen Liu,
- Abstract要約: 3D Gaussian Splattingは、リアルタイムな新規ビュー合成のための効率的なソリューションとして最近登場した。
ビューアライメントによる3次元ガウス多様体の幾何学的表現を強化する新しい手法を提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 48.147381011235446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting has recently emerged as an efficient solution for high-quality and real-time novel view synthesis. However, its capability for accurate surface reconstruction remains underexplored. Due to the discrete and unstructured nature of Gaussians, supervision based solely on image rendering loss often leads to inaccurate geometry and inconsistent multi-view alignment. In this work, we propose a novel method that enhances the geometric representation of 3D Gaussians through view alignment (VA). Specifically, we incorporate edge-aware image cues into the rendering loss to improve surface boundary delineation. To enforce geometric consistency across views, we introduce a visibility-aware photometric alignment loss that models occlusions and encourages accurate spatial relationships among Gaussians. To further mitigate ambiguities caused by lighting variations, we incorporate normal-based constraints to refine the spatial orientation of Gaussians and improve local surface estimation. Additionally, we leverage deep image feature embeddings to enforce cross-view consistency, enhancing the robustness of the learned geometry under varying viewpoints and illumination. Extensive experiments on standard benchmarks demonstrate that our method achieves state-of-the-art performance in both surface reconstruction and novel view synthesis. The source code is available at https://github.com/LeoQLi/VA-GS.
- Abstract(参考訳): 3D Gaussian Splattingは、最近、高品質でリアルタイムな新規ビュー合成のための効率的なソリューションとして登場した。
しかし、正確な表面復元能力はいまだに未定である。
ガウスの離散的かつ非構造的な性質のため、画像のレンダリング損失のみに基づく監督は、しばしば不正確な幾何学と矛盾した多視点アライメントをもたらす。
本研究では,ビューアライメント(VA)による3次元ガウスの幾何学的表現を強化する手法を提案する。
具体的には、エッジ認識画像キューをレンダリング損失に組み込んで、表面境界のデライン化を改善する。
ビュー間の幾何的整合性を実現するために,包摂をモデル化し,ガウス間の正確な空間関係を促進する可視光度アライメント損失を導入する。
照明の変動によるあいまいさを緩和するため,ガウスの空間配向を洗練させ,局所的な表面推定を改善するために,通常の制約を取り入れた。
さらに、深層画像の特徴埋め込みを活用して、視界の整合性を強化し、異なる視点と照明下での学習した幾何学の堅牢性を高める。
提案手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現することを実証した。
ソースコードはhttps://github.com/LeoQLi/VA-GSで公開されている。
関連論文リスト
- SparseSurf: Sparse-View 3D Gaussian Splatting for Surface Reconstruction [26.59203606048875]
高品質な新しいビューレンダリングを保ちながら、より正確で詳細な表面を再構築する手法であるnetを提案する。
我々の重要な洞察は、レンダリング品質と幾何推定を橋渡しするStereo Geometry-Texture Alignmentを導入することである。
さらに,多視点幾何整合性を実現するPseudo-Feature Enhanced Geometry Consistencyを提案する。
論文 参考訳(メタデータ) (2025-11-18T16:24:37Z) - GS-I$^{3}$: Gaussian Splatting for Surface Reconstruction from Illumination-Inconsistent Images [6.055104738156625]
3D Gaussian Splatting (3DGS) は表面再構成の分野で大きな注目を集めている。
不整合照明下での頑健な表面再構成の課題を解決するため,GS-3I と呼ばれる手法を提案する。
GS-3Iは複雑な照明のシナリオをまたいで、堅牢で正確な表面再構成を実現することができることを示す。
論文 参考訳(メタデータ) (2025-03-16T03:08:54Z) - RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - Ref-GS: Directional Factorization for 2D Gaussian Splatting [21.205003186833096]
Ref-GSは2次元ガウススプラッティングにおける方向光分解の新しいアプローチである。
提案手法は,様々なオープンワールドシーンのレンダリングに優れると同時に,幾何を正確に復元する。
論文 参考訳(メタデータ) (2024-12-01T17:43:32Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。