論文の概要: G3Splat: Geometrically Consistent Generalizable Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2512.17547v1
- Date: Fri, 19 Dec 2025 13:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.395405
- Title: G3Splat: Geometrically Consistent Generalizable Gaussian Splatting
- Title(参考訳): G3Splat: 幾何学的に一貫した一般化可能なガウススプラッティング
- Authors: Mehdi Hosseinzadeh, Shin-Fang Chng, Yi Xu, Simon Lucey, Ian Reid, Ravi Garg,
- Abstract要約: 本稿では,幾何学的に一貫した3次元シーン表現を得るために,幾何学的先行を強制するG3Splatを紹介する。
提案手法はRE10Kを用いて, (i) 幾何的一貫した再構成, (ii) 相対的なポーズ推定, (iii) 新規なビュー合成における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 30.752029360892504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussians have recently emerged as an effective scene representation for real-time splatting and accurate novel-view synthesis, motivating several works to adapt multi-view structure prediction networks to regress per-pixel 3D Gaussians from images. However, most prior work extends these networks to predict additional Gaussian parameters -- orientation, scale, opacity, and appearance -- while relying almost exclusively on view-synthesis supervision. We show that a view-synthesis loss alone is insufficient to recover geometrically meaningful splats in this setting. We analyze and address the ambiguities of learning 3D Gaussian splats under self-supervision for pose-free generalizable splatting, and introduce G3Splat, which enforces geometric priors to obtain geometrically consistent 3D scene representations. Trained on RE10K, our approach achieves state-of-the-art performance in (i) geometrically consistent reconstruction, (ii) relative pose estimation, and (iii) novel-view synthesis. We further demonstrate strong zero-shot generalization on ScanNet, substantially outperforming prior work in both geometry recovery and relative pose estimation. Code and pretrained models are released on our project page (https://m80hz.github.io/g3splat/).
- Abstract(参考訳): 3Dガウシアンは最近、リアルタイムスプラッティングと正確なノベルビュー合成のための効果的なシーン表現として登場し、画像から画素ごとの3Dガウシアンを回帰するために、多視点構造予測ネットワークに適応するためのいくつかの取り組みを動機付けている。
しかしながら、これまでのほとんどの研究はこれらのネットワークを拡張して、ビューシンセサイザーにのみ依存しながら、配向、スケール、不透明度、外見といった追加のガウスパラメータを予測する。
この環境では、視線合成損失だけでは、幾何学的に意味のあるスプラットを復元するには不十分であることを示す。
ポーズ不要な一般化スプラッティングの自己超越下での3次元ガウス的スプラット学習のあいまいさを分析し,G3Splatを導入し,幾何学的に整合した3次元シーン表現を得る。
提案手法はRE10Kで学習し,最先端の性能を実現する。
(i)幾何的に一貫した復元
(二)相対的なポーズ推定、及び
(三)ノベル・ビュー・シンセサイザー
さらに、ScanNet上でのゼロショットの強い一般化を実証し、幾何復元と相対的なポーズ推定の両方において、かなり優れた先行研究を行った。
コードと事前トレーニングされたモデルは、プロジェクトページ(https://m80hz.github.io/g3splat/)でリリースされています。
関連論文リスト
- SaLon3R: Structure-aware Long-term Generalizable 3D Reconstruction from Unposed Images [31.94503176488054]
SaLon3Rは構造対応の長期3DGS再構成のための新しいフレームワークである。
10 FPS以上で50以上のビューを再構築でき、50%から90%の冗長性除去が可能である。
提案手法は, 1回のフィードフォワードパスにおいて, アーティファクトを効果的に解決し, 冗長な3DGSを創出する。
論文 参考訳(メタデータ) (2025-10-16T18:37:10Z) - Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - VCR-GauS: View Consistent Depth-Normal Regularizer for Gaussian Surface Reconstruction [47.603017811399624]
そこで本研究では,通常のパラメータと他のパラメータを直接結合するDepth-Normal正規化器を提案する。
また,より正確な表面モデリングのために,3次元ガウス多様体のサイズと分布を規則化するための密度化と分割戦略を導入する。
論文 参考訳(メタデータ) (2024-06-09T13:15:43Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。