論文の概要: Pose-free 3D Gaussian splatting via shape-ray estimation
- arxiv url: http://arxiv.org/abs/2505.22978v1
- Date: Thu, 29 May 2025 01:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.608409
- Title: Pose-free 3D Gaussian splatting via shape-ray estimation
- Title(参考訳): 形状線推定によるポースフリー3次元ガウススプラッティング
- Authors: Youngju Na, Taeyeon Kim, Jumin Lee, Kyu Beom Han, Woo Jae Kim, Sung-eui Yoon,
- Abstract要約: ポーズフリーでフィードフォワードのガウススプレイティングフレームワークであるSHAREを紹介する。
関節形状とカメラ線推定によりあいまいさを克服する。
提案手法はポーズフリーな一般化可能なガウススプラッティングにおけるロバストな性能を実現する。
- 参考スコア(独自算出の注目度): 19.489216159648404
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While generalizable 3D Gaussian splatting enables efficient, high-quality rendering of unseen scenes, it heavily depends on precise camera poses for accurate geometry. In real-world scenarios, obtaining accurate poses is challenging, leading to noisy pose estimates and geometric misalignments. To address this, we introduce SHARE, a pose-free, feed-forward Gaussian splatting framework that overcomes these ambiguities by joint shape and camera rays estimation. Instead of relying on explicit 3D transformations, SHARE builds a pose-aware canonical volume representation that seamlessly integrates multi-view information, reducing misalignment caused by inaccurate pose estimates. Additionally, anchor-aligned Gaussian prediction enhances scene reconstruction by refining local geometry around coarse anchors, allowing for more precise Gaussian placement. Extensive experiments on diverse real-world datasets show that our method achieves robust performance in pose-free generalizable Gaussian splatting.
- Abstract(参考訳): 一般化可能な3Dガウシアンスプレイティングは、見えないシーンの効率よく高品質なレンダリングを可能にするが、正確な幾何学のカメラポーズに大きく依存する。
現実のシナリオでは、正確なポーズを取得することは困難であり、ノイズの多いポーズと幾何学的ミスアライメントをもたらす。
これを解決するために,ポーズフリーでフィードフォワードのガウススプレイティングフレームワークであるSHAREを導入し,それらのあいまいさを関節形状とカメラ線推定により克服する。
SHAREは、明示的な3D変換に頼る代わりに、多視点情報をシームレスに統合し、不正確なポーズ推定によるミスアライメントを低減する、ポーズ対応の標準ボリューム表現を構築している。
さらに、アンカーアラインのガウス予測は、粗いアンカーの周囲の局所的な幾何学を精細化し、より正確なガウス配置を可能にすることによって、シーン再構築を促進する。
多様な実世界のデータセットに対する大規模な実験により,ポーズフリーな一般化可能なガウススプラッティングにおけるロバストな性能が得られた。
関連論文リスト
- GSplatLoc: Ultra-Precise Camera Localization via 3D Gaussian Splatting [0.0]
超精密ポーズ推定に3次元ガウススプラッティングの可変レンダリング機能を利用するカメラローカライズ手法であるGSplatLocを提案する。
GSplatLocは、高密度マッピングのローカライズのための新しいベンチマークを設定し、ロボット工学や拡張現実のような正確なリアルタイムローカライズを必要とするアプリケーションに重要な意味を持つ。
論文 参考訳(メタデータ) (2024-12-28T07:14:14Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。