論文の概要: PFGS: Pose-Fused 3D Gaussian Splatting for Complete Multi-Pose Object Reconstruction
- arxiv url: http://arxiv.org/abs/2510.15386v1
- Date: Fri, 17 Oct 2025 07:36:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.517221
- Title: PFGS: Pose-Fused 3D Gaussian Splatting for Complete Multi-Pose Object Reconstruction
- Title(参考訳): PFGS:pose-Fused 3D Gaussian Splatting for Complete Multi-Pose Object Restruction
- Authors: Ting-Yu Yen, Yu-Sheng Chiu, Shih-Hsuan Hung, Peter Wonka, Hung-Kuo Chu,
- Abstract要約: PFGSはポーズ対応の3DGSフレームワークであり、多目的画像キャプチャーから完全なオブジェクトを再構築する実践的な課題に対処する。
我々のポーズアウェア融合戦略は、グローバルとローカルの登録を組み合わせて、効果的にビューをマージする。
PFGSは定性評価と定量的評価の両方において、強いベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 43.4603038841558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) have enabled high-quality, real-time novel-view synthesis from multi-view images. However, most existing methods assume the object is captured in a single, static pose, resulting in incomplete reconstructions that miss occluded or self-occluded regions. We introduce PFGS, a pose-aware 3DGS framework that addresses the practical challenge of reconstructing complete objects from multi-pose image captures. Given images of an object in one main pose and several auxiliary poses, PFGS iteratively fuses each auxiliary set into a unified 3DGS representation of the main pose. Our pose-aware fusion strategy combines global and local registration to merge views effectively and refine the 3DGS model. While recent advances in 3D foundation models have improved registration robustness and efficiency, they remain limited by high memory demands and suboptimal accuracy. PFGS overcomes these challenges by incorporating them more intelligently into the registration process: it leverages background features for per-pose camera pose estimation and employs foundation models for cross-pose registration. This design captures the best of both approaches while resolving background inconsistency issues. Experimental results demonstrate that PFGS consistently outperforms strong baselines in both qualitative and quantitative evaluations, producing more complete reconstructions and higher-fidelity 3DGS models.
- Abstract(参考訳): 近年の3Dガウススプラッティング(3DGS)の進歩により,マルチビュー画像から高品質でリアルタイムなノベルビュー合成が可能となった。
しかし、既存のほとんどのメソッドは、オブジェクトが単一の静的なポーズでキャプチャされると仮定し、非閉塞領域や自己閉塞領域を見逃す不完全な再構成をもたらす。
PFGSはポーズ対応の3DGSフレームワークで、多目的画像から完全なオブジェクトを再構築する実践的な課題に対処する。
1つのメインポーズのオブジェクトの画像といくつかの補助ポーズが与えられた後、PFGSは各補助セットをメインポーズの統一された3DGS表現に反復的に融合する。
我々のポーズ対応融合戦略は、グローバルとローカルの登録を組み合わせることで、ビューを効果的にマージし、3DGSモデルを洗練します。
近年の3Dファウンデーションモデルの進歩により、登録の堅牢性と効率が向上しているが、高いメモリ要求と準最適精度によって制限されている。
PFGSは、これらの課題を、よりインテリジェントに登録プロセスに組み込むことで克服している。
この設計は、背景の不整合を解消しながら、両方のアプローチのベストを捉えます。
実験の結果,PFGSは定性評価と定量的評価の両方において高いベースラインを一貫して上回り,より完全な再構築と高忠実度3DGSモデルが得られた。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - UnPose: Uncertainty-Guided Diffusion Priors for Zero-Shot Pose Estimation [19.76147681894604]
UnPoseはゼロショットでモデルなしの6Dオブジェクトのポーズ推定と再構成のためのフレームワークである。
事前訓練された拡散モデルから3Dの先行値と不確実性の推定値を利用する。
6次元ポーズ推定精度と3次元再構成品質の両方において、既存のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-08-21T21:31:04Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - PCR-GS: COLMAP-Free 3D Gaussian Splatting via Pose Co-Regularizations [102.0476991174456]
COLMAPのない3DGSは、未ポーズの画像やビデオから高品質な3Dシーンを再構築する際、顕著なパフォーマンスのために注目を集めている。
PCR-GSはCOLMAPフリーな3DGS技術であり,カメラポーズによる3Dシーンモデリングとカメラポーズ推定を実現する。
論文 参考訳(メタデータ) (2025-07-18T13:09:33Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Sparse-view Pose Estimation and Reconstruction via Analysis by Generative Synthesis [25.898616784744377]
観察されたビューの少ないセットを考えると、その観察は完全な正確な3Dを得るのに十分な直接的な証拠を与えていないかもしれない。
a) 新規なビュー合成に基づく生成先行を光度目標と組み合わせて、推定された3Dの質を向上させる方法、(b) アウトレーヤを明示的に推論し、連続最適化に基づく戦略による離散探索を用いて補正する手法であるSparseAGSを提案する。
論文 参考訳(メタデータ) (2024-12-04T18:59:24Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。