論文の概要: SparsePose: Sparse-View Camera Pose Regression and Refinement
- arxiv url: http://arxiv.org/abs/2211.16991v1
- Date: Tue, 29 Nov 2022 05:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:14:08.145870
- Title: SparsePose: Sparse-View Camera Pose Regression and Refinement
- Title(参考訳): SparsePose:スパースビューカメラポッドの回帰とリファインメント
- Authors: Samarth Sinha, Jason Y. Zhang, Andrea Tagliasacchi, Igor
Gilitschenski, David B. Lindell
- Abstract要約: ワイドベースライン画像のスパースセット(10以下)が与えられた正確なカメラポーズを復元するためのスパースポーズを提案する。
この方法は、初期カメラのポーズを復元し、大規模なオブジェクトのデータセットをトレーニングした後、繰り返し洗練することを学ぶ。
また,物体の5-9画像のみを用いて高忠実度3次元再構成のためのパイプラインを実証した。
- 参考スコア(独自算出の注目度): 32.74890928398753
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Camera pose estimation is a key step in standard 3D reconstruction pipelines
that operate on a dense set of images of a single object or scene. However,
methods for pose estimation often fail when only a few images are available
because they rely on the ability to robustly identify and match visual features
between image pairs. While these methods can work robustly with dense camera
views, capturing a large set of images can be time-consuming or impractical. We
propose SparsePose for recovering accurate camera poses given a sparse set of
wide-baseline images (fewer than 10). The method learns to regress initial
camera poses and then iteratively refine them after training on a large-scale
dataset of objects (Co3D: Common Objects in 3D). SparsePose significantly
outperforms conventional and learning-based baselines in recovering accurate
camera rotations and translations. We also demonstrate our pipeline for
high-fidelity 3D reconstruction using only 5-9 images of an object.
- Abstract(参考訳): カメラポーズ推定は、単一のオブジェクトやシーンの密集したイメージセットで動作する標準的な3D再構築パイプラインにおける重要なステップである。
しかし、画像ペア間の視覚的特徴を頑健に識別しマッチングする能力に依存するため、少数の画像しか利用できない場合、ポーズ推定の手法は失敗することが多い。
これらの手法は高密度カメラビューで堅牢に機能するが、大量の画像をキャプチャすることは時間を要するか実用的ではない。
広帯域画像のスパースセット(10以下)を与えられた正確なカメラポーズを復元するSparsePoseを提案する。
この方法は,大規模なオブジェクトのデータセット(Co3D:Common Objects in 3D)をトレーニングした後,初期カメラのポーズを再現し,反復的に改善する。
SparsePoseは、カメラの正確な回転と翻訳の回復において、従来のベースラインと学習ベースのベースラインを大きく上回っている。
また,物体の5-9画像のみを用いて高忠実度3次元再構成のためのパイプラインを実証した。
関連論文リスト
- ZeroGS: Training 3D Gaussian Splatting from Unposed Images [62.34149221132978]
我々はZeroGSを提案し、3DGSを何百もの未提示画像から訓練する。
本手法は,事前学習した基礎モデルをニューラルネットワークのシーン表現として活用する。
提案手法は,最先端のポーズレスNeRF/3DGS法よりも高精度なカメラポーズを復元する。
論文 参考訳(メタデータ) (2024-11-24T11:20:48Z) - SpaRP: Fast 3D Object Reconstruction and Pose Estimation from Sparse Views [36.02533658048349]
本研究では,3次元テクスチャメッシュを再構成し,スパースビュー画像に対する相対カメラのポーズを推定する新しい手法であるSpaRPを提案する。
SpaRPは2次元拡散モデルから知識を抽出し、それらを微調整し、スパースビュー間の3次元空間関係を暗黙的に推論する。
テクスチャ化されたメッシュを生成するのに、わずか20秒しかかからず、カメラは入力ビューにポーズする。
論文 参考訳(メタデータ) (2024-08-19T17:53:10Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - Fast and Lightweight Scene Regressor for Camera Relocalization [1.6708069984516967]
プレビルドされた3Dモデルに対して直接カメラのポーズを推定することは、いくつかのアプリケーションにとって違法にコストがかかる可能性がある。
本研究では,シーン座標のマッピングに多層パーセプトロンネットワークのみを必要とする簡易なシーン回帰手法を提案する。
提案手法では,高密度のRGB画像ではなく,スパースディスクリプタを用いてシーン座標を回帰する。
論文 参考訳(メタデータ) (2022-12-04T14:41:20Z) - FvOR: Robust Joint Shape and Pose Optimization for Few-view Object
Reconstruction [37.81077373162092]
数枚の画像から正確な3Dオブジェクトモデルを再構築することは、コンピュータビジョンにおいて難しい問題である。
FvORは、ノイズの多い入力ポーズを持つ数枚の画像から正確な3Dモデルを予測する学習ベースのオブジェクト再構成手法である。
論文 参考訳(メタデータ) (2022-05-16T15:39:27Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。