論文の概要: NOPE-SAC: Neural One-Plane RANSAC for Sparse-View Planar 3D
Reconstruction
- arxiv url: http://arxiv.org/abs/2211.16799v1
- Date: Wed, 30 Nov 2022 07:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:05:48.581001
- Title: NOPE-SAC: Neural One-Plane RANSAC for Sparse-View Planar 3D
Reconstruction
- Title(参考訳): NOPE-SAC:スパークビュー平面3次元再構成のためのニューラルワンプレーンRANSAC
- Authors: Bin Tan, Nan Xue, Tianfu Wu, Gui-Song Xia
- Abstract要約: 本稿では,厳密なスパースビュー構成による2次元3次元再構成の課題について検討する。
本稿では,ワンプレーンのポーズ仮説を学習する優れた能力を発揮する新しいニューラルワンプレーンRANSACフレームワークを提案する。
- 参考スコア(独自算出の注目度): 37.5773633595605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the challenging two-view 3D reconstruction in a rigorous
sparse-view configuration, which is suffering from insufficient correspondences
in the input image pairs for camera pose estimation. We present a novel Neural
One-PlanE RANSAC framework (termed NOPE-SAC in short) that exerts excellent
capability to learn one-plane pose hypotheses from 3D plane correspondences.
Building on the top of a siamese plane detection network, our NOPE-SAC first
generates putative plane correspondences with a coarse initial pose. It then
feeds the learned 3D plane parameters of correspondences into shared MLPs to
estimate the one-plane camera pose hypotheses, which are subsequently reweighed
in a RANSAC manner to obtain the final camera pose. Because the neural
one-plane pose minimizes the number of plane correspondences for adaptive pose
hypotheses generation, it enables stable pose voting and reliable pose
refinement in a few plane correspondences for the sparse-view inputs. In the
experiments, we demonstrate that our NOPE-SAC significantly improves the camera
pose estimation for the two-view inputs with severe viewpoint changes, setting
several new state-of-the-art performances on two challenging benchmarks, i.e.,
MatterPort3D and ScanNet, for sparse-view 3D reconstruction. The source code is
released at https://github.com/IceTTTb/NopeSAC for reproducible research.
- Abstract(参考訳): 本稿では,カメラポーズ推定のための入力画像対の対応が不十分な厳密なスパースビュー構成の2次元再構成について検討する。
本稿では、3次元平面対応から1面のポーズ仮説を学習する能力に優れたニューラルワンプレーンRANSACフレームワーク(略してNOPE-SAC)を提案する。
シアム面検出ネットワーク上に構築されたNOPE-SACは,まず,粗い初期ポーズを伴って配置面対応を生成する。
そして、学習した3次元対応パラメーターを共有mlpに供給して、1面カメラのポーズを推定し、最終的にカメラのポーズを得るためにランサック方式で緩和する。
ニューラルワンプレーンポーズは、適応的なポーズ仮説生成のための平面対応の数を最小化するため、スパースビュー入力のための少数の平面対応において安定したポーズ投票と信頼性の高いポーズ改善を可能にする。
実験の結果,NOPE-SACは2視点入力のカメラポーズ推定を大幅に改善し,2つの挑戦的ベンチマーク(MatterPort3DとScanNet)に新たな最先端性能を設定した。
ソースコードは再現可能な研究のためにhttps://github.com/IceTTTb/NopeSACで公開されている。
関連論文リスト
- MonoPlane: Exploiting Monocular Geometric Cues for Generalizable 3D Plane Reconstruction [37.481945507799594]
本稿では,MonoPlaneという汎用的な3次元平面検出・再構成フレームワークを提案する。
まず、大規模な事前学習ニューラルネットワークを用いて、1つの画像から深度と表面の正常値を得る。
これらの特異な幾何学的手がかりを近接誘導RANSACフレームワークに組み込んで各平面インスタンスに順次適合させる。
論文 参考訳(メタデータ) (2024-11-02T12:15:29Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PlaneRecTR++: Unified Query Learning for Joint 3D Planar Reconstruction and Pose Estimation [10.982464344805194]
PlaneRecTR++はTransformerベースのアーキテクチャで、マルチビューの再構築とポーズ推定に関連するすべてのサブタスクを統合する。
提案した統合学習は,ScanNetv1,ScanNetv2,NYUv2-Plane,MatterPort3Dデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-25T18:28:19Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - Stochastic Modeling for Learnable Human Pose Triangulation [0.7646713951724009]
本研究では,3次元ポーズ三角測量のためのモデリングフレームワークを提案し,その性能を異なるデータセットと空間カメラアレンジメントで評価する。
提案したポーズ三角測量モデルは、異なるカメラアレンジメントと2つの公開データセット間の一般化に成功している。
論文 参考訳(メタデータ) (2021-10-01T09:26:25Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。