論文の概要: NOPE-SAC: Neural One-Plane RANSAC for Sparse-View Planar 3D
Reconstruction
- arxiv url: http://arxiv.org/abs/2211.16799v1
- Date: Wed, 30 Nov 2022 07:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:05:48.581001
- Title: NOPE-SAC: Neural One-Plane RANSAC for Sparse-View Planar 3D
Reconstruction
- Title(参考訳): NOPE-SAC:スパークビュー平面3次元再構成のためのニューラルワンプレーンRANSAC
- Authors: Bin Tan, Nan Xue, Tianfu Wu, Gui-Song Xia
- Abstract要約: 本稿では,厳密なスパースビュー構成による2次元3次元再構成の課題について検討する。
本稿では,ワンプレーンのポーズ仮説を学習する優れた能力を発揮する新しいニューラルワンプレーンRANSACフレームワークを提案する。
- 参考スコア(独自算出の注目度): 37.5773633595605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the challenging two-view 3D reconstruction in a rigorous
sparse-view configuration, which is suffering from insufficient correspondences
in the input image pairs for camera pose estimation. We present a novel Neural
One-PlanE RANSAC framework (termed NOPE-SAC in short) that exerts excellent
capability to learn one-plane pose hypotheses from 3D plane correspondences.
Building on the top of a siamese plane detection network, our NOPE-SAC first
generates putative plane correspondences with a coarse initial pose. It then
feeds the learned 3D plane parameters of correspondences into shared MLPs to
estimate the one-plane camera pose hypotheses, which are subsequently reweighed
in a RANSAC manner to obtain the final camera pose. Because the neural
one-plane pose minimizes the number of plane correspondences for adaptive pose
hypotheses generation, it enables stable pose voting and reliable pose
refinement in a few plane correspondences for the sparse-view inputs. In the
experiments, we demonstrate that our NOPE-SAC significantly improves the camera
pose estimation for the two-view inputs with severe viewpoint changes, setting
several new state-of-the-art performances on two challenging benchmarks, i.e.,
MatterPort3D and ScanNet, for sparse-view 3D reconstruction. The source code is
released at https://github.com/IceTTTb/NopeSAC for reproducible research.
- Abstract(参考訳): 本稿では,カメラポーズ推定のための入力画像対の対応が不十分な厳密なスパースビュー構成の2次元再構成について検討する。
本稿では、3次元平面対応から1面のポーズ仮説を学習する能力に優れたニューラルワンプレーンRANSACフレームワーク(略してNOPE-SAC)を提案する。
シアム面検出ネットワーク上に構築されたNOPE-SACは,まず,粗い初期ポーズを伴って配置面対応を生成する。
そして、学習した3次元対応パラメーターを共有mlpに供給して、1面カメラのポーズを推定し、最終的にカメラのポーズを得るためにランサック方式で緩和する。
ニューラルワンプレーンポーズは、適応的なポーズ仮説生成のための平面対応の数を最小化するため、スパースビュー入力のための少数の平面対応において安定したポーズ投票と信頼性の高いポーズ改善を可能にする。
実験の結果,NOPE-SACは2視点入力のカメラポーズ推定を大幅に改善し,2つの挑戦的ベンチマーク(MatterPort3DとScanNet)に新たな最先端性能を設定した。
ソースコードは再現可能な研究のためにhttps://github.com/IceTTTb/NopeSACで公開されている。
関連論文リスト
- CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by
Leveraging In-the-wild 2D Annotations [25.05308239278207]
一つの画像から3次元のポーズ推定を行うための弱教師付きフレームワークであるCameraPoseを提案する。
カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに投入して、トレーニングの多様性を高めることができます。
また、2次元ポーズ推定器によって抽出されたノイズの多い2Dキーポイントの品質をさらに向上させるため、信頼誘導損失を有する改良型ネットワークモジュールも導入する。
論文 参考訳(メタデータ) (2023-01-08T05:07:41Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - FvOR: Robust Joint Shape and Pose Optimization for Few-view Object
Reconstruction [37.81077373162092]
数枚の画像から正確な3Dオブジェクトモデルを再構築することは、コンピュータビジョンにおいて難しい問題である。
FvORは、ノイズの多い入力ポーズを持つ数枚の画像から正確な3Dモデルを予測する学習ベースのオブジェクト再構成手法である。
論文 参考訳(メタデータ) (2022-05-16T15:39:27Z) - Stochastic Modeling for Learnable Human Pose Triangulation [0.7646713951724009]
本研究では,3次元ポーズ三角測量のためのモデリングフレームワークを提案し,その性能を異なるデータセットと空間カメラアレンジメントで評価する。
提案したポーズ三角測量モデルは、異なるカメラアレンジメントと2つの公開データセット間の一般化に成功している。
論文 参考訳(メタデータ) (2021-10-01T09:26:25Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。