論文の概要: gDLS*: Generalized Pose-and-Scale Estimation Given Scale and Gravity
Priors
- arxiv url: http://arxiv.org/abs/2004.02052v1
- Date: Sun, 5 Apr 2020 00:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:52:30.320366
- Title: gDLS*: Generalized Pose-and-Scale Estimation Given Scale and Gravity
Priors
- Title(参考訳): gDLS*: スケールと重力を前提とした一般化されたPose-and-Scaleの推定
- Authors: Victor Fragoso, Joseph DeGol, Gang Hua
- Abstract要約: gDLS* は、回転とスケール先行を利用する一般化されたカメラモデルポーズ・アンド・スケール推定器である。
合成データと実データの両方に関する実験は、gDLS*が推定過程を加速し、スケールを改善し、精度を向上させることを一貫して示している。
- 参考スコア(独自算出の注目度): 24.873863009025946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world applications in augmented reality (AR), 3D mapping, and
robotics require both fast and accurate estimation of camera poses and scales
from multiple images captured by multiple cameras or a single moving camera.
Achieving high speed and maintaining high accuracy in a pose-and-scale
estimator are often conflicting goals. To simultaneously achieve both, we
exploit a priori knowledge about the solution space. We present gDLS*, a
generalized-camera-model pose-and-scale estimator that utilizes rotation and
scale priors. gDLS* allows an application to flexibly weigh the contribution of
each prior, which is important since priors often come from noisy sensors.
Compared to state-of-the-art generalized-pose-and-scale estimators (e.g.,
gDLS), our experiments on both synthetic and real data consistently demonstrate
that gDLS* accelerates the estimation process and improves scale and pose
accuracy.
- Abstract(参考訳): 拡張現実(ar)や3dマッピング、ロボット工学における現実世界のアプリケーションの多くは、複数のカメラや1つの移動カメラで撮影された複数の画像から、カメラのポーズとスケールを高速かつ正確に推定する必要がある。
ポーズ・アンド・スケール推定器における高速達成と高精度維持は、しばしば目標と矛盾する。
両方を同時に達成するために、ソリューション空間に関する事前知識を利用する。
回転とスケールプリエントを利用した一般化カメラモデルのポーズ・アンド・スケール推定器であるgdls*を提案する。
gDLS*は、アプリケーションが各前のコントリビューションを柔軟に測定することを可能にする。
最先端の汎用・大規模推定器(gDLSなど)と比較して、合成データと実データの両方に対する実験は、gDLS*が推定プロセスを加速し、スケールを改善し、精度を向上することを示す。
関連論文リスト
- Deep Learning for Camera Calibration and Beyond: A Survey [104.36411095582947]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - SC-wLS: Towards Interpretable Feed-forward Camera Re-localization [29.332038781334443]
視覚的再ローカライゼーションは、ロボット工学や拡張現実といったアプリケーションにとって不可欠な、既知の環境でのカメラのポーズの回復を目的としている。
フィードフォワード絶対カメラは、ネットワークによって直接ポーズを出力するが、精度が低い。
重み付き最小二乗の回帰に対するすべてのシーン座標推定を生かしたSC-wLSというフィードフォワード手法を提案する。
論文 参考訳(メタデータ) (2022-10-23T15:15:48Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - Real-time, low-cost multi-person 3D pose estimation [8.093696116585717]
伝統的に3次元ポーズ推定には、深度画像を生成するために複数の連結強度カメラや高解像度の飛行時間カメラのような高度な装置が必要である。
本稿では, 高精度なポーズ推定を実現し, より簡単な作業のために設計された飛行時間センサの限界を克服できることを実証する。
この作業は、それまで高度なハードウェア要件と飛行時間技術によって制限されていたシナリオにおける有望な現実的なアプリケーションを開く。
論文 参考訳(メタデータ) (2021-10-11T12:42:00Z) - SPEC: Seeing People in the Wild with an Estimated Camera [64.85791231401684]
1枚の画像から視点カメラを推定する最初の3DHPS方式であるSPECを紹介する。
我々は、視野、カメラピッチ、入力画像のロールを推定するためにニューラルネットワークを訓練する。
次に、カメラキャリブレーションを画像の特徴に合わせてロールする新しいネットワークをトレーニングし、これらを組み合わせて3Dのボディ形状とポーズを復元する。
論文 参考訳(メタデータ) (2021-10-01T19:05:18Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z) - Wide-Depth-Range 6D Object Pose Estimation in Space [124.94794113264194]
宇宙での6Dポーズ推定は、地上環境では一般的に遭遇しないユニークな課題を引き起こします。
最も顕著な違いの1つは、大気の散乱の欠如であり、物体を遠くから見えるようにします。
本稿では,単一段階の階層型エンドツーエンドトレーニングネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T08:39:26Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。